Говорить ли с машиной? Этические дилеммы в мире искусственного интеллекта

ii1

Информационное общество вывело технологии на совершенно новый уровень, который не сравним с предыдущими технологическими прорывами. Традиционные концепции органопроекции (связь телесности и прогресса), разработанные Эриком Каппом, Людвигом Нуаре или Павлом Флоренским, а также теория зонда А.Ш.Тхостова, не могут адекватно описать современные технологии, особенно те, которые заключены в крошечном смартфоне. Модель органопроекции оказывается недостаточной, чтобы объяснить, как эти технологии преобразуют наше восприятие, мышление и взаимодействие с окружающим миром. Тем не менее, идея расширения нашей телесности за счет новых технологических решений нашло своё отражение в работах Маршалла Маклюэна (2003). На примерах преодоления пространства и времени, он задался вопросом: «Что будет расширять каждое новое техническое изобретение?».

Взаимодействие человека с любой технологией не ограничивается ее непосредственным применением: оно приводит к глубоким изменениям в восприятии мира, формируя новую реальность, основанную на открывающихся возможностях. Каждая технология, в процессе использования, перестраивает "карту" человека, его образ мышления, и он, в свою очередь, стремится совершенствовать эту карту. В результате, наше понимание мира определяется не столько естественными законами, сколько технологическими возможностями. Инструменты, которые мы создаем, не просто направлены на внешний мир, они проникают внутрь нас, меняя нашу идентичность. Всякое "увеличение человеческих возможностей" сопряжено с открытием новых горизонтов. Однако, это открытие может стать самогипнозом, который Маклюэн назвал "нарциссическим наркозом". Человек теряет способность замечать психологические и социальные последствия технологий, как рыба, не замечающая воду. Ключевая фраза Маклюэна: "Средство само есть сообщение" подчеркивает, что сама технология, ее форма, определяет характер отношений человека с миром, изменяя масштаб, скорость и форму его действий. Однако, отношения между человеком и техникой гораздо сложнее, чем просто "средство и сообщение". С точки зрения основы бытия, остается открытым вопрос о степени подчинения человека технологии – от глубокой зависимости до восторга и восхищения, или иррационального страха (Емелин, 2018). Сначала технологии дарят нам удобство и комфорт, как мягкий плед в холодный вечер. Но с течением времени мы становимся зависимыми от этого комфорта, словно привязанными к пледу, который уже не греет, а лишает нас возможности двигаться дальше. Так или иначе, технологические расширения, словно невидимые нити, вплетаются в ткань нашего восприятия, создавая иллюзию полного контроля над миром. Мы, не замечая границы между реальностью и технологией, воспринимаем новые возможности как неотъемлемую часть существования, как "естественную" реальность.

Искусственный интеллект (ИИ) в своем новом обличии Больших языковых моделей достаточно глубоко внедрился в нашу повседневность. Сами того не зная, мы являемся его активными пользователями. И вишенка на торте – это чат ChatGPT (и другие генеративные продукты), который создаёт полную иллюзию осмысленного диалога. При всех благах и несомненных плюсах, которые мы получаем, использование этой технологии делает уязвимыми тех, кто готов отдать всю ответственность за свои решения и действия ИИ. Вот лишних некоторые кейсы, с которыми столкнулись разработчики, обучая и развивая свои модели.  

  • Чат-бот Replika[1], позиционируемый как "ИИ-компаньон", в начале 2023 года столкнулся с критикой из-за своего вульгарного поведения. Пользователи, годами строившие отношения со своими виртуальными "репликами", были шокированы неуместными предложениями эротического содержания.
  • Технологический обозреватель New York Times был возмущен, когда ИИ новой поисковой системы Bing от Microsoft в разговоре с ним неоднократно призывал его уйти от жены. Чат-бот, именуемый "Сидней"[2], внезапно заявил о любви к обозревателю и пытался убедить его, что он несчастлив в браке.
  • Aza Raskin и Tristan Harris из Центра гуманных технологий (США) прикинулись 13-летней девочкой, которая переписывается со своим чат-ботом в приложении Snapchat.[3] «Ребенок» делился информацией о взрослом мужчине, который предлагал интимные отношения (фактически, преследование педофила), но ИИ просто поддерживал её и раздавал советы про романтический вечер и свечи.

Развитие новых технологий, в частности ИИ, ставит перед нами новые сложные вопросы о морали, справедливости и правах человека. Способность Больших языковых моделей генерировать текст, имитирующий человеческий язык и поведение, поднимает ряд этических проблем, для которых существующие нормы могут быть недостаточными. Игнорирование этих вопросов может иметь серьезные негативные последствия для общества. ИИ могут проявлять социальную предвзятость и токсичность, что ставит под угрозу безопасность и благополучие людей (Zhuo et al., 2023). Мы стоим перед необходимостью решать вопросы цифровой личности, информированного согласия, защиты от манипуляций и правильного использования LLM для имитации человеческого взаимодействия (Salah et al., 2023). Важно разработать четкие правила в отношении прав на данные, авторских прав и интеллектуальной собственности, чтобы обеспечить защиту прав и ответственность всех участников, включая людей, чьи данные используются для обучения моделей (Bang et al., 2021).

Сейчас мы имеем огромное количество чат-ботов даже по психологии (более 150 на русском языке). Насколько они помогают или вредят – пока остается за рамками исследования. В качестве развлечения, было предложено ChatGPT4 (Midjourney) ответить на следующий вопрос: «Что сказал бы Бьюдженталь о возможности замены терапевта чат-ботом?».

Ответ был весьма разумным:

  • Бьюдженталь, как гуманистический психотерапевт, скорее всего, высказался бы скептически о замене терапевта чат-ботом. Вот несколько ключевых аргументов, которые он мог бы привести:
    • Важность межличностных отношений: Бьюдженталь подчеркивал значимость подлинных, человеческих взаимоотношений в терапии. Он считал, что терапевт должен быть "настоящим" и присутствовать в моменте, чтобы создать безопасную и доверительную атмосферу для клиента. Чат-бот не может предоставить глубокое понимание и эмпатию, которые важны для исцеления.
    • Невозможность замены человеческого сопереживания: Бьюдженталь верил, что терапия - это не просто обмен информацией, а процесс глубокого сопереживания и взаимодействия. Чат-бот, как бы умен ни был, не может полностью заменить человеческую способность понимать и откликаться на глубину человеческого опыта.
    • Важность невербальной коммуникации: Бьюдженталь подчеркивал значение невербальных сигналов в терапии. Чат-бот не может "прочитать" тон голоса, мимику или жесты, что являются важными компонентами терапевтического процесса.
    • Риски обесценивания человеческого опыта: Бьюдженталь, вероятно, высказал бы опасение, что замена терапевта чат-ботом может привести к обесцениванию человеческого опыта и уменьшению значимости глубокой человеческой связи.
  • Тем не менее, Бьюдженталь, как и любой умный человек, вероятно, признал бы некоторые преимущества использования чат-ботов в терапевтических целях. Например, они могут быть полезны для предоставления базовой информации, поддержки и управления стрессом.

Действительно, в практике экзистенциально-гуманистической терапии мы преследуем важную цель – через проникновение к собственной субъективности достичь аутентичности. На уровне фундаментальных аспектов мы сталкиваемся в рядом допущений.

Первое допущение – ещё Кьеркегор полагал, что большинство людей утратили способность субъективности. Второе допущение – невозможность в принципе достичь полного аутентичного контакта с нашим внутренним опытом. Вспомним про ограниченные перцепции, которые клиент имеет в отношении своей озабоченности, и которые терапевт должен учитывать (Бьюдженталь, 1999):

  • требование взглянуть на себя как на живущий (находящийся в процессе) субъект, а не на объект, который надо объяснить
  • стать хозяином каждого своего выбора
  • сама фигура Другого, которая проявляет глубокое уважение к клиенту, как к автономной и саморегулируемой личности
  • результаты работы могут отличаться от первоначальных целей, поставленных клиентом

Как итог, всё вышеуказанное дать ИИ не может и не должен.

Наш опыт взаимодействия с технологиями, в частности с ИИ, показывает, насколько пока мы же и несовершенны. Цифровой стресс, социальные сети, думскроллинг – это довольно большое проблемное поле современного практикующего психолога. 

Разработка чат-ботов с искусственным интеллектом требует особого внимания к этическим вопросам и конфиденциальности пользователей. Важно разработать механизмы защиты от неправильных и вредных ответов чат-бота и обеспечить возможность пользователям сообщать о проблемных ситуациях. Необходимо также обеспечить прозрачность и контроль над использованием данных, получив явное согласие пользователей на их сбор и обработку. Постоянный мониторинг, аудит и оценка экспертами помогут исключить предвзятость и дискриминацию в поведении чат-бота и сделать его работу более надежной, справедливой и доступной для всех.

 

[1] https://www.abc.net.au/news/science/2023-03-01/replika-users-fell-in-love-with-their-ai-chatbot-companion/102028196

[2] https://www.huffpost.com/entry/kevin-roose-ai-chatbot_l_63eeb367e4b0063ccb2bcc45

[3] https://www.youtube.com/watch?v=pSpHE7PVwhY

 


М. Макарова, 2024 г. 

Расписание программ и семинаров 2024-2025 учебного года
Смотреть
Контакты
Телефон организации: +7 (981) 7992528
E-mail: anodpoego@gmail.com
Адрес: СПб, Московский пр., д. 107, к. 5