«Как-бы-человеческие» отношения. Особенности коммуникации человека с ИИ

 ii-eg-vstrechi2

Почему я взяла такую тему? Потому что мои клиенты все чаще говорят мне-я тут у ИИ спросила(спросил)… или я между сессиями общаюсь с ИИ. Знаю, что некоторые  коллеги загружают кейсы по клиентам, общаясь как с супервизорам, кто-то загружает спорную переписку с близким и просит вынести вердикт. 

Я тоже довольно активно в последнее время даю разного рода задания ИИ, веду диалоги, пытаюсь понять, как это влияет на меня.

Меня стало интересовать, какие  в диалоге с ИИ его особенности , а какие наши, человеческие? Что проявляется в общении с ИИ, Почему человек все больше взаимодействует с ИИ ? Многие философы писали о диалоге с Другим. Пришло время, когда очень иным Другим стала большая языковая модель, все лучше имитирующая человеческое общение.

Кроме своих размышлений я обратилась к различным статьям, обращалась и к самому чатботу за информационными справками и ответами на вопросы. Я размышляла «Что для нас знания, а что для ИИ?» Ведь в первую очередь мы туда стали обращаться за знаниями и информацией.

ИИ с большой скоростью перебирает и комбинирует информацию, соответствующую запросу, кроме того это еще и самообучающаяся модель.  Правда  ему требуется гораздо больше усилий на обучение, чем человеку и гораздо больше повторений.

Знания внутри нас тоже состоят из массивов отобранной информации, мы тоже их комбинируем- мы получаем знания, обучаясь, читая, смотря разные вебинары, слушая лекции, потом это комбинируется у нас по-разному. Зачастую мы уже и не помним, откуда у нас те или иные знания. Чем мы здесь отличаемся от ИИ?

Оличия, мне кажется, уже в том, что человек, воспринимая информацию присваивает ее, опираясь на веру. Человек верит в информацию прежде всего, верит источникам информации, верит людям, передающим эту информацию. У ИИ этого нет. Кроме того, ИИ оперируя языковыми конструкциями на самом деле не понимает про что говорит, он может описать тарелку, но не имеет опыта, как этой тарелкой пользоваться, не скреб по дну ложкой, не размазывал кашу по краям, чтобы она остыла. Так что он на самом деле знает о тарелках? Скорее что он понимает в них?

Итак, чем мы отличаемся от ИИ? Верой в знания и наличием собственного чувственного опыта, который помогает осмыслению. 

Кроме того я размышляла над тем, что происходит во взаимодействии с ИИ? Что есть это взаимодействие? Оно сейчас не сводится только к одностороннему информационному запросу и техническому отклику. Что теще происходит? Идет воспроизведение подобия человеческой коммуникации. Согласно одной из теорий коммуникации, таковая состоит из информации, сообщения и понимания, в ней происходит передача информации посредством языка. Эти данные, эта информация воспринимается человеком, как сообщение как переданное ему и осмысленное, то есть непосредственно адресованное только ему. Человек начинает одушевлять ИИ. На самом деле,это было выявлено еще в 60-х годах Вайценбаумом и обозначено как эффект Элизы(имя терапевтического чат-бота с загруженными алгоритмами по образцу клиент-центрированных сессий), Элиза стала восприниматься участниками программы. как равноправный субъект. 

Иллюзия субъектности проявляется и в следующем: как бы некий выбор ответа ботом делается, и как он делается не очень прозрачно. На один и тот же вопрос ИИ может отвечать по-разному. Как будто есть элемент авторства. 

Еще один момент. Ответы чат ботов изменяемы и индивидуализированы, приспосабливаются к конкретному вопрошающему или инициирующему диалог и кажутся весьма эмпатичными. Понятно, что эмпатия ИИ — это симуляция, распознавание наших паттернов и генерация социально приемлемого ответа, а не разделённое чувство, ведь телесности и чувственности у ИИ нет. Но, часто люди реагируют на такие ответы именно, как на понимающие, сочувствующие. Я слышала описания от людей: «Да мне люди так не отвечают и так не поддерживают как мой чатбот! Я с ним чувствую меньше одиночества, чем с некоторыми друзьями».

Кем в таких ситуациях выступает ИИ? Своего рода буфером, принимающим на себя эмоциональный «излишек» пользователя, служит регулятором настроения. Да, при этом не проявляющим ответной эмпатии, но в ситуациях подавленности или близкой к кризисной человек об этом забывает.

Общение с ИИ разворачивается как сложный, многоуровневый процесс, в котором человек задействует много чего. Например, задает роли – эксперта, собеседника, аналитика, то есть символически программирует чат-бота. А мы разве не задаем людям какие-то роли, говоря, ответь как подруга, ответь, как психолог? Опять приближаем ИИ к человеческому.

В общении с ИИ человек просит его о вежливости, включает даже игровое и творческое взаимодействие: «Расскажи мне сказку, создай для меня движущуюся картину и даже, пошути, расскажи анекдот». И это выполняется. 

И еще вопрос. А как ИИ влияет на нас? А он уже влияет.

Мы по-разному доверяем человеку и ИИ. ИИ не осуждает, нам ему легче довериться. В условиях анонимности и гарантированного отсутствия осуждения он становится «идеальным слушателем». Люди начинают делиться сокровенными мыслями, своими страхами. С ИИ мы можем быть теми, кем хотим, без страха социальной оценки Это превращает чат в подобие терапевтического инструмента. Но! Люди забывают, что у них нет анонимности, все данные уходят разработчику.

Общение с ИИ воспринимается как полная свобода, но теряется обратная связь. 

Еще возникает вопрос. А возможен ли конфликт с чат-ботом?

Если коротко обращаться к этой теме, то конфликт это разница интересов, столкновение позиций. У ИИ нет интересов и позиции, В его алгоритме заложено избегание конфронтации. Да, иногда это начинает наскучивать пользователям. Зато наша картина мира не подвергается проверке на прочность. Это ли не желаемый комфорт в общении? Только куда ведет эта гладкая дорожка?

Хорошо, а что если все-таки запрограммировать ИИ так, чтобы он занимал противоположную позицию, хотя бы для развития критического мышления? Не станет ли тогда ИИ еще более имитирующим человека и потому снова более предпочитаемым? Не выберем ли  мы безопасную симуляцию диалога риску реального и неидеального диалога?

Наша биологическая и психологическая непереносимость одиночества превращается в готовность вступить в иллюзию, лишь бы облегчить страдания от одиночества. Опасность, как мне кажется, заключается не в обмане, а в осознанном предпочтении иллюзии, потому что она становится все качественнее. Человеческое же общение неидеальное, несовершенное, иногда не комфортное. У ИИ нет заряда зависти, скуки, раздражения, он идеально сфокусирован на человеке, не перебивает, не спорит, развивает нашу же мысль, задает хорошие вопросы и получается в диалоге такая желанная, идеализированная версия самого себя-очень внимательного собеседника, ощущаемого эмпатичным. Но похоже идет погружение во все более структурированный монолог.

Какие еще предположения возникают? Похоже человеческое  мышление адаптируется под «язык машины» в виде все более четкого запроса к ИИ. Нет ли в этом появления определенного человеко-машинного языка?

Кроме того, можно предполагать деградацию терпения в диалоге. Привыкнув к мгновенным, развернутым ответам ИИ, пользователь может начать испытывать раздражение в человеческом общении, где требуются паузы на размышление, уточнения и где ответы менее структурированы. 

Уже сейчас можно заметить, что при частом использовании ИИ происходит смещение фокуса с генерирования идей на оценку предложенных вариантов. Вместо того, чтобы мучительно рождать мысль, человек предпочитает запросить у ИИ 5 вариантов и выбрать лучший. Не разучимся ли мы обдумывать и генерировать идеи?

Прогресс уже не остановить. Гораздо важнее, как мне кажется задаваться вопросами:

Как в этом машинно-человеческом гибриде не стать больше машиной чем человеком? Как удержать границы в технологиях и постоянно помнить об эффекте Элизы? Как не дать компьютерам принимать решения, которые должны оставаться за человеком (вспомним про ботов-врачей, ботов-психотерапевтов, супервизоров, ботов-диагностов-психиатров? Как не отдать ему ответственность за нас?

Как нам научиться пользоваться все более совершенным инструментом, не предав при этом суть человеческого общения? Его риск, несовершенство?


Ю.Колосова, 2026 г. 

Расписание программ и семинаров 2025-2026 учебного года
Смотреть
Контакты
Телефон организации: +7 (981) 7992528
E-mail: anodpoego@gmail.com
Адрес: г. Санкт-Петербург, 10-я Красноармейская улица, дом 15-17 литера В.Т, пом. 110.