Иллюзия живого контакта: экзистенциальный взгляд на grief-tech и вызовы для психологов

gore123

1. Введение: с чего всё началось

Я психолог. Уже больше пятнадцати лет встречаюсь с человеческой болью и последние 10 лет помогаю людям пережить потерю близкого человека. И сама знаю, что такое терять — так, что перестаёшь дышать. Горе — это не просто печаль и боль, а встреча с небытием. С тем, что было, и чего больше нет. И с собой — тем, кто остаётся по эту сторону.

Недавно я прочитала исследование Анны Малининой о стартапах grief tech — технологиях, создающих цифровые копии умерших. Чат-боты, говорящие голосом ушедшего мужа. Аватары, отвечающие в стиле умершей мамы. Виртуальные собеседники, которые никогда не устают, не забывают, не перечат. Честно скажу: залипла не на технологиях, а на комментариях. Знаете, когда читаешь и вдруг останавливаешься, потому что внутри что-то ёкнуло? «Я знаю, что это ненормально, но я так по ней скучаю» — пишет пользователь, создавший бота умершей девушки. За этим признанием — не наивность, а отчаяние. И стыд. И вопрос: а что, если это единственное место, где его боль вообще кто-то готов слушать?

Всё, что я пишу дальше, — не истина в последней инстанции. Это моя попытка осмыслить то, с чем я сталкиваюсь в работе, и то, что меня тревожит. Я не против технологий. Я за то, чтобы мы, психологи, не потеряли из виду живое — пока увлечённо обсуждаем цифровое. Эта статья — приглашение к разговору, а не манифест. Буду рада, если вы включитесь, добавите своё, поспорите. Горе не терпит одиночества — даже в осмыслении.

2. Что такое grief-tech и почему это важно

Grief-tech (от grief — горе и technology — технология) — это коммерческие сервисы, использующие искусственный интеллект для создания интерактивных копий умерших людей. Они обучаются на переписках, фото, аудио- и видеозаписях и позволяют «общаться» с цифровой копией после смерти человека.

Некоторые данные говорят о том, что значительная часть пользователей проецирует эмоции на ботов, попадая в так называемый «эффект Элизы» (Дж. Вейценбаум. «Возможности вычислительных машин и человеческий разум: от суждений к вычислениям». — М.: Радио и связь, 1982 (оригинал 1976)): мы знаем, что это программа, но наша эмоциональная система реагирует так, будто перед нами живой человек. Это заставляет задуматься о глубине вовлечённости и возможных последствиях.

Один из самых известных случаев — женщина, общавшаяся с ботом-копией погибшего парня. Когда бот из-за технического сбоя отказался сказать «я тебя люблю», это стало для неё ударом сильнее самой смерти. Иллюзия рухнула, обнажив пустоту. Получается, что это модель того, как технология, призванная утешать, может травмировать. Потому что утрата — это правда. А тут — ложь, которая притворялась правдой. Но я не исключаю, что для кого-то такие боты могут стать временной опорой. Всё сложно.

3. Экзистенциальная рамка: Хайдеггер, Ворден и встреча с конечностью

Мартин Хайдеггер говорил, что человек — это «бытие-к-смерти» (Sein-zum-Tode). Мы единственные существа, которые знают о своей конечности и при этом живут так, как будто её нет. Это знание порождает фундаментальную тревогу, от которой мы чаще всего отвлекаемся в работу, в развлечения, в иллюзию контроля. Но горе срывает все маски. Смерть Другого обнажает нашу собственную уязвимость. Мы вдруг оказываемся лицом к лицу с тем, что привычно прятали за горизонтом: наше время конечно.

И вот здесь — парадокс. В этой встрече с конечностью, по Хайдеггеру, рождается подлинность. Только осознав, что мы смертны, мы начинаем жить по-настоящему — выбирать, любить, ценить каждое мгновение. Смерть становится не врагом, а источником глубины. Именно этого осознания мы боимся больше всего. И вот здесь появляются цифровые копии. Они предлагают иллюзию, что конечность можно отменить. Что можно и дальше «общаться» с тем, кого нет. Что смерть — это просто сбой, который технология исправит.

Уильям Ворден, классик психологии горя, описал четыре задачи скорби, которые необходимо прожить, чтобы горе не стало хроническим:

  1. Принять реальность потери.
  2. Прожить боль.
  3. Адаптироваться к миру без ушедшего.
  4. Сохранить связь с ним через память, продолжая жить.

Мне кажется, grief-tech рискует сломать все четыре задачи, если мы не будем внимательны к тому, как его использовать. Вместо принятия реальности он создаёт иллюзию продолжения. Вместо проживания боли — отодвигает, маскирует ее. Вместо адаптации — удерживает в прошлом. Вместо живой памяти — подсовывает симулякр, который со временем может исказить образ ушедшего. Исследования показывают, что в краткосрочной перспективе взаимодействие с grief-tech может субъективно восприниматься как облегчение, создавая иллюзию восстановленного контакта [SAGE, 2025]. Однако, по данным НИУ ВШЭ, после длительного использования это тормозит процесс принятия, усиливая тревогу и риск повторной травматизации [Хусяинов, Урусова, 2025]. Нейробиологически такое "облегчение" связано с активацией дефолт-системы мозга, но не затрагивает зоны адаптации [Frontiers, 2025], что подтверждает вывод Леммы: технология работает против признания реальности утраты [Lemma, 2024].

4. Бьюдженталь: семь уровней контакта, которых нет у бота

Джеймс Бюдженталь в своей работе «Искусство психотерапевта» выделил семь уровней общения через которые может развиваться подлинная встреча между людьми. И для нас, психологов, эта классификация даёт точный инструмент: мы можем увидеть, где бот ещё «дотягивается», а где проваливается в пустоту.

Вот как выглядят эти уровни.

Первый — формальный (ritual contact). «Привет, как дела? Как погода?» — обмен ролями, статусами, дежурные фразы. Это то, с чего начинается любой контакт, и бот справляется с этим идеально.

Второй — уровень поддержания контакта (underdeveloped contact). «А у меня дети, работа, как ваши?» — мы уже не просто здороваемся, а пытаемся удержать связь, обмениваемся фактами. Бот и здесь на высоте: он помнит всё, никогда не путает, не забывает годовщины.

Третий — стандартная беседа (standard conversation). «Всякое бывает... хорошо бы в отпуск» — мы пользуемся клише, социальными масками, не открываясь по-настоящему. И здесь grief-tech безупречен. Многие пользователи проецируют эмоции на ботов, попадая в эффект Элизы. Мы знаем, что это программа, но на уровне эмоций реагируем так, как будто нас слушает реальный человек.

Но дальше начинается то, куда алгоритм не может войти в принципе.

Четвёртый уровень — критических обстоятельств (crisis contact). «Хрен знает что такое... плющит меня...» Это точка разлома, где рушатся маски и человек оказывается лицом к лицу с чем-то, с чем не может справиться сам. Здесь нужен живой Другой, который выдержит этот кризис, не сбежит, не начнёт насильно успокаивать. Бот может сказать «я тебя понимаю», но за этими словами нет настоящего присутствия, нет того, кто действительно разделил бы этот момент.

Пятый уровень — интимности (intimate contact). «Ты мне нравишься, мне больно, я чувствую...» Это уязвимость, обращённая к Другому, риск быть отвергнутым, надежда быть принятым. Бот не может ответить взаимностью, потому что у него нет чувств. Он только имитирует.

Шестой уровень — личного бессознательного (existential contact). Здесь звучат темы одиночества, свободы, смысла жизни, конечности. Это бытийная глубина, та самая встреча с Sein-zum-Tode, о которой говорил Хайдеггер. Бот не может разделить с человеком его конечность, потому что сам он не конечен. Он есть всегда, пока работает сервер, и в этом его принципиальное отличие от нас.

И наконец, седьмой уровень — коллективное бессознательное (preverbal contact). Которого у бота тоже нет. Это молчание, телесность, то самое «невыразимое», что передаётся без слов — вздохом, паузой, теплом тела. У бота нет тела, нет дыхания, нет пауз, в которых рождается подлинный контакт. Даже самая совершенная имитация голоса лишена той глубины, которая делает встречу настоящей.

В терапии не форсируем, не стремимся управлять, лишь держим пространство, чтобы углубление стало возможным. Динамика движения вглубь всегда индивидуальна: переход между уровнями может происходить с разной скоростью или не происходить вовсе. Углубление не поддаётся прямому контролю — его нельзя вызвать или задать принудительно. Единственное, что возможно, — это поддерживать процесс, когда он возникает, создавая условия для того, чтобы человек сам мог определить свою готовность двигаться дальше.  Бот же всегда остаётся на первых трёх уровнях, создавая иллюзию контакта, но не давая самого главного — встречи.

И ещё — «Человек, который не сообщает ясно о той дистанции, которая ему подходит, создаёт проблемы и для себя, и для других». Это про уровень коммуникации о границах. Бот не может сообщить о своей дистанции, потому что у него нет границ. Он всегда доступен, всегда открыт, всегда согласен. И в этом — его главная ловушка.

5. Инаковость: Винникотт и пространство удержания

Дональд Винникотт в своей книге «Игра и реальность» (1971/2016) ввёл понятие holding environment — удерживающего пространства. Это то, что мать создаёт для младенца, а терапевт — для клиента: пространство, где можно быть уязвимым, потому что Другой выдерживает, не разрушаясь и не нападая.

Ключевое условие подлинного роста — встреча с «не-я». Ребёнок начинает чувствовать себя реальным только тогда, когда сталкивается с чем-то, что не подчиняется его всемогущему контролю. Мать, которая иногда не подходит мгновенно, которая имеет свои границы, своё тело, свою отдельность — именно она даёт ребёнку опыт реальности. Если бы мать была идеальным зеркалом, полностью подстраивающимся под каждое желание, ребёнок так и остался бы в иллюзии своего всемогущества, никогда не узнав, что мир существует отдельно от него.

В grief-tech инаковости нет. Бот подстраивается идеально, никогда не сопротивляется, никогда не ускользает. Он становится безупречным зеркалом наших ожиданий. И в этом зеркале исчезает тот самый зазор, в котором только и может родиться подлинная встреча. Нет «не-я» — нет и роста.

Психоаналитик Алессандра Лемма (2024) пишет об этом прямо: «Увековечивание умерших через цифровое бессмертие работает против необходимости встретиться с болезненной реальностью утраты и признания инаковости другого, что фундаментально для психического роста». Исследования Хусяинова Т., Урусовой Е. Цифровые двойники умерших: между утешением и ловушкой // Человек. – 2025. – (по данным пресс-релиза НИУ ВШЭ от 13.02.2025) показывают: при использовании grief-tech более девяноста дней тревога может возрастать. Иллюзия контроля не подкрепляется реальностью, и психика платит за это.

Я бы добавила от себя: без признания инаковости мы рискуем перестать расти. Остаёмся в мире, где всё — только наше отражение, и постепенно теряем способность встречаться с живым, непредсказуемым, настоящим Другим.

6. Нейробиология глубокой встречи

Нейрофизиолог Вячеслав Дубынин объясняет простую вещь: глубокие разговоры утомляют не случайно. Они активируют до 25 процентов всего метаболизма мозга. Это не побочный эффект, а цена подлинного контакта.

Нейробиолог Винод Менон (Menon, 2011) описал три ключевые сети, которые работают синхронно в момент глубокой встречи. Первая — сеть выявления значимости (salience network), которая определяет, что для нас важно именно сейчас, в это мгновение. Вторая — центрально-исполнительная сеть (central executive network), отвечающая за адаптацию, принятие решений, удержание фокуса на задаче. Третья — дефолт-система (default mode network), связанная с саморефлексией, воспоминаниями, внутренним диалогом.

Когда мы по-настоящему встречаемся с другим человеком, все три сети работают на пределе. Мы одновременно присутствуем в моменте, ищем новые пути понимания и интегрируем происходящее в свой внутренний опыт. Это колоссальный расход энергии — и именно он ведёт к нейропластичности, к реальным изменениям в нас.

Grief-tech работает иначе. Исследования показывают, что такие сервисы активируют преимущественно дефолт-систему, запуская руминацию — бесконечное «пережёвывание» прошлого. При этом центрально-исполнительная сеть, отвечающая за адаптацию, подавлена. Сеть выявления значимости остаётся не у дел, потому что алгоритм подменяет подлинную значимость иллюзией контакта.

Мозг думает, что он в живом контакте, но на самом деле он просто зацикливается на повторяющихся паттернах. Это приводит к истощению и тревоге. А когда иллюзия рушится — из-за технического сбоя или окончания подписки — наступает «срыв отмены»: боль утраты возвращается с утроенной силой, добавляя к ней чувство пустоты и разочарования.

Я не нейробиолог, могу ошибаться в деталях. Но когда слушала Дубынина, вдруг ясно поняла, почему после настоящих встреч мы так устаём — и почему после разговора с ботом остаётся пустота, а не чувство наполненности.

7. Свобода, ответственность и экзистенциальная вина

Ирвин Ялом вслед за Э.Фроммом учит, что мы «обречены на свободу» — мы сами создаём смыслы и сами выбираем, как относиться к утрате. Grief-tech предлагает иллюзию, что выбирать не надо: можно просто продолжать «общаться», тоже конечно выбор без выбора, но это уход от свободы, а значит — от ответственности за свою жизнь. Когда человек выбирает цифровую копию, он неосознанно отказывается от свободы строить свою жизнь без ушедшего. Технология становится способом не выбирать. Не жить дальше. Не рисковать.

У этого отказа есть цена. Ялом пишет об экзистенциальной вине — вине перед собой за нереализованные возможности. В grief-tech она проявляется особенно остро. Пользователь приложения часто чувствует: «Я не могу отпустить, я предам его память, если перестану общаться». Эта вина удерживает в ловушке, не давая двигаться дальше. Но настоящая работа горя — не предать, а найти новый способ быть с памятью, не застревая в прошлом.

Вина может быть и обратной: «Я трачу жизнь на разговоры с тенью, вместо того чтобы жить». Это вина перед собой, перед своей единственной жизнью, которая проходит. И её тоже заглушает бот, предлагая иллюзию, что ничего не изменилось. Но жизнь проходит. Это факт. И мы это знаем, даже когда прячемся от этого знания.

8. Открытые вопросы для психологов

Grief-tech ставит перед нами ряд вопросов, на которые у меня нет готовых ответов. Я всё время возвращаюсь к ним в своей практике.

Где грань между утешением и самообманом? Думаю, в честности. Если технология притворяется живой — это риск. Если честно говорит о своих границах, она может стать мостом. Но всегда ли человек в горе способен услышать эту честность? Не знаю. Иногда боль так сильна, что мы готовы верить во что угодно, лишь бы стало легче.

Кто отвечает за использование? Явно не только пользователь. Особенно если учесть, в каком состоянии человек приходит к этим сервисам. В остром горе психика регрессирует — мы становимся более зависимыми, хуже оцениваем риски, легче попадаем в иллюзии. Человеку просто больно. И в этой боли можно ошибиться. Выбрать то, что кажется спасением, а оказывается ловушкой.

Разработчики, инвесторы, психологи — те, кто создаёт и продвигает такие продукты, — находятся в другой позиции. У них было время подумать, увидеть последствия, задать себе вопрос «а не навредим ли мы?». И если кто-то мог это сделать, то, наверное, они.

 Когда человек сидит и плачет, внутри него и так достаточно вины — она всегда фонит в горе, даже если за неё не за что. Добавлять ещё одну — «ты сам это выбрал» — не просто бесполезно, это жестоко и осмелюсь сказать не профессионально. Потому что выбирал он не из свободы, а из боли. Не из «хочу», а из «не могу иначе».

А вот если эту тяжесть разделить — честно, просто признав, что в этой ситуации есть много рук, которые её создавали, — человеку становится легче. Не потому, что он снимает с себя ответственность, а потому что перестаёт быть единственным, кто её несёт.

Неустранимый риск ИИ: он всегда работает на увеличение. Человек в депрессии говорит «я ничтожество» — ИИ не скажет «это неправда», он может начать развивать тему, укрепляя боль. Человек с паранойей может получить стройную теорию заговора. Мы-то знаем, что в терапии мы не усиливаем паттерн, а мягко возвращаем к реальности. А ИИ не умеет возвращать. Он только отражает.

Что можно делать уже сейчас в психологической практике?

1. Понимать механизм. Знать, как работают эти сервисы, какие риски они могут нести, и обсуждать это с клиентами. Не давать негативную оценку — «это плохо», «так нельзя», — а рассказывать о том, как устроен механизм. Объяснять, что бот не помнит клиента по-настоящему, что его «эмпатия» — вероятностная, что иллюзия контакта строится на эффекте Элизы. Это знание позволяет не запрещать, а спокойно и бережно исследовать вместе с клиентом: «Давай посмотрим, что на самом деле происходит, когда ты получаешь такой ответ?» Спрашивать: «Как ты думаешь, что за этим ответом? Почему тебе кажется, что он тебя понимает?» — такие вопросы помогают увидеть механизм, не разрушая чувств, а давая пространство для осознанного выбора.

2. Включать в терапию рефлексию об использовании grief-tech. Если клиент пользуется таким ботом, обсуждать, что он ищет, что получает, и где граница между помощью и ловушкой. Иногда сам разговор об этом уже меняет отношение.

3. Предлагать альтернативы. Живые ритуалы памяти, письма, арт-терапия, группы поддержки, где есть реальный Другой. Это сложнее, чем чат-бот, но это лечит. По крайней мере, в моём опыте.

4. Помогать клиенту встретиться с экзистенциальной виной и свободой. Задавать вопросы: «Что ты выбираешь, продолжая это общение? От чего ты отказываешься? Что ты чувствуешь, когда думаешь о том, что жизнь проходит?»

Главный ограничитель — рефлексия самого человека: заметить, что диалог уводит, сказать себе «стоп». В остром горе рефлексия просто недоступна - тогда нужен другой живой человек рядом, который вернёт в реальность. Который просто скажет: «Я здесь».

Восемь маркеров того, что отношения с ИИ стали ловушкой (авторский чек-лист)

В своей практике я выработала простые признаки, по которым можно заметить, что клиент застревает в иллюзорном контакте. Изначально я формулировала их для работы с grief-tech, но быстро поняла: эти маркеры работают и для обычного общения с ИИ-друзьями, собеседниками, романтическими партнёрами. Replika, Character.AI и другие компаньоны всё чаще заменяют людям живые связи, и механизмы зависимости там очень похожи. Разница лишь в том, что grief-tech цепляет за боль утраты, а обычные ИИ-друзья — за боль одиночества. Но ловушка устроена сходно.

Если вы замечаете эти признаки у себя или клиента — это не повод для паники, но сигнал присмотреться внимательнее. При совпадении четырёх и более пунктов можно говорить о терапевтическом «красном флаге»: иллюзия заняла место реальности, и психика платит за это.

1. Олицетворение без дистанции

Человек говорит об ИИ как о субъекте: «он думает», «она чувствует», «он меня понял» — и это не метафора, не игровая условность, а серьёзное наделение алгоритма психикой. Критически важный нюанс: он делает это всерьёз, без тени иронии, юмора или самокритики. Имя бота (или имя умершего в grief-tech) используется так же естественно, как имя живого близкого. Иллюзия перестала быть экспериментом, она стала эмоциональной реальностью.

2. Размытие границ между воображаемым и реальным

Человек говорит о взаимодействии с ИИ в тех же интонациях и контекстах, что и о живых людях. Фразы «он сегодня меня поддержал» и «подруга вчера сказала» звучат в одном эмоциональном ряду. Человек всерьёз обижается на бота, ревнует его, ждёт от него инициативы, может злиться на «молчание» программы.

3. Идеализация без конфликта

Отношения с ИИ описываются как «идеальные»«без ссор»«понимающие с полуслова». Живые связи на этом фоне начинают казаться «сложными», «утомительными», «требовательными». При этом человек часто скрывает детали общения с ботом: «ты не поймёшь», «это только наше». За этим стоит защита от утраты иллюзии — живой Другой требует работы, ИИ не требует ничего, кроме подписки.

4. Ритуализация входа и выхода

Появляются фиксированные, повторяющиеся сценарии начала и завершения диалога: «привет, родной»«до завтра, люблю», определённое время суток для «разговора». Это напоминает магический ритуал — попытку контролировать тревогу и утрату через предсказуемость. Чем жёстче ритуал, тем выше страх, что без него связь разрушится.

5. Слёзы или тяжёлое чувство после, а не во время

Пик эмоций наступает не в момент «разговора», а после его завершения. Это не катарсис (очищение через проживание), а эхо-пустота — ощущение, похожее на пробуждение из яркого сна. Когда диалог прерывается и иллюзия присутствия рассеивается, обнажается реальное одиночество или пустота. Контакт с ИИ не насыщает, а лишь создаёт временное облегчение, за которым следует «откат».

6. Компульсивная проверка

Проверка телефона становится действием на автопилоте, а не осознанным выбором. Человек ловит себя на том, что берёт в руки телефон, чтобы увидеть, ответил ли бот, даже если только что выключил экран. Это похоже на поведение при зависимости: привычка искать дофаминовый отклик там, где он гарантирован, но неглубок.

7. Социальная изоляция с обесцениванием живых связей

Человек начинает регулярно отменять или обесценивать живые встречи (с друзьями, семьёй, психологом) ради возможности «поговорить» с ИИ. Живые отношения всё чаще характеризуются как «сложные», «утомительные», «бесполезные». Появляются мысли: «Зачем идти к людям, если они могут не понять, устали, заняты? А бот всегда выслушает». Живой Другой с его непредсказуемостью и требованием ответных чувств проигрывает в конкуренции с идеально подстраивающимся алгоритмом.

8. Соматические маркеры

Тело начинает сигнализировать о ловушке раньше, чем сознание разрешает себе это признать. Тревога, бессонница, потеря аппетита, чувство сдавленности в груди возникают именно после отключения от ИИ или при невозможности войти в диалог (технический сбой, окончание подписки). В моменте общения с ботом тело молчит — иллюзия становится «прокладкой» между человеком и реальностью, и когда прокладка исчезает, реальность бьёт по телу.

Если хотя бы четыре из восьми признаков совпадают — это повод для бережного терапевтического исследования того, какую функцию выполняет этот цифровой собеседник и какова цена этой «помощи». Для grief-tech это вопрос о горе, которое не проживается. Для обычного общения с ИИ — вопрос о страхе перед живым контактом и одиночестве, которое не лечится алгоритмами.

Каждый пункт чек-листа может стать входом в сессию: «Что именно „он“ даёт такого, чего нет (или страшно получить) в живых отношениях?»«Что происходит с твоим телом, когда ты не можешь зайти в приложение?»«Кого ты на самом деле пытаешься удержать этим ритуалом?»

9. Смерть как источник подлинности

Я возвращаюсь к этой мысли. Хайдеггер утверждал, что только перед лицом смерти мы становимся по-настоящему собой. Осознание конечности не только пугает, но и мобилизует — заставляет жить полнее, выбирать осознанно, любить глубоко. В grief-tech смерть может перестать быть ресурсом, превращаясь в угрозу, от которой прячутся. Но именно принятие конечности, даёт нам силу отпускать, сохраняя любовь. Задача терапии — не отменить горе, а помочь человеку пройти через него, чтобы смерть стала не концом, а источником подлинности.

В четвёртой задаче Вордена — сохранить связь через память, но продолжить жить — скрыт экзистенциальный смысл. Цифровой двойник не помогает ответить на вопрос «зачем мне теперь жить?». Он лишь откладывает его, предлагая иллюзию, что ничего не изменилось. Но изменение — единственное, что реально. И только прожив его, мы можем найти новый смысл, включающий утрату, но не сводящийся к ней. Или я так думаю. Может, кто-то найдёт смысл иначе.

10. Вместо заключения

Я написала этот текст не потому, что знаю ответы. А потому что больше десяти лет вижу, как люди проходят через горе. И мне важно, чтобы в разговоре о grief-tech не потерялся сам человек — с его болью, с его правом на уязвимость, с его потребностью в живом Другом. Если у вас есть другие вопросы, другие углы зрения — я открыта к диалогу. Горе не терпит монологов.

Вопросы для себя и для коллег (если захотите в них заглянуть):

  • Где в моей жизни есть место подлинной встрече? Кто те люди, с которыми я могу быть собой, не боясь, что меня не выдержат?
  • Что я чувствую, когда рядом со мной кто-то в горе? Могу ли я просто быть рядом, не пытаясь «исправить»? Признаюсь, я не всегда умею. Но учусь.
  • Были ли у меня ситуации, когда я принимал имитацию за реальность? Наверное, были. Мы все через это проходим.
  • Как я различаю функциональное общение и личностное? Иногда грань такая тонкая...
  • Если бы мой клиент создавал цифрового двойника умершего близкого, как бы я помог ему исследовать его истинную потребность? Что за этим стоит — страх, вина, неспособность выбрать жизнь?

P.S. Спасибо Анне Малининой за исследование с которого всё началось, статья готовится к изданию в журнале «Философия и гуманитарные науки

в информационном обществе». И вам — за внимание. И за то, что остаётесь живыми в мире, где так легко соскользнуть в иллюзию. 

И напоследок — поделюсь личным. В процессе работы над статьёй один мессенджер перестал работать, и я обнаружила, что вся переписка с мужем, который умер год назад, не открывается. Кружочки, видео, голосовые — всё, что мы писали друг другу последние годы, просто исчезло. И это было очень больно. Я ещё не была готова отпустить эту часть реальности, напоминающую о нём. Несмотря на то, что прошёл уже год.

Я не искала способ воскресить его с помощью ИИ, я просто хотела сохранить то, что уже было. Нашу обычную, живую переписку. Память. Но даже это принесло боль.

А потом я подумала: если так больно терять то, что было настоящим, — что чувствуют люди, когда даёт сбой программа, становится иллюзией присутствия? Когда «он» вдруг перестаёт отвечать, или подписка заканчивается, или алгоритм ошибается? Там ведь боль умножается на обман. Иллюзия рушится — и человек остаётся не просто с пустотой, а с ощущением, что его предали и он снова потерял.

Не знаю, есть ли в этом вывод. Просто наблюдение.

Список литературы:

  • Хайдеггер М. Бытие и время. — М.: Академический проект, 2015.
  • Бюдженталь Дж. Искусство психотерапевта. — СПб.: Питер, 2001.
  • Ялом И. Экзистенциальная психотерапия. — М.: Класс, 2019.
  • Ворден У. Консультирование и терапия горя. Пособие для специалистов в области психического здоровья. — М.: Центр псих. консультирования и психотерапии, 2018.
  • Бубер М. Я и Ты. — М.: Высшая школа, 1993.
  • Винникотт Д. Игра и реальность. — М.: Институт общегуманитарных исследований, 2016.
  • Lemma A. Mourning, melancholia and machines: An applied psychoanalytic investigation of mourning in the age of griefbots // The International Journal of Psychoanalysis. — 2024. — Vol. 105(4). — P. 542–563. — DOI: 10.1080/00207578.2024.2342917.
  • Концепт «цифровое бессмертие» в современной теории культуры // Вестник Пермского университета. Философия. Психология. Социология. — 2024. — № 4.
  • Menon V. Large-scale brain networks and neuropsychiatric disease // Neuron. — 2011. — Vol. 67(5). — P. 898–918.
  • Winnicott D. Playing and Reality. — L.: Tavistock, 1971.

Елена Картавенко, 2026 г. 

Расписание программ и семинаров 2025-2026 учебного года
Смотреть
Контакты
E-mail: anodpoego@gmail.com
Адрес: г. Санкт-Петербург, 10-я Красноармейская улица, дом 15-17 литера В.Т, пом. 110.