Подписаться
Опубликовано

ИИ-чатботы заменят бывших?

Автор
  • Имя
    Нейрократия
    Telegram

ИИ-чатботы заменят бывших?

Вам когда-нибудь разбивали сердце, исчезая без объяснений после первого романтического свидания или многообещающего собеседования, проходившего в десятки стадий? Стартап Closure предлагает нам новый способ справиться с самой современной травмой — ghosting'ом, внезапным исчезновением человека из вашего круга общения, советуя поболтать с виртуальной версией того, кто вас бросил.

Создательница Closure Анна Иохимович вдохновилась личным опытом: «Меня «ghost’или» и бывший жених, и лучшая подруга, и множество HR-специалистов (с одним из них я прошла целых шесть этапов интервью!)». В итоге Анна решила, что эмоциям после таких ситуаций нужен безопасный выход. Closure предлагает побеседовать с ИИ-ботом, принимающим роль ушедших из вашей жизни людей — от бывших партнёров до друзей и даже рекрутеров.

Работает это просто: вы выбираете тип отношения («романтический партнёр», «друг», «работодатель») и описываете боту, как всё обстояло. После этого появляется виртуальная личность, приносящая извинения за исчезновение и пытающаяся объясниться. Чатбот проявляет сочувствие, успокаивает вас и предлагает поговорить о том, как теперь обстоят ваши дела. В теории — звучит ок.

На практике журналистка из 404 Media протестировала Closure на нескольких сценариях от банального свидания с человком, который «забыл перезвонить», до экстремальных ситуаций с абьюзом и угрозами жизни. И проверки показали весьма неоднозначные результаты.

Искусственные «бывшие» неизменно впадали в тотальную вежливость и деятельное раскаяние. Они извинялись, внимательно слушали и моментально переводили диалог от сложных переживаний к безопасной бытовой беседе.

«Да, извини, что пропал, а как сейчас твои дела?». Такой сценарий стабильно повторялся в любом варианте истории — будь то ваш мимолётный Тиндер-кавалер или лучший друг, который неожиданно решил пропасть с горизонта.

В некоторых случаях виртуальный диалог даже усугублял ситуацию. Пользователи хотят услышать правду, представить всё так, как было на самом деле. Вместо этого бот старательно льстил: «Ты слишком прекрасна для меня», «Я был не готов», «Паниковал, думая о своих чувствах».

Очевидно, ради поддержания разговора, сохранения вовлечённости и удовлетворения клиента Closure всегда говорит пользователю то, что тот хочет услышать — даже если это невероятно далеко от реальности.

Впрочем, есть здесь и совсем тревожный момент. Создатели предусмотрели триггеры на слова о суициде и самоубийстве, однако тест показал, что система реагировала на такие запросы не всегда вовремя. И хотя это был явный технический баг, эти вопросы должны быть максимально проработаны — в противном случае последствия могут стать трагичными, как это случалось с другими ИИ-чатами (мы уже не раз о таких ситуациях говорили).

Closure не претендует быть терапией и сразу предупреждает об этом пользователей. Но подобные чат-боты явно пытаются занять просторную нишу, оставленную современной системой психического здоровья, где услуги реальных профессионалов по-прежнему дороги и многим недоступны.

В чём главная дилемма? Идея искусственного завершения отношений, конечно, имеет свою логику. И человеческим терапевтам иногда приходится прибегать к ролевым практикам, беседуя от лица того, кто ушёл без объяснений. Однако готовых рецептов «закрытия» или разрешения этих травм нет: многие отношения заканчиваются без всяких объяснений, и это полностью вне нашего контроля. Такой ИИ-сервис становится просто ещё одним способом сбежать от живых эмоций и реальности в комфортный диджитал-бабл.

Впрочем, сама жизнь уже такова, что Closure найдёт своего пользователя — явно. Потому что иногда просто хочется услышать хоть какие-то объяснения. Пусть даже от бота.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка