Подписаться
Опубликовано

Убитый человек выступил в суде с помощью ИИ

Автор
  • Имя
    Нейрократия
    Telegram

Убитый человек выступил в суде с помощью ИИ Впервые в истории.

В США произошло событие, которое у кого-то вызывает слёзы, а у кого-то — волну вопросов об этике технологий. В суде штата Аризона прозвучала ИИ-сгенерированная речь мертвого человека, которая обратилась напрямую к своему убийце.

ИИ вместо потерянных слов

В 2021 году в городе Чандлер произошла трагедия — Кристофер Пелки был застрелен во время дорожного конфликта. Cестра погибшего, Стейси Уэйлс, два года носила в себе сотни слов, что она могла бы сказать убийце брата во время вынесения приговора.

Но когда этот день приблизился, нужные слова потерялись. Как быть: сказать правду, что в её сердце ещё нет прощения, или же озвучить то, что явно произнёс бы Крис? Голос брата звучал в её голове абсолютно чётко: «Я прощаю его».

Понимая, каким человеком был её брат, женщина приняла необычное решение — дать ему возможность высказаться самому.

Пять минут видео против бессилия смерти

Вместе со своим мужем за несколько дней Стейси создала пятиминутный ИИ-аватар Криса. Потребовалось много усилий и хитрых решений — у них не было подходящего фото для наложения на нейросетевый аватар, не было достаточного образца его голоса. Из видео похорон и пары старых записей им удалось реконструировать естественный облик брата, убрать с его лица солнечные очки и даже слегка уменьшить бороду (она создавал трудности технологии распознавания).

Справедливости ради — получилось всё равно не особо качественно, но это тут не главное. Посмотреть полное видео можно тут

.

Чтобы упростить такие задачи родственникам в будущем, Стейси даже сама сделала запись своего голоса и смеха в тихом помещении. На случай, если из неё тоже когда-нибудь придется создавать такое видео.

«Привет, это я… Вернее, версия меня»

Зал суда замер, когда на экране появилось лицо покойного. ИИ-аватар сразу пояснил ситуацию: «Всем добрый день. Чтобы вы понимали — сейчас говорит моя цифровая версия, созданная искусственным интеллектом на основе моих записей и фото». Затем его речь перешла в обращение к стрелявшему, Габриэлю Полу Оркаситасу:

«Очень жаль, что мы встретились при таких обстоятельствах. В другой ситуации мы вполне могли бы стать друзьями. Я верю в прощение. Всегда в это верил, и сегодня по-прежнему верю…»

Видео закончилось фразой: «Ну, пойду-ка я порыбачу. Люблю вас всех. Увидимся на той стороне».

Никто в суде не стал возражать против демонстрации ролика, даже защита обвиняемого. Более того, судья Лэнг в конце произнёс: «Это было впечатляюще. Спасибо за это».

Оркаситас получил 10 с половиной лет.

Эксперты не против. Но есть нюансы™

Профессор права и инноваций из Университета Ватерлоо Мора Гроссман подтвердила, что юридически и этически этот случай, скорее всего, чист. ИИ-видео было показано не как доказательство, а как эмоциональное обращение к судье и преступнику.

Но прецедент порождает массу вопросов. Профессор права Университета Аризоны Гэри Марчант считает, что этот случай, возможно, один из самых благородных вариантов применения технологии ИИ в суде. Но он же предупреждает: «Далеко не всегда такие видео будут носить столь правильный посыл и иметь чистые намерения. В будущем нас ждёт множество попыток злоупотреблений».

Где пролегает граница допустимого?

Искусственный интеллект дал голос человеку, который уже никогда не смог бы заговорить сам. Это красиво и сильно, но одновременно тревожно — ИИ также может звучать от имени тех, кто уже не контролирует то, что он будто бы говорит. (Хочется пошутить про нейро-Жириновского, но будто бы не к месту.)

Пока что вопросов больше, чем ответов — зато есть шанс глубоко задуматься. Голоса наших близких рано или поздно умолкают, но технологии всё чаще способны создать иллюзию разговора даже после смерти. Готовы ли мы к этому.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка