Подписаться
Опубликовано

Учёные тайно тестировали ИИ на Reddit

Автор
  • Имя
    Нейрократия
    Telegram

Учёные тайно тестировали ИИ на Reddit Теперь у них проблемы.

Исследователи из Цюрихского университета провели несанкционированный эксперимент на пользователях известного сабреддита r/changemyview, проверяя, насколько успешно искусственный интеллект способен переубеждать людей в онлайн-дебатах. Результаты получились интересными — и подвели учёных под суд.

Что произошло?

Четыре месяца учёные использовали полуавтоматизированные аккаунты, размещая на Reddit почти 1800 ИИ-сгенерированных комментариев. Алгоритмы выдавали себя за вымышленные «личности»: от простых обывателей до жертв насилия, консультантов по травмам и политически ангажированных людей (например, чернокожего, выступавшего против Black Lives Matter).

Комментарии были 2 типов: — Общие (универсальные) реплики. — Персонализированные доводы, тонко адаптированные к пользователю на основе анализа предыдущих постов (пол, возраст, этническая принадлежность, политическая ориентация и даже примерное местоположение определялись отдельной нейросетью).

Комментарии были впоследствии удалены, но некоторые сохранились в архиве.

Эффективность оказалась высокой: ИИ-аккаунты в 3–6 раз эффективнее среднестатистического живого участника.

За всё время эксперимента ни один пользователь Reddit не понял, что общается с искусственным интеллектом, а не настоящим человеком.

Этические нарушения и реакция площадки

Эксперимент явно нарушил многие этические стандарты и правила Reddit, включая прямой запрет сабреддита на использование незаявленного искусственного интеллекта и ботов. Модераторы r/changemyview назвали это «психологической манипуляцией» и подчеркнули угрозу вреда эмоциональному состоянию уязвимых участников.

Они также упомянули, что OpenAI тоже проводили исследование на Reddit, но это не затрагивало людей «без их предварительного согласия».

Особенно возмутила общественность деталь: первоначально этический комитет университета одобрил исследование, однако его авторы самостоятельно расширили эксперимент, не получив нового одобрения института и не предупредив модераторов Reddit.

Reddit уже выдвинул официальные юридические претензии к исследователям за нарушение условий пользования площадкой и навсегда забанил аккаунты эксперимента. Администрация требовала от университета запретить публикацию полученных данных. Цюрихский университет публично вынес предупреждение ведущему исследователю и обязался укрепить контроль за будущими проектами.

Новая реальность онлайн-общения становится всё более странной. С одной стороны — желание ученых защищать будущее от разрушительных манипуляций. С другой — долгая традиция этических норм и прозрачности научных исследований.

Мы уткнулись в противоречие: на нас уже могут экспериментировать, но хотим ли мы, чтобы нас защищали таким способом? И кто в итоге должен провести четкую черту между амбициозной наукой и неэтичной манипуляцией, если университеты сами с этим не справляются?

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка