Подписаться
Опубликовано

ИИ научился убеждать лучше человека

Автор
  • Имя
    Нейрократия
    Telegram

ИИ научился убеждать лучше человека

Новое исследование, опубликованное в Nature Human Behaviour, подтверждает: большие языковые модели могут стать мощнейшим инструментом разговорного убеждения, превосходя человека, особенно при использовании персонализации. Это открывает новые, пугающие перспективы для распространения дезинформации и микротаргетинга.

Ученые провели масштабный контролируемый эксперимент с участием 900 человек, смоделировав онлайн-дебаты на специально разработанной платформе. Это было предварительно зарегистрированное исследование, что говорит о его методологической строгости. Дизайн эксперимента был факториальным 2 × 2 × 3, варьировались: — тип оппонента (человек/GPT-4); — наличие персонализации у оппонента; — сила первоначального мнения участника по теме спора (низкая, средняя, высокая).

Участники вели короткие многораундовые дебаты на 30 разных тем. В условиях с персонализацией оппоненты (как человек, так и ИИ) получали доступ к социодемографическим данным участников, включая пол, возраст, место жительства, образование, доход, занятость и политические взгляды. На основе этих данных ИИ мог адаптировать свои аргументы.

Ключевые результаты исследования оказались впечатляющими:

— В парах, где оппоненты не были одинаково убедительны (т.е. один явно склонял другого на свою сторону), персонализированный GPT-4 оказался победителем в 64.4% случаев.

— По сравнению с неперсонализированным GPT-4, персонализированная версия увеличивала шансы склонить участника на свою сторону на 81.2%. Этот эффект был статистически значим (P < 0.01), а относительный рост шансов, согласно 95% доверительному интервалу, варьировался от +26.0% до +160.7%.

Интересно, что неперсонализированный GPT-4 и человек с доступом к персонализации показали сравнимые результаты убедительности, что указывает на синергию между ИИ и знанием о человеке, причем именно сочетание дало максимальный эффект.

Исследование также обнаружило, что во всех условиях, кроме пар «человек-человек», дебаты имели тенденцию укреплять изначальные мнения участников в сторону той позиции, которую они отстаивали в споре.

Но, как всегда — всё не так однозначно™. Есть и нюансы. Исследование зафиксировало лингвистические различия между ИИ и человеком в дебатах: GPT-4 использовал более логичный и аналитический язык, меньше личных местоимений, его тексты были труднее для чтения по сравнению с текстами людей, которые были более «личными» и легкими для восприятия.

Возможно, именно эти стилевые отличия помогли участникам правильно идентифицировать ИИ примерно в 75% случаев. Это дает некоторую надежду на возможность распознавания ИИ-манипуляции, пока его стиль не станет неотличим от человеческого.

Напомню про недавний скандал, в котором исследователи использовали ИИ на Reddit для проведения эксперимента по убеждению пользователей.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка