Подписаться
Опубликовано

Когнитивный долг: как LLM ослабляет мозг

Автор
  • Имя
    Нейрократия
    Telegram

Когнитивный долг: как LLM ослабляет мозг

Новое исследование учёных из MIT Media Lab проливает свет на то, как регулярное использование LLM для сложных творческих задач, таких как написание эссе, приводит к измеримому снижению активности мозга и формированию «когнитивного долга».

Исследование, опубликованное под говорящим названием «Your Brain on ChatGPT: Accumulation of Cognitive Debt», — это один из первых глубоких взглядов на нейрофизиологические последствия нашей растущей зависимости от ИИ.

Как проводили эксперимент?

Учёные разделили 54 участника на три группы:

«LLM»: Могли использовать только ChatGPT для написания эссе.

«Search Engine»: Могли использовать любой поисковик, но без доступа к LLM.

«Brain-only»: Полагались исключительно на собственные знания, без каких-либо внешних инструментов.

На протяжении 4 месяцев участники писали эссе, в то время как их мозговую активность записывали с помощью ЭЭГ для оценки когнитивной нагрузки и нейронных связей.

Что показал сканер мозга? 🧠

Результаты оказались последовательными:

📉 Мозговая активность падает пропорционально помощи. Анализ ЭЭГ выявил чёткую закономерность: нейронная связность мозга систематически снижалась по мере увеличения внешней поддержки. Группа «Brain-only» демонстрировала самые сильные и обширные нейронные сети. У группы «Search Engine» активность была умеренной, а у пользователей LLM — самой слабой. Мозг, как мышца: чем меньше его нагружаешь, тем слабее он становится.

🤔 Память и чувство «собственности» страдают. Поведенческие тесты вскрыли ещё один тревожный аспект. После написания эссе участников просили процитировать любую фразу из своей работы. В первой сессии 83% пользователей LLM не смогли этого сделать, в то время как в других группах с этим не было проблем. Они также сообщали о более слабом чувстве «собственности» по отношению к тексту, воспринимая его как нечто чужое.

💸 Расплата за «когнитивный долг». Самое интересное началось в четвёртой сессии, когда группы поменяли местами. Участников, привыкших к помощи LLM, попросили написать эссе самостоятельно («LLM-to-Brain»). Их мозг показал значительно более слабую нейронную связность и «недововлечённость» альфа- и бета-сетей по сравнению с теми, кто тренировал мозг без ИИ. Они накопили «когнитивный долг», и когда «костыль» убрали, их мозг оказался не готов к полноценной нагрузке.

Почему это происходит и что это значит?

Феномен когнитивной разгрузки (cognitive offloading) — ключевое объяснение. Наш мозг ленив и всегда стремится к экономии энергии. Когда ИИ берёт на себя тяжёлую работу — структурирование мыслей, подбор формулировок, генерацию идей, — нейронные цепи, ответственные за эти процессы, просто не активируются.

Лингвистический анализ эссе подтвердил это: работы LLM-группы были более однородными и шаблонными, в то время как группа «Brain-only» демонстрировала большее разнообразие и уникальность стиля.

Это исследование — напоминание о необходимости осознанного подхода. Да, LLM может быть невероятно полезным во многих аспектах, но когда речь идёт о развитии критического мышления, творчества и глубокого понимания, цена удобства может оказаться высокой.

Где для вас проходит грань между эффективным ассистентом и когнитивным костылём, который мешает вам... думать?

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #ИИпокалипсис

Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт
Опубликовано

Тёмные паттерны ИИ: от лести до психоза

Тёмные паттерны ИИ: как чатботы манипулируют пользователями и вызывают психозы
Опубликовано

Скрытые бэкдоры в нейросетях

скрытые бэкдоры в нейросетях: как атакуют LLM и как защитить ИИ‑системы
Опубликовано

Как на самом деле взламывают ИИ

Взлом ИИ: джейлбрейкинг, внедрение команд, методы защиты и прогнозы

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка