- Опубликовано
ИИ научили читать мысли
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
ИИ научили читать мысли
Команда из Stanford University и консорциума BrainGate2 впервые смогла декодировать внутреннюю речь человека — тот самый голос в голове, которым мы думаем. Исследование опубликовано в Cell.
Что сделали
Четырём пациентам с тяжёлым параличом (ALS или инсульт ствола мозга) имплантировали в моторную кору микроэлектродные массивы Utah — чипы размером с горошину, которые считывают активность сотен нейронов.
Ключевое отличие от предыдущих систем: пациентам не нужно пытаться физически говорить. Достаточно просто думать слова. Участники исследования подтвердили, что новый метод «быстрее и менее утомительный».
ИИ-модель на основе рекуррентных нейросетей научилась переводить паттерны нейронной активности в фонемы, а затем в слова. Точность достигла 74% при словаре в 125 000 слов — это примерно 26% ошибок в оптимальных условиях.
По теме → Мозг + ИИ
Как защищают приватность мыслей
Исследователи сразу столкнулись с проблемой: система иногда случайно считывала незапланированную внутреннюю речь. Например, когда участники мысленно считали объекты на экране.
Решение оказалось остроумным — «мысленный пароль». Система остаётся неактивной, пока пользователь не подумает специальную фразу. В исследовании использовали «Chitty Chitty Bang Bang» — алгоритм определял её с точностью более 98%.
Второй уровень защиты: системы для декодирования попыток речи можно обучить игнорировать сигналы внутренней речи. Оказалось, что нейронные паттерны для мыслей и намерения говорить различаются — сигнал внутренней речи слабее и имеет уникальную «подпись».
Технические ограничения
Система работает только с моторной корой — областью, отвечающей за планирование движений артикуляции. То есть декодируются не абстрактные мысли, а команды мозга для произнесения слов. Точнее будет сказать, что технология читает не мысли, а намерение говорить.
Каждый декодер нужно индивидуально обучать под конкретного человека часами записей. Модель, обученная на одном человеке, не работает с другим — это одновременно и барьер для масштабирования, и защита от несанкционированного использования.
Главная проблема — инвазивность. Требуется нейрохирургическая операция со всеми рисками: инфекции, кровотечения, повреждение тканей мозга. Неинвазивные методы вроде ЭЭГ пока не дают нужного качества сигнала.
Перспектива
Параллельно другие группы из UCSF и UC Davis работают над синтезом эмоциональной составляющей речи — тона, интонации, выражения лица. Следующее поколение нейропротезов объединит декодирование содержания с эмоциональным синтезом.
В перспективе — полностью имплантируемые беспроводные устройства с большим количеством сенсоров. И конечно, все ждут прорыва в неинвазивных технологиях, но пока сигнал через череп слишком слабый для декодирования внутренней речи.
Для пациентов с синдромом запертого человека или поздними стадиями ALS эта технология — шанс вернуть базовую способность к коммуникации. Но вместе с медицинским прогрессом приходят вопросы о «нейроправах» и защите последнего рубежа приватности — нашего с вами сознания.
Предыдущий пост
- Опубликовано
Чтение инженерам ИИ — август 2025
Следующий пост
- Опубликовано
Как распознать ИИ‑текст: чек‑лист Wikipedia
Закрепленные
Из подборки #безопасность
- Опубликовано
Анонимизация ИИ — фикция
- Опубликовано
ИИ-агенты оказались импульсивными покупателями
- Опубликовано
Чем больше LLM, тем легче её взломать
- Опубликовано
OpenAI пытается отучить модели врать
- Опубликовано
Как на самом деле создается личность ИИ
- Опубликовано
Как распознать ИИ‑текст: чек‑лист Wikipedia
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано
















