Подписаться
Опубликовано

Конец эры ChatGPT?

Автор
  • Имя
    Нейрократия
    Telegram

Конец эры ChatGPT?

Ключевые фигуры мира ИИ, создатель AlphaGo Дэвид Сильвер и «отец» обучения с подкреплением Ричард Саттон, опубликовали совместную работу, которая по сути объявляет конец текущей эпохи развития ИИ. Если коротко: парадигма, породившая ChatGPT и все современные LLM, почти исчерпала себя.

📉 Тупик «эры человеческих данных»

Современные ИИ, от Gemini до Claude, достигли невероятных высот, обучаясь на гигантских объёмах информации, созданной людьми. Они блестяще имитируют человеческие способности. Но в этом и заключается их фундаментальное ограничение.

Данные заканчиваются. Почти все высококачественные данные в интернете, на которых можно было обучить сильные модели, уже использованы. Прогресс, движимый исключительно «скармливанием» новых текстов, очевидно замедляется.

Имитация — не инновация. Модели, обученные на человеческих текстах, не могут выйти за пределы существующих знаний. Они не совершат научное открытие и не придумают новую технологию, потому что этого просто нет в обучающих данных.

🚀 Наступает «Эра Опыта»

Чтобы двигаться дальше, к сверхчеловеческому интеллекту, нужен новый источник данных. И этот источник — собственный опыт ИИ-агента, полученный при взаимодействии с реальным или цифровым миром. Это триумфальное возвращение обучения с подкреплением (RL), но на совершенно ином уровне.

Хороший пример — недавний прорыв DeepMind с AlphaProof. Эта система взяла «серебро» на Международной математической олимпиаде. Начав с ~100 тысяч доказательств, созданных людьми, она затем сгенерировала сто миллионов новых, просто взаимодействуя с системой формальной логики. Она училась на собственном опыте, а не на человеческих примерах.

💡 Три столпа новой эры

Сильвер и Саттон выделяют несколько ключевых характеристик агентов нового поколения:

🔸 Потоки опыта (Streams). Агенты будут учиться не в рамках коротких сессий «вопрос-ответ», а непрерывно, в течение долгого времени. Представьте ИИ-тренера по здоровью, который месяцами анализирует данные с ваших носимых устройств, чтобы давать персонализированные советы, адаптируясь к долгосрочным трендам вашего организма. (Собственно, так сейчас и делают те же Whoop.)

🔸 Заземленные действия и награды (Grounded Actions & Rewards). Взаимодействие с миром будет не только текстовым. Агенты будут действовать через API, управлять компьютерными интерфейсами и роботами. А их цели будут определяться не оценками людей (prejudgement), а реальными сигналами из окружения (grounded rewards).

Например, успех научного ИИ-ассистента будет измеряться реальным снижением уровня CO₂ в атмосфере, а не тем, понравилась ли его гипотеза человеку. Это единственный способ превзойти человеческие предубеждения и открыть что-то новое.

🔸 Нечеловеческое мышление (Non-human Reasoning). Агенты перестанут просто копировать человеческие цепочки рассуждений. Они смогут открывать и использовать собственные, более эффективные способы мышления, как это сделал AlphaProof, находя решения математических задач путями, которые сильно отличаются от человеческих.

Это, возможно, самый радикальный и пугающий аспект новой эры — отказ от человеческой логики как от золотого стандарта.

🤖 Что это значит для всех нас?

Мы переходим от AI, который знает, к AI, который учится. Гонка технологий смещается от сбора ещё больших датасетов к созданию сложных, богатых сред, в которых агенты смогут получать опыт. Вместо «специалистов по данным» индустрии понадобятся «архитекторы миров и систем мотивации».

Новое поколение ИИ-систем будет не просто улучшенными чат-ботами. Это будут автономные учёные, инженеры и ассистенты, способные на реальные открытия. Но вместе с колоссальным потенциалом приходят и новые риски: как обеспечить безопасность и контроль над системами, которые действуют автономно, обучаются непрерывно и мыслят не так, как мы?

Эра человеческих данных была впечатляющей прелюдией. Но настоящее шоу только начинается.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка