Подписаться
Опубликовано

ИИ научился изобретать сам себя

Автор
  • Имя
    Нейрократия
    Telegram

ИИ научился изобретать сам себя

Возможности ИИ растут экспоненциально, но скорость самих исследований в области ИИ до сих пор была ограничена скоростью человеческого мышления. Новый препринт из Шанхайского университета Цзяо Тун представляет систему ASI-ARCH — и, похоже, это ограничение начинает рушиться.

Это не очередной «умный» поисковик архитектур, а система, которая автономно проводит полный цикл научного исследования: от выдвижения гипотезы о новой архитектуре нейросети до её реализации в коде, тестирования и анализа результатов.

🤖 Как это работает: фабрика ИИ-инноваций

ASI-ARCH — это мультиагентная система, где у каждого ИИ своя роль:

Исследователь: Анализирует прошлый опыт (свой и человеческий) и предлагает новые, инновационные архитектуры.

Инженер: Пишет код для предложенных архитектур, обучает их и самостоятельно отлаживает, если что-то идёт не так, анализируя логи ошибок и переписывая код.

Аналитик: Изучает результаты тестов, делает выводы и передаёт их Исследователю для следующего витка эволюции.

База знаний: Чтобы не изобретать велосипед, система опирается на «когнитивную базу», созданную из почти 100 ключевых научных работ в области линейного внимания.

За 20 000 GPU-часов ASI-ARCH провела 1773 автономных эксперимента и создала 106 новых, state-of-the-art архитектур с линейным вниманием, которые систематически превосходят человеческие аналоги.

📈 Закон масштабирования для научных открытий

Но главное тут — это не сами архитектуры. Впервые в истории исследователи эмпирически продемонстрировали закон масштабирования для научных открытий. График из работы наглядно показывает почти идеальную линейную зависимость: чем больше вычислительных ресурсов (GPU-часов) получает система, тем больше прорывных SOTA-архитектур она создаёт.

Для сравнения: работа человека-исследователя по созданию одной модели оценивается в ~2000 часов и принципиально не масштабируется. ASI-ARCH превращает научный поиск из процесса, ограниченного человеком, в процесс, масштабируемый вычислениями.

💡 «Ход 37» в дизайне нейросетей

Авторы напрямую сравнивают свои результаты с легендарным «ходом 37» от AlphaGo, который открыл человечеству новые, неинтуитивные стратегии в игре го. Точно так же ASI-ARCH обнаружила принципы проектирования, которые не были очевидны для людей.

Например, чтобы избежать «взлома вознаграждения» (когда система максимизирует метрики, не создавая реальных улучшений), в качестве оценщика используется не только производительность, но и отдельная LLM, которая оценивает архитектурное изящество, новизну и сложность идей.

Научный метод, веками бывший прерогативой человека, начинает автоматизироваться на фундаментальном уровне. Это создание новой парадигмы — «ASI для исследований ИИ» (ASI4AI). И это только начало.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #ИИпокалипсис

Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт
Опубликовано

Тёмные паттерны ИИ: от лести до психоза

Тёмные паттерны ИИ: как чатботы манипулируют пользователями и вызывают психозы
Опубликовано

Скрытые бэкдоры в нейросетях

скрытые бэкдоры в нейросетях: как атакуют LLM и как защитить ИИ‑системы
Опубликовано

Как на самом деле взламывают ИИ

Взлом ИИ: джейлбрейкинг, внедрение команд, методы защиты и прогнозы

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка