Подписаться
Опубликовано

Справится ли ИИ с серьёзной математикой?

Автор
  • Имя
    Нейрократия
    Telegram

Справится ли ИИ с серьёзной математикой?

Последние год-полтора можно назвать «золотым временем» для математических способностей ИИ. Мы видели, как крупные модели решают задачи уровня продвинутой школы и студенческих олимпиад. Вот хотя бы недавний триумф Google DeepMind: их AlphaProof справился с задачами Международной математической олимпиады на уровне серебряного призёра.

Но насколько близко подобрался ИИ к настоящей серьёзной математике? Об этом вышел материал в MIT Technology Review.

Дарповская программа expMath хочет вывести математику из эпохи «человека у доски» в эпоху «ИИ-соавторов». DARPA мечтает о том, чтобы машины могли разбивать невероятно сложные проблемы на достаточно простые кусочки, которые решать гораздо легче. И это звучит здорово — если забыть о главном: математика не только про раскладывание шагов, она про эксперименты и, самое главное, про озаряющие идеи.

И вот здесь у нас проблемка.

Во-первых, текущие модели типа Claude 4 Thinking или o3 действительно впечатляют на олимпиадах, но олимпиады — это особая зона, где задачи зачастую решаются через относительно узнаваемые «трюки». Здесь дело скорее в том, как быстро модель может применить существующий набор приемов. А вот настоящие исследовательские задачи, например гипотеза Римана или P vs NP, это как раз про такое «творчество», где найти нужные шаги очень сложно.

Во-вторых, физический масштаб сложных доказательств совершенно иной. Если олимпиадная или вузовская задача — это десяток-двух десятков логических шагов, то серьёзные нерешённые проблемы вроде тысячелетних задач института Клэя требуют миллионов и даже миллиардов. Это непосильно даже самым мощным моделям DeepMind.

Впрочем, есть интересные подходы, когда ИИ сам сокращает количество нужных шагов, объединяя их в «супершаги». Так недавно учёные из Калифорнийского технологического института впервые за 40 лет отбросили ошибочный контрпример по математической гипотезе Эндрюса-Кёртиса — важная победа для исследователей, перебиравших этот путь десятилетиями.

И, наконец, главное препятствие — интуиция и творчество. «Одно дело играть в го на сверхчеловеческом уровне и совсем другое — придумать саму игру го», — говорит математик из Университета Сиднея Джорди Уильямсон.

Сегодня AlphaEvolve и PatternBoost помогают математикам находить оригинальные подходы, сберегая человеку месяцы и годы пустых поисков. Но полностью заменить человека они вряд ли смогут в ближайшее время. Главные прорывы по-прежнему требуют человеческой искры — новых идей и нетривиальных концепций, до которых моделям пока далековато.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #объясняю

Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство
Опубликовано

Что такое эмбеддинги — фундамент современных LLM

Что такое эмбеддинги в современных LLM и как они работают
Опубликовано

Почему китайские ИИ захватили лидерство 🇨🇳

Почему китайские ИИ лидируют в открытом коде: анализ рынка и структурных факторов
Опубликовано

нейросеть в баре может ли ИИ шутить

может ли ИИ шутить как человек, примеры AI юмора и ограничения
Опубликовано

Прогноз обновлён. Нейросетью

Прогноз погоды нейросетью: как ИИ ускоряет и улучшает метеорологию

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка