- Опубликовано
Как научить нейронку рефлексировать
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Как научить нейронку рефлексировать
Наткнулся на Hackernews на любопытный репозиторий под названием Chain of Recursive Thoughts (CoRT) — буквально «цепочка рекурсивных мыслей». Идея простая (более того, она и не новая — я уже писал про саморегулируемый «цикл рассуждений», но тут есть OSS имплементация): что, если дать языковым моделям размышлять в несколько этапов, постоянно «рефлексируя» над собственными размышлениями и улучшая их?
Некоторые из вас наверняка знакомы с концепциями вроде Chain-of-Thought (CoT), когда ИИ для ответа на сложный вопрос сначала расписывает промежуточные шаги и только потом выдает финальный результат. Подход зарекомендовал себя — он помогает моделям лучше структурировать свои решения и избегать типичных ошибок.
Автор CoRT пошёл дальше. Вместо одной цепочки рассуждений он заставляют модель возвращаться к своим же ответам снова и снова, рекурсивно, задавая самой себе уточняющие вопросы и исправляя собственные ошибки. Такой подход моделирует цикл «размышление-рефлексия-переработка», привычный человеческому мозгу.
Это фактически не требует модификации самой ИИ-модели. Никаких дообучений, никаких новых параметров. Всё, что нужно — правильно сформулированный промпт и хитро устроенный рекурсивный цикл генерации вопросов и ответов.
Вот как примерно выглядит простая схема работы CoRT:
1. Задаем модели вопрос и получаем ответ.
2. Модель затем сама генерирует дополнительные вопросы на основе этого ответа, «анализируя» его слабые или недостающие места.
3. Каждый новый вопрос и ответ рекурсивно порождает дополнительные до тех пор, пока модель не прийдет к четкому и значительно улучшенному финальному решению.
Автор изначально проверили свой подход на задачах планирования действий и принятия решений — типа построения плана путешествия и оптимизации расписания. Выяснилось, что рекурсивное усложнение мысли позволяет LLM гораздо успешнее справляться с длинными и многокомпонентными задачами, по сравнению с базовыми способами рассуждения (даже со стандартным CoT).
Да, это по-прежнему языковая модель, легко попадающая в ловушку галлюцинаций. Но даже сейчас (по тестам автора, правда), CoRT позволяет существенно снизить число логических промахов за счет самоанализа и автокоррекции.
Я проверил CoRT на mistral-small-3.1-24b (по «мощности» — на верхней границе самых слабых моделей), результат на видео: неожиданное заигрывание с вариантами формулировок ответа (правильного, кстати).
Как попробовать самим:
— Регистрируетесь на Openrouter (бесплатно) и генерируете ключ.
— Идёте в консоль (aka терминал) и
bashgit clone https://github.com/PhialsBasement/Chain-of-Recursive-Thoughts.git && cd Chain-of-Recursive-Thoughts
bashpip install -r requirements.txt
bashpython recursive-thinking-ai.py
— Вставляете ключ.
— Общаетесь.
По дефолту активируется та же mistral модель, в скрипте можно заменить на любую другую. Там же, кстати, можно наглядно изучить промты, которые скармливаются в LLM.
Почему это важно?
Перед нами отличный пример того, что пока многие пытаются бесконечно наращивать количество параметров моделей и вычислительные мощности, есть элегантные пути использовать существующие ИИ гораздо эффективнее, изменяя только способы взаимодействия с ними.
В общем, рекомендую внимательно понаблюдать за подобными идеями в ближайшее время.
Предыдущий пост
- Опубликовано
Призраки нейросетей: vegetative electron microscopy
Следующий пост
- Опубликовано
Бот: голос → саммари
Закрепленные
Из подборки #объясняю
- Опубликовано
Как ИИ создаёт видео: разбираем технологию
- Опубликовано
Что такое эмбеддинги — фундамент современных LLM
- Опубликовано
Как спор о Боге и царе в России породил Google
- Опубликовано
Почему китайские ИИ захватили лидерство 🇨🇳
- Опубликовано
нейросеть в баре может ли ИИ шутить
- Опубликовано
Прогноз обновлён. Нейросетью
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано

















