Подписаться
Опубликовано

Таблица элементов ML MIT I-Con

Автор
  • Имя
    Нейрократия
    Telegram

Таблица элементов ML

В MIT создали «периодическую таблицу алгоритмов машинного обучения» — и это круче, чем может показаться на первый взгляд.

Более 150 лет назад таблица Менделеева дала химикам чёткую структуру знаний и позволила предсказать существование элементов задолго до их открытия. Сегодня MIT делает примерно то же самое для ML, объединяя свыше 20 классических алгоритмов в единую математическую схему. Исследователи назвали эту систему I-Con — Information Contrastive Learning («информационно-контрастное обучение»).

В чём суть подхода?

До этого момента алгоритмы машинного обучения — классификация, кластеризация, регрессия, снижение размерности и многие другие — часто воспринимались как отдельные, почти никак не связанные между собой техники. Несмотря на использование общих подходов вроде градиентного спуска, каждый алгоритм казался уникальным рецептом. А команда MIT показывает, что на самом деле все эти методы изучают одни и те же базовые отношения между данными, отличаясь только в деталях реализации.

Исследователи нашли единый математический язык — точное, простое и красивое уравнение, которое описывает коллективную «ДНК» большинства существующих методов ML. Теперь разнообразные подходы можно упорядочить в системе координат, где чётко видна связь и «расстояние» между ними. Алгоритмы группируются по тому, как именно они устанавливают взаимосвязи в данных, и это дает ясность взгляда на всю область.

Но самое интересное — это свободные клетки, которые есть в таблице. Так же, как когда-то пустоты в таблице Менделеева предсказывали будущие открытия неизвестных элементов, незанятые позиции в I-Con указывают на алгоритмы, которые ещё предстоит открыть и разработать. Больше никаких случайных блужданий в темноте: исследователи могут системно изучать пространство возможных решений, точно зная, где искать новые подходы.

Более того — это уже работает на практике. Команда MIT провела один из первых экспериментов: взяли элементы из двух разных «ячеек» таблицы и объединили их в новый алгоритм классификации изображений. Результат превзошёл на 8% самые современные методы, используемые сегодня.

Такой подход даёт нам не только красоту и стройность понимания «машинной мысли». Он превращает инновацию в алгоритмах из случайного поиска инсайтов во вполне предсказуемый инженерный процесс. Вместо бесконечной цепи проб и ошибок — чёткий маршрут исследований и гарантии новых открытий там, где раньше либо не смотрел никто, либо слишком быстро сдавались.

Подобное новаторство в подходах к фундаментальным вещам всегда знаменует мощные прорывы. Таблица Менделеева раз и навсегда изменила химию. Периодическая таблица I-Con вполне способна так же революционизировать машинное обучение: упрощая его, делая понятным и масштабируя открытие новых методов.

Надеюсь только, что в школе таблицу элементов ML учить на заставят.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #обзор

Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка