Подписаться
Опубликовано

Топология мышления: почему ИИ — это геометрия

Автор
  • Имя
    Нейрократия
    Telegram

Топология мышления: почему ИИ — это геометрия

Когда я думаю об ИИ, я думаю о топологии. Звучит странно? На самом деле всё проще, чем кажется — и одновременно глубже, чем мы привыкли считать.

Представьте кусок пластилина. Вы можете его мять, растягивать, скручивать — но пока не порвёте и не проткнёте дырку, некоторые свойства останутся неизменными. Нарисуйте на нём круг — и как бы вы ни деформировали материал, круг не превратится в две окружности и не станет линией. Это и есть топология — математика поверхностей и их неизменных свойств. Но причём тут нейросети?

Как нейросети видят мир

Любая задача классификации — это попытка провести границу между данными. Коты слева, собаки справа. Но что если данные перемешаны так, что прямой линией их не разделить?

Тут на сцену выходит глубокое обучение. Нейросеть берёт наше пространство данных и начинает его деформировать. Слой за слоем она применяет математические трансформации, пока хаотично разбросанные точки не выстроятся так, что их можно будет разделить простой границей.

Крис Ола из Anthropic описал это ещё в 2014 году: каждый слой нейросети — это геометрическая трансформация. Линейное преобразование (умножение на матрицу), сдвиг (прибавление вектора), нелинейная функция активации (искривление пространства). Сложите десятки таких трансформаций — и получите систему, способную отличать котов от собак.

Высшие измерения решают всё

Но что если данные принципиально неразделимы? Скажем, точки одного класса окружены точками другого класса, как в мишени? Топология неумолима — в двух измерениях это не решить.

Выход? Добавить измерения. То, что невозможно разделить на плоскости, элементарно разделяется в трёхмерном пространстве. А нейросети оперируют сотнями и тысячами измерений. В таком пространстве можно найти способ разделить практически любые данные.

Всё есть многообразие

А теперь к самому интересному. Абсолютно всё можно представить как точки на многомерной поверхности — многообразии.

Цвета? Живут на трёхмерном многообразии RGB. Хотите получить фиолетовый? Сложите векторы красного и синего.

Изображения? Каждая картинка — точка в пространстве размерности (высота × ширина × 3). Можно провести линию от фото Брэда Питта до Моны Лизы, и каждая промежуточная точка будет валидным изображением.

Слова? Тоже многообразие. Помните знаменитый пример: «король» — «мужчина» + «женщина» = «королева»? Это буквальная векторная арифметика в пространстве смыслов.

Нейросети как универсальные картографы

Получается, нейросети — это не просто классификаторы. Это универсальные машины топологий. Они берут сырые данные и находят такое представление, где семантически близкие концепции оказываются рядом, а далёкие — ...ну, далеко.

Есть многообразие мебели, где все стулья кластеризуются отдельно от столов. Есть многообразие погодных условий в Непале (которое, кстати, используют хедж-фонды для прогнозирования цен на товары; не спрашивайте). Есть даже многообразие запахов, связанных с эмоциями.

Рассуждения тоже живут на многообразии

Само мышление можно представить как многообразие, где «хорошие» рассуждения находятся в одной области, а «плохие» — в другой.

Именно это делают OpenAI, Anthropic, DeepSeek и другие. Они больше не учат модели просто предсказывать следующее слово — этот подход исчерпал себя. Вместо этого они учат модели перемещаться по многообразию рассуждений от области «предсказание токенов» к области «логическое мышление».

Chain-of-thought, reasoning traces — всё это способы навигации по пространству мышления. Сейчас все подряд пытаются проложить маршрут напрямую от случайного шума к продвинутым рассуждениям через reinforcement learning. Получается не идеально, но направление ясно.

Если мыслить о глубоком обучении через призму топологии, всё встаёт на свои места. Embeddings, attention, fine-tuning — всё это манипуляции с геометрией смыслового пространства.

Источник.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #объясняю

Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство
Опубликовано

Что такое эмбеддинги — фундамент современных LLM

Что такое эмбеддинги в современных LLM и как они работают
Опубликовано

Почему китайские ИИ захватили лидерство 🇨🇳

Почему китайские ИИ лидируют в открытом коде: анализ рынка и структурных факторов
Опубликовано

нейросеть в баре может ли ИИ шутить

может ли ИИ шутить как человек, примеры AI юмора и ограничения
Опубликовано

Прогноз обновлён. Нейросетью

Прогноз погоды нейросетью: как ИИ ускоряет и улучшает метеорологию

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка