Подписаться
Опубликовано

LLM: 8 типовых моделей ИИ 2025

Автор
  • Имя
    Нейрократия
    Telegram

НЕ ВСЁ ИИ — ЭТО LLM: 8 типовых моделей, которые стоит знать в 2025

Часть 1: LLM, LCM, LAM

Сегодня словом «ИИ» разбрасываются настолько активно, что его воспринимают практически синонимом ChatGPT или любого генеративного бота. Но правда в том, что «LLM» стал лишь одним из многих супергероев огромной вселенной искусственного интеллекта.

Давайте детально разберёмся с новыми мощными типами моделей, которые будут определять наш мир в ближайшие годы.

1️⃣ LLM — Large language model (Большая языковая модель)

Это именно то, что первым приходит в голову: ChatGPT, Claude, Gemini, Grok. Большие языковые модели обучены практически на всём человеческом знании, которое удалось подчистить и упаковать в гигантские текстовые базы данных.

📌 Как работает? Модель просто предсказывает следующее слово (точнее, токен) по заданному контексту. За счёт огромного охвата и объёма данных эти «предсказания» выглядят крайне осмысленно и часто весьма полезны.

📍 Сильные стороны: — Генерация текстов, писем, кода; — Умеют поддерживать беседу, переводить и адаптировать тексты; — Универсальны — знают «всё и понемногу».

⚠️ Недостатки: — «Галлюцинации» (генерируют уверенные ошибки); — Высокая стоимость и ресурсоёмкость; — Отсутствие истинного понимания и логики.

⚙️ Реальное применение: — ассистенты, которые пишут письма, статьи, программы; — чат-боты поддержки клиентов; — репетиторы и переводчики.

2️⃣ LCM — Latent Consistency Model (Латентные модели консистентности)

Эволюция популярных моделей генерации изображений для работы в (практически) реальном времени и на компактных устройствах (телефон, AR-очки).

📌 Как работает? Знаменитые diffusion-модели («генерация за счёт постепенного шумоподавления «) умеют красиво, но медленно. LCM сокращают этот путь, находя системные закономерности (паттерны) в сжатом латентном пространстве. Вместо десятков шагов — пара быстрых и точных.

📍 Сильные стороны: — Быстро работают даже без интернета ; — Энергосберегающие и компактные; — Работают на телефонах, AR-устройствах в real-time.

⚠️ Недостатки: — Менее «креативны», чем тяжелые Stability AI или Midjourney; — Ограниченное качество при сложных запросах.

⚙️ Где применяют: — AR/VR приложения; — Редакторы на смартфонах (создание аватаров, фильтров); — Реалтайм-прототипирование в дизайне и разработке игр.

3️⃣ LAM — Language Action Model (Модель языковых действий)

Продвинутый родственник LLM, который переходит от слов к действию. Это не чатбот, а «виртуальный помощник», выполняющий задачи сам или подключающий API и внешние сервисы.

📌 Как работает? LAM совмещает LLM (понимание языка), память (персистентное хранилище), планировщик действий и интеграцию с внешними инструментами (например, API авиакомпаний, банков, Gmail, календаря).

Пример: «Организуй моё путешествие», после чего получаем не просто рекомендации, а готовый маршрут с забронированными билетами и отелями, синхронизированный с вашим календарём.

📍 Сильные стороны: — Автоматизация многошаговых задач; — Умеют «действовать», а не только разговаривать; — Понимают контекст задач и хранят память.

⚠️ Недостатки: — Повышенные требования к инфраструктуре и безопасности; — Ограничены интеграцией с конкретными сервисами.

⚙️ Где применяют: — Автоматизация рабочих процессов (Zapier AI, Notion AI); — Персональные помощники с глубокими интеграциями; — Роботы и системы управления умным домом.

🏁 На этом пока всё. Во второй части рассмотрим следующие 3 типа, которые не менее важны: MoE, SLM и VLM.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #обзор

Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка