- Опубликовано
Генерация видео в реальном времени — новая модель
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Генерация видео в реальном времени — новая модель
У нас очередной громкий запуск: новая модель генерации видео LTX-Video от ребят из Lightricks.
Эта модель — первая в мире на основе DiT-архитектуры (Diffusion Transformer), которая генерирует видео в реальном времени (30 кадров в секунду) с рекордной детализацией — до 1216×704 точек. Она создана специально с упором на гибкость работы и мощные возможности постобработки.
👉 Пробуйте онлайн в LTX Studio
👉 Изучайте детали на GitHub
👉 Читайте научную статью на Arxiv
Интерфейс позволяет не только создавать видео из текста (text-to-video) и изображений (image-to-video), но также делать видео-видео преобразования (video-to-video), расширять существующие видеоролики вперёд и назад, использовать ключевые кадры для точного управления и комбинировать любые из доступных типов условия генерации.
Что технологически интересного внутри?
Новая версия LTX-Video (v0.9.7, модель 13B) – это несколько значимых инноваций под капотом:
— Мультискейловый рендеринг
Lightricks разработали уникальный пайплайн, который сперва быстро генерирует базовое видео в низком разрешении, захватывая движение и освещение, а затем использует улучшение деталей и текстур с временным контекстом. В итоге визуально чёткое и качественное видео получается до 30 раз быстрее, чем простая генерация сразу в высоком разрешении.
— STG (Spatial-Temporal Guidance)
Разработки из свежего исследования Hyung et al. внедрены для улучшения стабильности и устранения фликеринга (мерцаний и скачков) видео за счёт оптимизации процесса шумоподавления. Для людей, плотно работающих со Stable Diffusion и другими диффузионными техниками, это подарок — модель лучше понимает физические законы и создаёт реалистичное движение с меньшим количеством ошибок.
— TeaCache: Ускорение вывода в 2 раза
Продвинутая система кеширования промежуточных вычислений от Liu et al. ускоряет генерацию видео примерно в 2 раза практически без потери качества.
Кстати, Lightricks разместили веса и код в открытом доступе на GitHub, так что теперь любой профессионал, исследователь или энтузиаст может спокойно поиграть с моделью у себя локально или встроить в собственный процесс.
Уже сейчас можно использовать LTX-Video внутри профессионального продукта LTX Studio, предназначенного специально студиям и командам, работающим с видеопродакшеном.
Поработав с моделью, отмечу несколько моментов:
✅ Плюсы
— Реальный realtime: модель объективно выдаёт видеокартинку быстрее, чем её можно посмотреть. Впервые генеративное качество доступно в режиме «живой» работы.
— Высокая стабильность видео и минимальное количество наглядных артефактов.
— Быстрое освоение и интуитивные интерфейсы.
❗️ Минусы
— При всех усилиях и оптимизациях потребуется мощный GPU (желательно H100, если хотите прямо realtime на максимальных настройках).
— В некоторых особо сложных случаях всё ещё встречаются ошибки движения и физики объектов.
Закрепленные
Из подборки #обзор
- Опубликовано
AI 2025: агенты, ролплей, китайская экспансия
- Опубликовано
Чем больше LLM, тем легче её взломать
- Опубликовано
OpenAI пытается отучить модели врать
- Опубликовано
Как ИИ создаёт видео: разбираем технологию
- Опубликовано
Activepieces: новый n8n?
- Опубликовано
Anthropic запустила образовательные курсы
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано
















