Подписаться
Опубликовано

ИИ научился (лучше) предсказывать клики

Автор
  • Имя
    Нейрократия
    Telegram

ИИ научился (лучше) предсказывать клики

В мире рекомендательных систем борьба идёт буквально за каждый клик. Amazon, Netflix, TikTok — все они стремятся понять, что именно заставит вас нажать на видео, товар или ссылку на контент. Чтобы предугадывать действия пользователя, модели одновременно анализируют изображения продуктов, текстовые описания и сотни записей о прошлом поведении каждого из нас. Это называется мультимодальным предсказанием кликов.

Так вот — вышла новая научная работа команды из Университета науки и техники Китая, имплементация которого заняла второе место на знаковом конкурсе WWW 2025 Multimodal CTR Prediction Challenge. (Есть код на гитхабе.)

Учёные представили Quadratic Interest Network (QIN) с двумя фишками:

Adaptive Sparse Target Attention (ASTA) — совершенно новая форма внимания, разработанная специально для того, чтобы фокусироваться только на ключевых моментах поведения пользователя. Вместо традиционного softmax (стандартного метода в нейросетях) здесь используется ReLU-активация. Что это даёт? Вместо того, чтобы распылять внимание по всей истории посещений, модель «точечно» выделяет только действительно важные пункты — так заметно снижается шум, и система становится существенно точнее.

Quadratic Neural Networks (QNN) — архитектура, способная моделировать гораздо более сложные и тонкие взаимодействия между признаками. На смену устаревшим подходам, использующим простые линейные структуры, приходит квадратичная обработка признаков (через умножение пар фич между собой). Это звучит непривычно, но представьте, что теперь нейросеть явно понимает, как именно ваша недавняя покупка новой мышки взаимодействует с картинкой и описанием клавиатуры, которую она предлагает вам следующим товаром.

Насколько это хорошо в цифрах? Ну, классическая и очень популярная модель Deep Interest Network (DIN) выдавала AUC (показатель точности предсказаний) на уровне 0.8655. QIN продемонстрировала результат в 0.9701 — это не просто улучшение, это прям скачок.

Ещё интереснее оказалась внутренняя статистика, собранная командой QIN. Перенастройка QNN на обычный MLP снизила показатель точности с 0.9701 до 0.7396 — огромный шаг назад. И даже простая замена ReLU на softmax лишила модель части её преимуществ. Это подтверждение того, что детали архитектуры имеют большое значение при работе с мультимодальными данными, где велики объёмы и разнообразие входящей информации.

В практическом смысле QIN это: — Более точные и персонализированные рекомендации для пользователей. — Более эффективные рекламные показы для бизнеса. — Быстрая адаптация к изменению поведения и интересов аудитории.

Будущее рекомендательных систем — не просто в увеличении числа данных, а в тонких, специализированных моделях. Таких, что смогут одновременно учитывать контекст, привычки и эмоциональные решения пользователя здесь и сейчас.

Так что, вполне вероятно, уже скоро вам меньше захочется ругать рекомендации стриминговых сервисов. Пока не идеально, но уже всё реже «странно».

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #обзор

Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка