Подписаться
Опубликовано

нейросеть в баре может ли ИИ шутить

Автор
  • Имя
    Нейрократия
    Telegram

Нейросеть заходит в бар... Может ли ИИ нормально шутить

#объясняю

В профессиональной среде разработчиков ИИ существует негласный «тест на юмор». Способность машины не просто сгенерировать, а понять и создать остроумную шутку рассматривается как один из маркеров на пути к сильному искусственному интеллекту (AGI). Давайте разберемся, на каком этапе мы находимся сейчас.

Инженерный подход к смеху: деконструкция юмора

Первые попытки научить машину шутить основывались на формальных теориях юмора. Наиболее популярная — теория несоответствия. Ее суть в том, что смех вызывает внезапное разрешение кажущегося противоречия.

Например, в шутке: «Параллельные линии так много могут рассказать друг другу. Жаль, что они никогда не встретятся». Мозг сначала обрабатывает персонификацию линий, а затем сталкивается с геометрической реальностью — это и создает комический эффект.

На этом принципе работают многие генераторы шуток. Пример — проект Witscript, созданный ветераном американских вечерних телешоу Джо Топлином.

Он потратил годы на то, чтобы разложить комедийные приемы на формальные структуры: завязка, панчлайн, использование ложных аналогий, преувеличений и т.д. Witscript, по сути, является фреймворком, который применяет эти шаблоны к заданным темам.

Исследование, опубликованное в Undark Magazine, показало, что сгенерированные таким образом заголовки для сатирического журнала оказались неотличимы от человеческих для 200+ опрошенных читателей.

Экспериментальные данные: где пролегает граница?

Несмотря на успехи в имитации, ключевые эксперименты выявляют фундаментальные ограничения ИИ.

Проблема «почему?». Исследователи из Корнеллского университета провели масштабный тест, используя карикатуры из журнала The New Yorker. ИИ и люди должны были подбирать подписи к картинкам, выбирать лучшие и, что самое важное, объяснять, почему победившая подпись смешная.

ИИ справился с подбором, но провалил объяснение. Он мог указать на структурное несоответствие, но не мог уловить культурные отсылки, социальную сатиру или тонкую иронию, лежащую в основе юмора.

Средний уровень vs. Пик гениальности. В недавнем исследовании, освещенном в Neuroscience News, сравнивали мемы, созданные людьми, ИИ и в коллаборации.

Результат показателен: по средним оценкам смешного, мемы от ИИ не уступали человеческим. Однако самые смешные и оригинальные мемы, получившие наивысшие оценки, были созданы исключительно людьми. ИИ хорош в генерации «нормальных» шуток, но гениальность — это выход за рамки шаблонов, а не их идеальное исполнение.

Юмор как «отладчик сознания». Интересную гипотезу выдвинули авторы статьи на ResearchGate. Они предполагают, что юмор для человека — это эволюционный механизм «самоотладки». Когда мы сталкиваемся с информацией, которая не укладывается в нашу модель мира, мозг помечает эту «ошибку», и смех является побочным продуктом этого процесса. У ИИ нет субъективной модели мира и, соответственно, нет и нужды в таком «отладчике».

Вывод: имитация без переживания

Текущее состояние дел таково: ИИ способен быть эффективным инструментом для создания юмора. Он может служить «протезом остроумия», генерируя сотни вариантов на основе заданных паттернов, из которых человек-редактор выберет лучший. Однако он остается «философским зомби».

Ключевая проблема, на которую указывает лингвист Кристиан Хемпельманн, — отсутствие у машины феноменологического опыта. ИИ не может испытать смущение от неуместной шутки, интеллектуальное удовольствие от тонкой сатиры или чувство общности, возникающее при совместном смехе.

Он может проанализировать, что шутка про политику вызовет поляризованную реакцию, но он не понимает, что такое политические убеждения.

Таким образом, юмор пока остается глубоко человеческим явлением, завязанным не столько на вычислениях, сколько на эмпатии, социальном контексте и субъективном переживании мира.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #объясняю

Опубликовано

Как ИИ создаёт видео: разбираем технологию

Как ИИ создает видео: технология генерации видео из текста, диффузионные трансформеры и латентное пространство
Опубликовано

Что такое эмбеддинги — фундамент современных LLM

Что такое эмбеддинги в современных LLM и как они работают
Опубликовано

Почему китайские ИИ захватили лидерство 🇨🇳

Почему китайские ИИ лидируют в открытом коде: анализ рынка и структурных факторов
Опубликовано

Прогноз обновлён. Нейросетью

Прогноз погоды нейросетью: как ИИ ускоряет и улучшает метеорологию
Опубликовано

Когнитивный долг: как LLM ослабляет мозг

Когнитивный долг от использования LLM: как ИИ снижает мозговую активность

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка