Подписаться
Опубликовано

«Мы не сможем распознавать поддельный голос»

Автор
  • Имя
    Нейрократия
    Telegram

«Мы не сможем распознавать поддельный голос»

В прошлую пятницу вышла программа «Вопрос науки» про угрозы искусственного интеллекта, участником которой стал Константин Воронцов — профессор МФТИ и ВМК МГУ, профессор РАН, крайне человек уважаемый в сфере ИИ.

Обычно телевизионный контент, посвященный искусственному интеллекту, не заслуживает никакого внимания, но Константин — на передовой российской науки в предметной области, поэтому его интервью вызывает интерес.

Я нашел этот выпуск, вытащил аудиодорожку и сделал полную расшифровку в NotebookLM.

Вот основые тезисы Воронцова:

— Он считает, что регулирование искусственного интеллекта возможно и не будет идти в ущерб его развитию.

Необходимо разрабатывать тесты и бенчмарки для оценки достоверности, качества и безопасности больших языковых моделей. Модели, выходящие в общественный доступ или на рынок (например, российский), должны пройти сертификацию и показать результаты тестов, в том числе о неприменении запрещенной информации при обучении.

— Существуют разные подходы к борьбе с фейками и угрозами ИИ: Запад предлагает больше открытости и критическое мышление (опасность контроля СМИ деньгами), а Восток – доверие государству (опасность авторитаризма). Он задается вопросом, найдет ли Россия свой срединный путь.

— Вопрос стран, не следующих регулированию («цифровые оффшоры»), находится в области политики; необходимо международное взаимодействие, возможно, по аналогии с Интерполом.

— Использование ИИ в преступных и мошеннических целях должно быть отягчающим обстоятельством.

— В случае с дипфейками голоса (например, для мошеннических звонков) мы, скорее всего, уже не сможем надежно распознавать поддельный голос; соревнование «щита и меча» приведет к тому, что «меч» всегда будет опережать.

— Правильная реакция на подозрительный звонок – включить здравый смысл и перезвонить по известному номеру для проверки. Надеяться на голос или видео больше нельзя как на надежное свидетельство личности человека.

— Необходимо активно проводить просветительскую деятельность, объясняя, что могут и не могут технологии, и как противостоять. Есть случаи, где сейчас нет противодействия, например, использование украденного голоса актрисы для порнороликов, что может положить конец ее карьере.

Обучение моделей на «всем интернете» является тупиковым путем. Наступает интенсивный период развития, когда будут настраиваться интеллектуальные фильтры для отбора доверенной информации. Нельзя учить по низкопробному контенту из соцсетей; нужно идти в проверенные источники, но и тонкие фильтры для других сфер (как кулинарные рецепты) тоже нужны.

— Прогноз на будущее (ближайшие 10 лет): Персональные ИИ помощники, взаимодействуя с человеком годами, станут «слепком личности», содержащим его личностный код. Это приведет к совместной цивилизации людей и аватаров (цифровых личностей бывших людей).

— Ему нравится идея человеко-машинного общества, потому что на этом пути можно заложить человеческие ценности и сделать процесс более контролируемым. Нужно контролировать каждый шаг, думать наперед, учитывать морально-этические и юридические аспекты.

— На ранних стадиях развития технологий возникают тонкие вопросы. У любой технологии есть две стороны, светлая и темная. Не погрузиться во тьму можно, если не пускать технологическое развитие на самотек, особенно в случае с ИИ.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка