Подписаться
Опубликовано

Отчёт: мошенничество с ИИ

Автор
  • Имя
    Нейрократия
    Telegram

Отчёт: мошенничество с ИИ

Компания Anthropic выпустила любопытный отчёт о самых креативных вариантах недавнего злоупотребления своей платформой Claude. Из этих историй становится ясно: угрозы со стороны генеративных моделей стали намного серьёзнее, чем мы думали ранее.

Какие схемы злоумышленников обнаружили аналитики из Anthropic?

Доработка вирусов

Относительно неопытный пользователь смог получить от Claude инструкции, как значительно доработать открытый исходный код вредоносного ПО. В результате получилось нечто весьма продвинутое — со встроенной системой распознавания лиц и модулями для сканирования даркнета. Не имея инструмента вроде Claude, такой пользователь вряд ли мог бы создать вирус подобного уровня.

Сбор краденых паролей

В ещё одном кейсе злоумышленники использовали Claude для обработки уже слитых учётных данных — и получили доступ к видеокамерам наблюдения. Эксплойт хоть и классический, но удивительно, как легко теперь автоматизировать подобные схемы с помощью ИИ.

Манипуляции в соцсетях на новом уровне

Самый необычный описанный случай — создание «системы влияния», основанной на сотнях ботов в X и Facebook (запрещен в РФ). Claude генерировал контент, давал указания ботам по комментариям и лайкам и даже подбирал оптимальное время взаимодействия с десятками тысяч людей.

И самое занятное: когда этих ботов обвиняли в искусственности, система автоматически реагировала на подозрения с сарказмом и юмором, не позволяя «выбить себя из роли» различными трюками вроде просьб написать рецепты или рифмованные стихи. Это следующий уровень манипуляций: долгосрочные кампании по созданию иллюзии живого общения и вовлечения, гораздо сложнее отличимые от живого общения, чем первичные набеги вроде Cambridge Analytica.

Как утверждает Anthropic, такие кампании активны в ряде стран и, возможно, имеют государственные связи, хотя доказать этого пока невозможно.

Рекрутинговые мошенничества

Завершающий кейс — использование Claude для «отбеливания языка» текстов мошеннических вакансий в Восточной Европе (где же это интересно). Чатбот помогал технически неграмотным мошенникам звучать безупречно, профессионально и убедительно.

Что со всем этим делать?

Anthropic уже заблокировала выявленные аккаунты и внедрила новые механизмы защиты. Однако компания подчёркивает: такие схемы неизбежно будут развиваться на фоне общедоступности мощного генеративного ИИ.

Отчёт очень важен ещё и потому, что Anthropic — один из признанных лидеров по безопасности моделей и серьёзности собственных внутренних тестов. То, что даже при серьёзном подходе подобные вещи всплывают постфактум, говорит о многом.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка