Подписаться
Опубликовано

Машины учатся взламывать

Автор
  • Имя
    Нейрократия
    Telegram

Машины учатся взламывать

#безопасность

Разбор решений и рынка кибербезопасности во времена ИИ.

Классическая модель тестирования на проникновение (пентест) создавалась для эпохи квартальных релизов. Компания нанимает специалистов раз в год, получает отчет на 200 страниц, исправляет критические баги — и до следующей проверки живет с иллюзией безопасности.

Проблема в том, что современная разработка работает иначе. CI/CD пайплайны выкатывают обновления ежедневно, а то и ежечасно. Микросервисы множатся как грибы после дождя. API меняются быстрее, чем документация к ним. Пентест-отчет устаревает еще до того, как его дочитают до конца.

Автоматизированные сканеры тоже не панацея. Они находят известные CVE и кричат о неправильных настройках, но не понимают бизнес-логику. Не могут связать безобидные на первый взгляд находки в цепочку эксплойтов.

Когда ИИ научился думать как хакер

Исследование Carnegie Mellon и Anthropic стало поворотным моментом. Ученые создали систему Incalmo — промежуточный слой между языковой моделью и инструментами хакера.

Идея проста. Вместо того чтобы учить ИИ писать точные команды для Metasploit, исследователи позволили ему формулировать высокоуровневые задачи: «найти уязвимые сервисы», «повысить привилегии», «извлечь конфиденциальные данные». Incalmo переводит эти намерения в конкретные технические действия.

Результат — ИИ-агенты, которые раньше не могли выполнить простейшую атаку, успешно взломали 9 из 10 тестовых сетей. Они проводили разведку, находили уязвимости, строили цепочки эксплойтов и достигали целей — полный цикл работы опытного пентестера.

Еще более показательным стал проект Unpatched AI. В начале года под псевдонимом появился документ со списком более сотни ранее неизвестных уязвимостей в Microsoft Access и Office 365 — с техническими доказательствами, трассировками стека и цепочками эксплойтов.

Источником оказался не человек и не команда, а автономная система, сочетающая фаззинг, символьное выполнение и генеративный ИИ.

Новое поколение инструментов: от ассистентов к автономным агентам

Рынок AI-пентестинга можно разделить на четыре уровня зрелости:

Уровень 1: Улучшенные сканеры Классические инструменты вроде Nmap или Burp Suite получают ИИ-плагины для более умной приоритизации находок. ИИ помогает отфильтровать шум, но не меняет суть процесса.

Уровень 2: ИИ-ассистенты PentestGPT и подобные инструменты работают в диалоговом режиме, подсказывая пентестеру следующие шаги. Они структурируют процесс тестирования, но требуют постоянного участия человека.

Уровень 3: Гибридные системы Terra Security продвигает концепцию «человек в контуре» — ИИ выполняет техническую работу, но критические решения принимает эксперт. Это компромисс между автоматизацией и контролем.

Уровень 4: Полностью автономные платформы RunSybil, XBOW, Horizon3.ai и другие стартапы создают системы, способные самостоятельно планировать и проводить комплексные атаки. XBOW заявляет о скорости работы в 80 раз выше ручного тестирования и более 1000 найденных zero-day уязвимостей.

Гонка вооружений: ИИ против ИИ

Параллельно с защитными технологиями развиваются и наступательные. По данным Team8, четверть CISO сообщают об атаках с использованием ИИ за последний год.

Чтобы защититься от ИИ-атак, организации вынуждены использовать ИИ-защиту. Индустрия кибербезопасности переживает настоящую гонку вооружений, где скорость реакции измеряется уже не в днях, а в миллисекундах.

Влияние на профессию: эволюция

Распространенный страх, что ИИ заменит пентестеров, не подтверждается практикой. McKinsey пересмотрел свой прогноз о вытеснении 375 миллионов рабочих мест, снизив оценку до 92 миллионов. При этом ожидается создание 170 миллионов новых ролей.

ИИ снижает барьер входа в профессию — даже новички с помощью продвинутых инструментов могут выполнять сложные тесты. Но это освобождает опытных специалистов от решения более интересных задач.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка