Подписаться
Опубликовано

Принцип «нулевого доверия» к ИИ

Автор
  • Имя
    Нейрократия
    Telegram

Принцип «нулевого доверия» к ИИ

Производительность, которую дают ИИ-ассистенты, ощутима, но цена, которую мы за это платим, в среднем по больнице вызывает вопросы. Большое исследование «The State of AI Code Quality» от аналитической компании Qodo подводит под это фактическую базу. Анализ 138 миллионов строк кода выявил системные проблемы качества.

Центральный тезис отчёта: 92 % кода, сгенерированного с помощью ИИ, содержат различные дефекты. Эта цифра — индикатор текущей зрелости технологии и необходимости в строгом инженерном контроле.

Декомпозируем дефекты

Отчёт Qodo классифицирует проблемы, выходя за рамки общей статистики. Наиболее частотные категории дефектов:

1️⃣ Незавершённый код (33 %): Самая распространённая проблема. Модели часто генерируют каркасы функций или классов, но опускают ключевую бизнес-логику, оставляя заглушки (// TODO: Implement later) или обрывая код на полуслове.

2️⃣ «Галлюцинации» кода (24 %): Это прямое следствие вероятностной природы LLM. Они могут уверенно сгенерировать вызовы несуществующих библиотек, методов или эндпоинтов API, что приводит к трудноуловимым ошибкам на этапе сборки или выполнения.

3️⃣ Уязвимости безопасности (19 %): Критическая проблема. В большинстве случаев ИИ не выполняет санацию пользовательского ввода, открывая прямые векторы для атак вроде SQL-инъекций и Cross-Site Scripting (XSS). Также встречаются случаи генерации кода с захардкоженными секретами (ключами API, паролями).

4️⃣ Использование устаревшего кода (11 %): Модели, обученные на срезах данных из прошлого, часто предлагают использовать deprecated функции и уязвимые версии библиотек, что создаёт риски и усложняет поддержку.

Скрытые логические ошибки (5 %): Коварный тип дефекта. Код синтаксически корректен и проходит линтеры, но содержит баги в логике, которые проявляются только в edge-кейсах и могут оставаться незамеченными на ревью.

Количественные метрики: как ИИ-код рушит архитектуру

Отчёт измерил влияние ИИ-генерации на два фундаментальных параметра здоровья кодовой базы:

🔸 Цикломатическая сложность: Эта метрика измеряет количество линейно независимых путей в исходном коде. ИИ-код в среднем демонстрирует в 2,1 раза более высокую сложность. На практике это означает, что код становится экспоненциально труднее для понимания, тестирования и безопасной модификации. Поддержка такого кода требует значительно больше времени и ресурсов.

🔸 Технический долг: Скорость накопления техдолга при активном использовании ИИ-инструментов увеличивается на 18 %. Каждый фрагмент незавершённого, уязвимого или избыточно сложного кода — это инкремент техдолга. Краткосрочное ускорение оборачивается долгосрочным замедлением всей команды из-за необходимости постоянного рефакторинга и исправления ошибок.

Стратегические выводы и рекомендации

Игнорировать ИИ-инструменты невозможно (и не следует), но и слепо доверять им — прямой путь к деградации продукта (и собственной инженерной заодно). Отчёт Qodo ещё подталкивает к выработке новой инженерной культуры:

1️⃣ Принцип «нулевого доверия»: Любой код, сгенерированный ИИ, должен по умолчанию считаться небезопасным и некачественным. Он обязан проходить тот же, если не более строгий, процесс ревью, что и код, написанный джуниор-разработчиком.

2️⃣ Автоматизация контроля: Необходимо внедрять в CI/CD-пайплайны автоматические сканеры безопасности (SAST), анализаторы качества кода и инструменты для проверки зависимостей. Эти инструменты должны стать обязательным «гейтом» перед мержем.

3️⃣ Развитие компетенций ревью: Роль инженера смещается от написания кода к его аудиту. Необходимо развивать навыки быстрого выявления типичных «ИИ-дефектов»: галлюцинаций, пропущенной валидации, избыточной сложности.

В конечном счёте, исследование в очередной раз показывает, что ИИ — это множитель. Он усиливает как продуктивность инженера, так и его ошибки, если контроль ослаблен.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка