Подписаться
Опубликовано

Так ли страшен вайб‑кодинг

Автор
  • Имя
    Нейрократия
    Telegram

Так ли страшен вайб-кодинг

На N+1 вышел материал о рисках генерации кода нейросетями. Давайте попробуем разобраться, в чём автор прав, а в чём, на мой взгляд, не учитывает всей картины.

Автор статьи — физик-теоретик Марат Хамадеев — правильно отмечает суть феномена, именуемый вайб-кодингом, когда человек без глубокого понимания процесса просто доверяется LLM. Это, конечно, звучит прекрасно: сидишь на чилле с чашкой чая, описываешь словами что хочешь получить, а нейронка делает всю грязную работу за тебя.

И в этом месте N+1 корректно улавливает базовый риск — отсутствие архитектурного подхода и контроля. Поддерживать, масштабировать и документировать такой код будет адом.

Не менее справедливо автор поднимает проблему галлюцинаций LLM, приводя в пример реальный и опасный тренд — «слопсквоттинг», когда модель настойчиво генерирует несуществующие библиотеки, а злоумышленники создают их реальные копии с вредоносным кодом. Отмечу, что это действительно не абстрактная угроза — такие атаки уже применяются.

Однако не всё так однозначно™. В статье звучит идея о перспективах, будто вайб-кодинг потенциально ведет к «снижению общей культуры программирования». Вот здесь, на мой взгляд, автор ошибается. Проблема не в технологии, а в её неправильном применении пользователями. То, что кто-то неадекватно доверяет коду от нейросети, не значит, что абсолютное большинство разработчиков пойдут по этому пути без оглядки.

Понимаете, нейросети не отменяют высокие стандарты программирования и никогда их не отменят. Более того, профессиональному разработчику проще жить, когда рутинные операции и шаблонные конструкции берёт на себя ИИ-помощник. Моя личная практика показывает: если использовать LLM правильно — не как замену собственного мозга, а как продвинутый хелпер, — продуктивность растет, а контекст разработки не растворяется, а становится только актуальнее.

Кроме того, важно учитывать и, казалось бы, банальный фактор времени. Сегодня мы находимся в точке, когда модели активно учатся, а обзоры LLM-кода становятся частью культуры больших команд, таких как Google (уже более 30% кода — от ИИ), OpenAI и Microsoft. С ростом знаний и опыта использования ИИ-инструментов, мы увидим усиление подходов к более жесткому контролю и верификации моделей.

И последнее — идею статьи о том, что вайб-кодинг неспособен выдержать проверку временем, я принимаю, но с одной оговоркой. Сам термин подразумевает несерьезность и расслабленность, так что проблемы возникают именно от пассивности и чрезмерного доверия пользователей, а вовсе не от возможностей самих нейросетей. Риски безопасности вполне реальны, однако человечество всегда развивало технологии, столкнувшись с проблемами и исправляя их. С галлюцинациями LLM, полагаю, будет ровно такая же история.

Но главный посыл статьи я разделяю целиком: ответственность за код, сгенерированный любой технологией — всегда лежит на человеке. В этот новой реальности нам как никогда нужны не закликивальщики нейросетевых кнопок, а разработчики с развитым критическим мышлением и жёстко выстроенным подходом к безопасности и архитектуре.

Заканчивать текст пожеланием отправиться на завод, конечно, смешно, но на деле программисты в ближайшие годы направятся не в цеха, а в классы повышения квалификации. Надо учиться жить в новой эпохе, где умение качественно проверить код важнее, чем умение его написать.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка