Подписаться
Опубликовано

Вайб-кодинг — это зависимость

Автор
  • Имя
    Нейрократия
    Telegram

Вайб-кодинг — это зависимость И компании этим пользуются

Почему всякий, кто всерьёз подсел на программирование в тесной связке с ИИ-ассистентами, рискует стать если не жертвой зависимости, то уж точно — пленником специфической экономики?

Сначала личная история автора статьи с Medium: товарищ признался, что с момента запуска ИИ-кодера Claude Code (это меньше 3 месяцев) потратил больше $1000 на «идеальные решения, которые всегда были в шаге от финального состояния». Автор чётко описывает это ощущение — программа почти всегда кажется «вот-вот и заработает» после следующего запроса. Это чистейший допаминовый цикл, знакомый больше по гемблингу.

Дальше — больше (буквально). ИИ-кодеры вроде последнего поколения Claude — 3.7 — имеют тенденцию «раздувать» решения: там, где программист напишет лаконичные 10 строк, виртуальный ассистент выдаст 50, и ещё 50 в довесок, чтобы «покрыть крайние случаи». В результате весь этот лишний код становится частью последующих запросов, увеличивая объём отправляемых и принимаемых токенов — и существенно повышая затраты пользователя.

Вместо минимальных элегантных решений получаем огромные пачки кода с бесконечной цепочкой зависимых функций, строгими проверками и комментариями на каждый чих. И ладно бы оно всегда работало — но нет, автор всё той же статьи приводит наглядный пример, в котором человеческое решение алгоритма MiniMax занимает ощутимо меньше (400 строк против 627 у Claude) и, в отличие от версии нейросети, реально функционирует.

Я подтверждаю — последний раз на решение, которые делается в ~500 строк, Claude Code написал мне >1200. И так всегда, даже если запретить комментарии в коде.

Но ключевой поинт не в техническом несовершенстве. Тут всё циничнее — это проблема экономических стимулов.

Системы монетизации LLM строятся вокруг токенов — крошечных кусочков информации, которые пользователь покупает или оплачивает по подписке. Чем больше токенов вы отправляете на сервер и получаете обратно, тем больше платите владельцам сервиса. В таком бизнес-уравнении разработчики сервисов не слишком заинтересованы в оптимизации лаконичности кода — это ударит по их доходам.

Вдобавок, исследования показывают, что искусственное ограничение длины ответов существенно ухудшает точность и увеличивает число ошибок у нейросетей, так что для качественного результата ИИ буквально вынужден извергать пространные тексты и трешовые пояснения.

В моей практике, за одну задачу Claude Code может легко сожрать $5-10 в токенах в зависимости от комплексности.

⚠️ Можно (и нужно) использовать несколько приемов, чтобы хотя бы частично справиться с токсичным экономическим механизмом:

1. Просить систему сперва написать детальный план, а потом реализовывать код — это заставляет модель продумать архитектуру и сократить последующий объём кода.

Занятно, что в случае с Claude Code существуют «ключевые слова», которые заставляют модель поступательно больше «думать» и раздувать на это бюджет: «think» < «think hard» < «think harder» < «ultrathink». Я это узнал из материала самих Anthropic «Claude Code: Best practices».

2. Заставить ассистента каждый раз просить подтверждение перед генерацией кода (хотя тот же Claude регулярно забывает эту инструкцию).

3. Активно применять Git, беспощадно отбирать рабочие решения и отказаться от плохих веток кода полностью — крайне полезно, чтобы не виснуть бесконечно на бесполезном решении, доводя его до ума.

4. Использовать менее дорогие версии моделей. Тут дешевизна порой соответствует прямолинейности решений: упрощённые модели часто выдают куда более лаконичные конструкции.

Возникает вопрос, не заходят ли компании-разработчики виртуальных помощников в угол? Они находятся между необходимостью продавать токены и объективной потребностью пользователей иметь достойные решения.

Впрочем, компании пока что не так сильно прижаты, а пользователи не настолько прозрели, чтобы что-то изменилось.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #разработка

Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Как создавать инструменты для агентов

Как создавать инструменты для ИИ‑агентов: рекомендации Anthropic
Опубликовано

Написал аутлайнер на Go для хардкорщиков

аутлайнер OCLI на Go для терминала: иерархические списки, Vim‑навигация, без облаков и ИИ, установка за 30 секунд

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка