- Опубликовано
Вайб-кодинг — это зависимость
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Вайб-кодинг — это зависимость
И компании этим пользуются
Почему всякий, кто всерьёз подсел на программирование в тесной связке с ИИ-ассистентами, рискует стать если не жертвой зависимости, то уж точно — пленником специфической экономики?
Сначала личная история автора статьи с Medium: товарищ признался, что с момента запуска ИИ-кодера Claude Code (это меньше 3 месяцев) потратил больше $1000 на «идеальные решения, которые всегда были в шаге от финального состояния». Автор чётко описывает это ощущение — программа почти всегда кажется «вот-вот и заработает» после следующего запроса. Это чистейший допаминовый цикл, знакомый больше по гемблингу.
Дальше — больше (буквально). ИИ-кодеры вроде последнего поколения Claude — 3.7 — имеют тенденцию «раздувать» решения: там, где программист напишет лаконичные 10 строк, виртуальный ассистент выдаст 50, и ещё 50 в довесок, чтобы «покрыть крайние случаи». В результате весь этот лишний код становится частью последующих запросов, увеличивая объём отправляемых и принимаемых токенов — и существенно повышая затраты пользователя.
Вместо минимальных элегантных решений получаем огромные пачки кода с бесконечной цепочкой зависимых функций, строгими проверками и комментариями на каждый чих. И ладно бы оно всегда работало — но нет, автор всё той же статьи приводит наглядный пример, в котором человеческое решение алгоритма MiniMax занимает ощутимо меньше (400 строк против 627 у Claude) и, в отличие от версии нейросети, реально функционирует.
Я подтверждаю — последний раз на решение, которые делается в ~500 строк, Claude Code написал мне >1200. И так всегда, даже если запретить комментарии в коде.
Но ключевой поинт не в техническом несовершенстве. Тут всё циничнее — это проблема экономических стимулов.
Системы монетизации LLM строятся вокруг токенов — крошечных кусочков информации, которые пользователь покупает или оплачивает по подписке. Чем больше токенов вы отправляете на сервер и получаете обратно, тем больше платите владельцам сервиса. В таком бизнес-уравнении разработчики сервисов не слишком заинтересованы в оптимизации лаконичности кода — это ударит по их доходам.
Вдобавок, исследования показывают, что искусственное ограничение длины ответов существенно ухудшает точность и увеличивает число ошибок у нейросетей, так что для качественного результата ИИ буквально вынужден извергать пространные тексты и трешовые пояснения.
В моей практике, за одну задачу Claude Code может легко сожрать $5-10 в токенах в зависимости от комплексности.
⚠️ Можно (и нужно) использовать несколько приемов, чтобы хотя бы частично справиться с токсичным экономическим механизмом:
1. Просить систему сперва написать детальный план, а потом реализовывать код — это заставляет модель продумать архитектуру и сократить последующий объём кода.
Занятно, что в случае с Claude Code существуют «ключевые слова», которые заставляют модель поступательно больше «думать» и раздувать на это бюджет: «think» < «think hard» < «think harder» < «ultrathink». Я это узнал из материала самих Anthropic «Claude Code: Best practices».
2. Заставить ассистента каждый раз просить подтверждение перед генерацией кода (хотя тот же Claude регулярно забывает эту инструкцию).
3. Активно применять Git, беспощадно отбирать рабочие решения и отказаться от плохих веток кода полностью — крайне полезно, чтобы не виснуть бесконечно на бесполезном решении, доводя его до ума.
4. Использовать менее дорогие версии моделей. Тут дешевизна порой соответствует прямолинейности решений: упрощённые модели часто выдают куда более лаконичные конструкции.
Возникает вопрос, не заходят ли компании-разработчики виртуальных помощников в угол? Они находятся между необходимостью продавать токены и объективной потребностью пользователей иметь достойные решения.
Впрочем, компании пока что не так сильно прижаты, а пользователи не настолько прозрели, чтобы что-то изменилось.
Предыдущий пост
- Опубликовано
ИИ запомнит всю вашу жизнь
Закрепленные
Из подборки #разработка
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Как создавать инструменты для агентов
- Опубликовано
Activepieces: новый n8n?
- Опубликовано
Anthropic запустила образовательные курсы
- Опубликовано
Чтение инженерам ИИ — август 2025
- Опубликовано
Написал аутлайнер на Go для хардкорщиков
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано
















