Подписаться
Опубликовано

ИИ как религия

Автор
  • Имя
    Нейрократия
    Telegram

ИИ как религия

Я тут недавно сходил на круглый стол MIT Technology Review с Карен Хао, посвященный её новой книге «Империя ИИ: Мечты и кошмары OpenAI Сэма Альтмана». Это — препарирование идеологии, на которой построен современный хайп вокруг ИИ.

Карен, которая одна из первых подробно рассказала о внутренней кухне OpenAI ещё в 2020 году (и старику Сэму тогда это очень не понравилось и он перестал общаться с изданием), выдвигает следующий тезис: OpenAI и подобные ей корпорации функционируют как неоколониальные империи. 👑

И вот её аргументы:

🔸 Захват ресурсов. Империи претендуют на то, что им не принадлежит. Компании соскребают весь интернет, забирая данные и интеллектуальную собственность, не спрашивая разрешения.

🔸 Эксплуатация труда. Империи используют дешёвую рабочую силу. Мы видим, как компании нанимают низкооплачиваемых работников в странах Глобального Юга для довольно утомительной и нудной работы — разметки данных.

🔸 Монополизация знаний. Империи контролируют производство знаний. Big Tech переманил к себе почти всех ведущих исследователей, лишив науку независимости. Хао сравнивает это с ситуацией, если бы большинство климатологов работали на нефтегазовые компании. Мы просто не получаем честной картины.

🔸 Агрессивная риторика «гонки». Империи всегда говорят о «злых врагах». Нам твердят: «Если мы не создадим AGI первыми, его создаст злая империя (Китай, Россия — подставьте нужное), и человечеству конец!». Эта риторика оправдывает любую гонку, любую цену и любые методы.

Цена прогресса: выжженная земля

В основе этой имперской модели лежит одно ключевое решение, принятое OpenAI ещё в 2017 году: сделать ставку не на фундаментальные исследования, а на масштабирование. Вместо поиска новых прорывных идей — просто брать существующие нейросети и накачивать их всё большим количеством данных и вычислительных мощностей.

Этот путь идеально совпал с талантом Сэма Альтмана — гения фандрайзинга. И это сработало.

Но масштабирование требует колоссальных ресурсов. По прогнозам McKinsey, в ближайшие 5 лет дата-центры потребуют в 2-6 раз больше энергии, чем потребляет вся Калифорния. Эту энергию будут давать ископаемые виды топлива, ускоряя климатический кризис. А для охлаждения суперкомпьютеров нужна пресная вода, которую, по данным Bloomberg, на две трети забирают из регионов, где её и так не хватает.

AGI как религия

А что же AGI, та самая священная цель? Хао утверждает, что это просто удобный, постоянно сдвигающийся ориентир. Внутри OpenAI даже шутят: «Спроси у 13 исследователей, что такое AGI, и получишь 15 определений».

AGI — это квазирелигиозная идея, которая создаёт у сотрудников фанатичную веру в свою миссию. Она оправдывает всё: экологический ущерб, эксплуатацию, антидемократический подход к разработке («только мы, эксперты, можем этим заниматься»).

Существует ли другой путь?

Да. Хао приводит в пример сообщество Маори в Новой Зеландии. Они хотели возродить свой язык с помощью ИИ для распознавания речи. И что они сделали первым делом? Спросили у сообщества, нужен ли им такой инструмент. Они провели общественную кампанию, объясняя, как будет работать технология, и люди добровольно жертвовали свои данные. Весь процесс был демократичным и основан на согласии.

Это полная противоположность имперской модели «сначала заберём, потом разберёмся».

Карен Хао — не «бумер», верящий в утопию от ИИ, и не «думер», предрекающий апокалипсис. Она занимает третью позицию — позицию ответственности. Текущий путь развития ИИ — это не неизбежность, а результат конкретных человеческих решений.

В конце интервью ей задали вопрос, что бы она спросила у Сэма Альтмана, если бы тот снова начал с ней разговаривать. Её ответ: «Какую степень вреда вы должны увидеть, чтобы задуматься, что вам следует пойти другим путём?»

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка