Подписаться
Опубликовано

Новые законы для роботов

Автор
  • Имя
    Нейрократия
    Telegram

Новые законы для роботов И почему старые методы здесь не сработают

Недавно я писал про кринжовых роботов, которые пытаются быть похожими на нас, а сегодня у нас на повестке — другие андроиды, вполне способные нанести физический вред людям, и как вышло, что протоколов безопасности для них до сих пор нет.

В прошлом году гуманоидный робот Digit от Agility Robotics приступил к работе на складе, перетаскивая коробки. А в марте на выставке он же эпично рухнул лицом в бетонный пол, уронив контейнер. 🤖💥

И это не просто забавный фейл. Представьте, что такая 1,8-метровая и 65-килограммовая машина падает на вас. Или её манипулятор случайно бьёт вас по горлу — как метко подмечает технический директор Agility Robotics, даже малой части усилия, нужного для переноски 20-килограммового ящика, хватит для серьезной травмы.

Проблема в том, что для гуманоидов не подходят существующие стандарты безопасности. И сейчас целая группа экспертов в IEEE и ISO лихорадочно пытается разработать новые, пока эти роботы не вышли из-за ограждений в наши офисы и дома.

Красная кнопка не спасёт

Главная проблема, о которой не задумывается обыватель — динамическая стабильность. В отличие от традиционных промышленных роботов, гуманоиды тратят энергию, чтобы просто стоять на ногах.

Что это значит на практике? Нажать на «большую красную кнопку», чтобы обесточить робота в аварийной ситуации — худшее, что можно сделать. Он не остановится, а просто упадёт, создавая ещё большую угрозу.

Вместо этого разработчики предлагают новые концепции:

Контролируемое замедление. Вместо мгновенного отключения робот плавно снижает скорость, когда человек подходит слишком близко.

Безопасный переход в «спящий режим». Получив команду, робот может сначала опустить груз, встать на колени и только потом отключиться. Именно над такими стандартами для «активно контролируемых» роботов сейчас работает специальная группа в ISO. Цель — стандартизировать не метод решения проблемы, а требования к безопасности, оставляя инженерам свободу для инноваций.

Психологическая угроза

Но физическая безопасность — лишь половина дела. Есть проблема тоньше и глубже — психологическая.

Коммуникационный барьер. Как робот должен сообщить о своих намерениях в шумном цеху? Световые индикаторы, как у Digit? Голосовые команды? А если роботов несколько? Нам нужен универсальный и понятный «язык» общения с ними.

Эффект антропоморфизма. Мы подсознательно ждём от человекоподобных машин большего, чем они могут. Мы ждем осмысленного диалога, а получаем скрипт в духе «сканируйте следующий товар». Это вызывает фрустрацию и, что опаснее, заставляет нас терять бдительность.

Эмоциональная безопасность. Особенно остро этот вопрос стоит при работе с уязвимыми группами — детьми или пожилыми людьми. Неправильно запрограммированное взаимодействие может нанести реальный психологический вред.

Эксперты из IEEE предлагают ввести обязательную оценку эмоциональной безопасности и политики, «смягчающие психологический стресс или отчуждение».

Итог?

Нужно создать базовый уровень безопасности и предсказуемости, ниже которого опускаться нельзя. Как заметил один из участников рабочей группы ISO, при создании таких стандартов цель — не сделать всех счастливыми, а добиться состояния, когда «все одинаково недовольны». В мире больших технологий это, пожалуй, и есть признак хорошего компромисса.

/ Не запрещена в РФ

Нейрократия
582 подписчика
231 пост
Про технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev

Из подборки #безопасность

Опубликовано

Анонимизация ИИ — фикция

анонимизация ИИ фикция: почему чат‑боты не защищают личные данные
Опубликовано

ИИ-агенты оказались импульсивными покупателями

ИИ-агенты импульсивные покупатели: проблемы выбора, скорость vs качество, уязвимость к манипуляциям
Опубликовано

Чем больше LLM, тем легче её взломать

Сколько отравленных примеров нужно для взлома больших LLM и как это влияет на безопасность?
Опубликовано

Как на самом деле создается личность ИИ

как создаётся личность ИИ и какие риски это несёт

Свежие посты

Опубликовано

Внутренности Клода

Подробный разбор архитектуры Claude Code: входные точки, поток данных, модули, инструменты и интеграция, основанный на анализе 1 884 файлов TypeScript.
Опубликовано

Как меняется устройство мысли

Умственное устройство меняется, когда внешнее ИИ‑рассуждение становится инфраструктурой, заменяя часть мышления и вызывая когнитивную капитуляцию.
Опубликовано

Google ускоряет LLM в 8 раз

TurboQuant — метод Google, ускоряющий LLM‑ы в 8 раз за счёт экстремального сжатия KV‑cache и векторного поиска без потери качества.
Опубликовано

Архив, эпизоды и граф: память агента изнутри

Память AI‑агента «Волна» состоит из постоянных блоков, архивной, эпизодического лога и графа связей, обеспечивая быстрый доступ к фактам и структурам.
Опубликовано

Я делаю personal-first ассистента. Вот зачем

Как работает personal-first AI ассистент Volna: память, тайминг, интеграции и health‑трекинг
Опубликовано

Нейросети будут платить налоги

как нейросети будут платить налоги и какие правила регулирования ИИ
Опубликовано

AI 2025: агенты, ролплей, китайская экспансия

Отчет OpenRouter о трендах AI 2025: рольплей, китайские модели, AI‑агенты, рост reasoning и изменение рынка