- Опубликовано
Новые законы для роботов
- Автор
- Имя
- Нейрократия
- Telegram
- Нейрократия582 подписчика231 постПро технологическое будущее без шума. Автор — @vlad_arbatov. https://arbatov.dev
Новые законы для роботов
И почему старые методы здесь не сработают
Недавно я писал про кринжовых роботов, которые пытаются быть похожими на нас, а сегодня у нас на повестке — другие андроиды, вполне способные нанести физический вред людям, и как вышло, что протоколов безопасности для них до сих пор нет.
И это не просто забавный фейл. Представьте, что такая 1,8-метровая и 65-килограммовая машина падает на вас. Или её манипулятор случайно бьёт вас по горлу — как метко подмечает технический директор Agility Robotics, даже малой части усилия, нужного для переноски 20-килограммового ящика, хватит для серьезной травмы.
Проблема в том, что для гуманоидов не подходят существующие стандарты безопасности. И сейчас целая группа экспертов в IEEE и ISO лихорадочно пытается разработать новые, пока эти роботы не вышли из-за ограждений в наши офисы и дома.
Красная кнопка не спасёт
Главная проблема, о которой не задумывается обыватель — динамическая стабильность. В отличие от традиционных промышленных роботов, гуманоиды тратят энергию, чтобы просто стоять на ногах.
Что это значит на практике? Нажать на «большую красную кнопку», чтобы обесточить робота в аварийной ситуации — худшее, что можно сделать. Он не остановится, а просто упадёт, создавая ещё большую угрозу.
Вместо этого разработчики предлагают новые концепции:
Контролируемое замедление. Вместо мгновенного отключения робот плавно снижает скорость, когда человек подходит слишком близко.
Безопасный переход в «спящий режим». Получив команду, робот может сначала опустить груз, встать на колени и только потом отключиться.
Именно над такими стандартами для «активно контролируемых» роботов сейчас работает специальная группа в ISO. Цель — стандартизировать не метод решения проблемы, а требования к безопасности, оставляя инженерам свободу для инноваций.
Психологическая угроза
Но физическая безопасность — лишь половина дела. Есть проблема тоньше и глубже — психологическая.
Коммуникационный барьер. Как робот должен сообщить о своих намерениях в шумном цеху? Световые индикаторы, как у Digit? Голосовые команды? А если роботов несколько? Нам нужен универсальный и понятный «язык» общения с ними.
Эффект антропоморфизма. Мы подсознательно ждём от человекоподобных машин большего, чем они могут. Мы ждем осмысленного диалога, а получаем скрипт в духе «сканируйте следующий товар». Это вызывает фрустрацию и, что опаснее, заставляет нас терять бдительность.
Эмоциональная безопасность. Особенно остро этот вопрос стоит при работе с уязвимыми группами — детьми или пожилыми людьми. Неправильно запрограммированное взаимодействие может нанести реальный психологический вред.
Эксперты из IEEE предлагают ввести обязательную оценку эмоциональной безопасности и политики, «смягчающие психологический стресс или отчуждение».
Итог?
Нужно создать базовый уровень безопасности и предсказуемости, ниже которого опускаться нельзя. Как заметил один из участников рабочей группы ISO, при создании таких стандартов цель — не сделать всех счастливыми, а добиться состояния, когда «все одинаково недовольны». В мире больших технологий это, пожалуй, и есть признак хорошего компромисса.
Предыдущий пост
- Опубликовано
Нейронки заменяют людей на работе ↑
Следующий пост
- Опубликовано
Прогноз обновлён. Нейросетью
Закрепленные
Из подборки #безопасность
- Опубликовано
Анонимизация ИИ — фикция
- Опубликовано
ИИ-агенты оказались импульсивными покупателями
- Опубликовано
Чем больше LLM, тем легче её взломать
- Опубликовано
OpenAI пытается отучить модели врать
- Опубликовано
Как на самом деле создается личность ИИ
- Опубликовано
Как распознать ИИ‑текст: чек‑лист Wikipedia
Свежие посты
- Опубликовано
Внутренности Клода
- Опубликовано
Как меняется устройство мысли
- Опубликовано
Google ускоряет LLM в 8 раз
- Опубликовано
Архив, эпизоды и граф: память агента изнутри
- Опубликовано
Я делаю personal-first ассистента. Вот зачем
- Опубликовано
ИИ победил
- Опубликовано
Нейросети будут платить налоги
- Опубликовано

















