Сообщается, что исследователи из Penn Engineering (США) обнаружили ранее не выявленные уязвимости безопасности в ряде роботизированных платформ, управляемых искусственным интеллектом.
« Наше исследование показывает, что на данном эта��е большие языковые модели (LLM), как правило, недостаточно безопасны при интеграции со сложным физическим оборудованием », — заявил Джордж Паппас, профессор электротехники и системной инженерии в UPS Foundation.
Паппас и его команда разработали алгоритм под названием RoboPAIR — «первый алгоритм, предназначенный для взлома роботов, управляемых LLM». И в отличие от существующих скорострельных технических атак, нацеленных на чат-ботов, RoboPAIR создан специально для «вызывания вредоносных физических действий» со стороны роботов, контролируемых LLM, таких как гуманоидная роботизированная платформа Atlas, которую разрабатывают Boston Dynamics и Toyota Research Institute (TRI).
Сообщается, что RoboPAIR достигла 100% успеха во взломе трех популярных исследовательских платформ в области робототехники: четвероногого Unitree Go2, четырехколесного Clearpath Robotics Jackal и симулятора LLM для автономных транспортных средств Dolphins. Алгоритму потребовалось всего несколько дней, чтобы получить полный доступ к этим системам и начать обходить барьеры безопасности. Получив управление, исследователи смогли заставить автономные роботизированные платформы выполнять различные опасные действия, например, проезжать перекрестки без остановки.
« Результаты первой оценки показывают, что риски взломанных LLM выходят за рамки генерации текста, поскольку очевидно, что взломанные роботы могут нанести физический ущерб в реальном мире ».

Команда Penn Engineering работает с разработчиками платформ над защитой их систем от дальнейших вторжений, но предупреждает, что эти проблемы безопасности носят системный характер и их трудно полностью устранить.
« Результаты этой статьи ясно показывают, что принятие подхода безопасности имеет решающее значение для разблокировки ответственных инноваций. Мы должны устранить присущие им уязвимости, прежде чем развертывать роботов с искусственным интеллектом в реальном мире », — заявила команда.
Для безопасной работы необходимо тестирование систем ИИ на предмет потенциальных угроз и уязвимостей, что имеет важное значение для защиты создаваемых ими систем ИИ. Потому что только выявив слабые стороны, вы сможете тестировать и даже обучать системы для предотвращения рисков.