ИИ очень легко обмануть: боевого робота из США смогли перехитрить, надев на солдата коробку
Попытки армии США создать боевых роботов, способных самостоятельно распознавать цели, наталкиваются на неожиданное препятствие — человеческую изобретательность. Как выяснилось в ходе полевых испытаний, системы искусственного интеллекта легко обмануть элементарными методами камуфляжа и нестандартным поведением, что ставит под сомнение их готовность к реальным боевым действиям.
Испытания на прочность: как морпехи переиграли алгоритмы DARPA
В основу критического анализа легли данные из готовящейся к публикации книги бывшего аналитика Пентагона Пола Шарре, посвящённой гонке вооружений в сфере искусственного интеллекта. Автор приводит ряд инцидентов, демонстрирующих уязвимость автономных систем. Наиболее показательным стал эксперимент, в ходе которого боевой робот, разработанный при поддержке Управления перспективных исследовательских проектов Министерства обороны США (DARPA), должен был обнаруживать приближающихся солдат.
После недели обучения, в котором алгоритм наблюдал за стандартными перемещениями персонала, была устроена проверка. Задачей восьми морских пехотинцев было незаметно подобраться к машине и коснуться её. Робот, оснащённый системой компьютерного зрения, не смог идентифицировать ни одного из них.
Творческий подход против машинной логики
Солдаты использовали тактики, выходящие за рамки тренировочных данных алгоритма. Двое выполнили кувырок, движение, которое система ранее не анализировала. Ещё один боец, по описанию участников, имитировал дерево, чтобы сбить с толку датчики. Но самым простым и эффективным способом оказалось использование картонных коробок, в которые спрятались двое морпехов — приём, отсылающий к известной видеоигре о скрытности.
Этот случай наглядно иллюстрирует фундаментальную проблему современных систем машинного обучения: их эффективность жёстко ограничена качеством и разнообразием данных, на которых они обучались. Алгоритм не способен к абстрактным рассуждениям или адаптации к принципиально новым, пусть и примитивным, сценариям.
Ограничения машинного интеллекта в условиях реального мира
Как отмечает Пол Шарре, применение термина «искусственный интеллект» к подобным системам является значительным преувеличением. Эти платформы не обладают интеллектом в человеческом понимании, а лишь сложным образом сопоставляют шаблоны. Их полезность напрямую зависит от полноты и релевантности загруженной в них информации. В динамичной и непредсказуемой боевой обстановке, где противник намеренно действует нестандартно, это становится критическим недостатком.
Разработка автономного оружия долгое время рассматривалась как путь к снижению рисков для личного состава. Однако инциденты, подобные описанному, показывают, что переход от полигонных тестов к реальному развёртыванию сопряжён с серьёзными трудностями. Уязвимость к простейшим методам противодействия означает, что такие системы могут быть не только неэффективными, но и создавать ложное чувство безопасности, что потенциально опасно.
Полевые испытания систем искусственного интеллекта в военной сфере имеют долгую историю, полную как прорывов, так и разочарований. DARPA десятилетиями финансирует проекты по созданию автономной техники — от беспилотных автомобилей до роботов-носильщиков. Однако задача наделить машину способностью к самостоятельному ситуационному анализу в хаотичной среде до сих пор не решена. Успех морпехов с картонными коробками — не курьёзный случай, а симптом более глубокой проблемы: чрезмерной специализации ИИ, который оказывается беспомощным за пределами строго заданных параметров.
Это напрямую влияет на стратегию внедрения автономных систем. Вместо полной замены человека речь, вероятно, будет идти о создании гибридных систем, где окончательное решение остаётся за оператором. Кроме того, инцидент стимулирует разработку более сложных алгоритмов, способных распознавать не объекты, а аномалии и подозрительное поведение в целом. Однако это, в свою очередь, повышает риск ложных срабатываний. Таким образом, главным выводом становится необходимость пересмотра ожиданий: в обозримом будущем искусственный интеллект вряд ли станет самостоятельным «игроком» на поле боя, оставаясь инструментом, требующим постоянного контроля и глубокого понимания его ограничений.
