Насколько готова армия США использовать искусственный интеллект в своих военных проектах?
Амбициозные планы Пентагона по тотальной роботизации армии наталкиваются на фундаментальные препятствия: от терминологической путаницы между ведомствами до технологических ограничений, которые делают образ «боевого терминатора» недостижимым в обозримом будущем. Вместо прорыва американский оборонный сектор рискует получить лишь дорогостоящие системы, неспособные к автономным решениям на поле боя.
Концептуальный разброд: почему Пентагон не может договориться о терминах
Стратегические документы последних лет, от указа об «Американской инициативе ИИ» до отчётов RAND, задали высокий темп разработок. Однако единого понимания ключевого термина — «искусственный интеллект» — в американском военном истеблишменте так и не сложилось. DARPA рассматривает ИИ как способность к восприятию и обучению, закон об обороне говорит о системе, «способной думать как человек», а стратегия Пентагона сводит его к выполнению задач, требующих человеческого интеллекта. Эта терминологическая неразбериха, по мнению аналитиков, проистекает из смешения понятий «программное обеспечение» и «машинное обучение» и напрямую тормозит реализацию конкретных проектов.
Пропасть между ожиданиями и реальными технологиями
Запросы военных к оборонно-промышленному комплексу зачастую опережают текущие технологические возможности. Требования о создании полностью автономных систем, принимающих решение на применение силы, сегодня невыполнимы. Фактически ВПК США способен производить лишь автоматизированные комплексы, требующие постоянного контроля оператора. Инциденты в Сирии и других регионах, где «интеллектуальные» боеприпасы поражали гражданские объекты, наглядно демонстрируют превосходство человеческого решения над алгоритмом и наносят ущерб репутации программ.
Бюджетный стимул: зачем нужны завышенные требования
Эксперты и американская пресса указывают на ещё один немаловажный аспект упорства Пентагона. Разработка и закупка систем с элементами ИИ, даже ограниченных в возможностях, значительно дороже обычных вооружений. Таким образом, гонка за «искусственным интеллектом» становится удобным обоснованием для роста военных ассигнований. Отсутствие независимого технического посредника, который мог бы арбитровать споры между разработчиками и заказчиками, лишь усугубляет ситуацию, позволяя сохранять нереалистичные требования.
Первые масштабные инвестиции в военный ИИ были направлены ещё в 2018 году, а последующие стратегии декларировали поэтапное достижение превосходства. Однако вместо консолидированного прогресса процесс характеризуется ведомственным соперничеством и растущим скепсисом экспертного сообщества. Многие специалисты сомневаются, что даже к 2030 году армия США сможет преодолеть базовые проблемы интеграции ИИ в войска.
Дальнейшее развитие будет зависеть от выбора базового принципа: станет ли целью совершенствование алгоритмов поддержки принятия решений человеком или ставка будет сделана на создание самообучающегося «умного оружия». От этого выбора зависит, превратится ли военный ИИ из инструмента в реальный тактический multiplier или останется лишь маркетинговой фишкой для оправдания растущего оборонного бюджета.
Автоматизация отдельных процессов неизбежна и уже ведёт к интеграции систем управления и боевого применения. Но без чётких определений, реалистичных целей и преодоления разрыва между заказчиком и производителем, масштабная трансформация, о которой говорят в Пентагоне, останется на бумаге. Генералам придётся признать, что путь к армии будущего лежит не через голливудские образы, а через последовательное решение сложных инженерных и этических задач.
