Американские оборонные концепции уделяют большое внимание развитию роботов в авиации, в сухопутных вооружениях, на флоте. Однако насколько планы Пентагона по масштабному внедрению искусственного интеллекта в практику военного строительства соответствуют реальности? 11 февраля 2019 года Дональдом Трампом был подписан указ American AI initiative («Американская инициатива в области искусственного интеллекта. Тогда же исследовательская корпорация RAND опубликовала отчёт The Department of Defense. Posture for Artificial Intelligence. Assessment and Recommendations («Министерство обороны США. Состояние доктрины ИИ. Оценка и рекомендации»), заказанный Объединённым центром искусственного интеллекта (Joint center for artificial intelligence, JAIC) в соответствии с положениями законопроекта по оборонной политике 2019 года. В 2018 году направлялись 2 миллиарда долларов на разработку систем искусственного интеллекта для армии. Исследования намеревались вести по четырем направлениям: надёжный ИИ, состязательный ИИ, высокопроизводительный ИИ и ИИ следующего поколения. В январе 2019 года Разведывательное сообщество США опубликовало инициативную стратегию Augmenting Intelligence using Machines («Увеличение интеллекта с помощью машин»), в которой определило четыре цели для военно-научного сообщества на ближайшую, кратчайшую, среднесрочную и долгосрочную перспективы. Теоретически такие исследования и стратегии должны были демонстрировать всему миру серьезность намерений американского оборонного ведомства улучшить боеспособность вооруженных сил. Но на практике вскоре проявились противоречия интересов между разными ведомствами и службами. Основные проблемы вытекали из понимания ими самого определения искусственного интеллекта. Специалисты DARPA считали ИИ «запрограммированной способностью обработки информации, демонстрирующую уровни прогресса по четырём направлениям - восприятию, обучению, абстракции и рассуждениям». Закон об обороне США определял ИИ как «любую искусственную систему, способную выполнять задачи, способную думать и действовать как человек». Фактически это «программный агент или встроенный робот, который достигает целей, используя восприятие, планирование, рассуждение, обучение, общение, в принятии решений и последующих действий». Стратегия Пентагона трактовала ИИ так: «Он относится к способности машин выполнять задачи, которые обычно требуют человеческого интеллекта - например, распознавание закономерностей, обучение на опыте, умение делать выводы и прогнозы или предпринимать действия». Неувязки в определении понятий со стороны ведомств появились, как полагают военные эксперты, из-за путаницы терминов «программное обеспечение» и «машинное обучение». RAND ставил границу применения ИИ в достижении превосходства армии США - боевых терминаторов. Но такого роботизированного монстра Пентагону не получить и к 2050 году. ВПК США может изготовить только автоматизированные системы, которые будут контролироваться оператором-военнослужащим. Между тем представители Пентагона требуют от ВПК явно завышенных результатов, которые не могу обеспечить имеющиеся пока технологии. Поучается, что в Пентагоне руководствуются представлениями из голливудских фильмов и не представляют себе реальной картины дел в производстве и в военной науке. Пентагон хочет добиться ситуации, когда решение на боевое применение будет исходить от робота. То есть ракета должна сама решать — уничтожать ей объект или нет. В результате в ходе боев в горячих точках (Сирия, Афганистан, Африка) ракеты нередко поражали гражданские объекты. Человеческий интеллект брал верх над электронным мозгом ракеты. Такие случаи били прежде всего по репутации самого Пентагона. Но почему генералы Пентагона так упорно отстаивают свои подходы. пресса США дает такой ответ, который кажется вполне правдоподобным. Оказывается, ракеты с искусственным интеллектом обходятся военному бюджету Америки гораздо дороже, чем менее совершенные боеприпасы. А такое обстоятельство на руку руководству оборонного ведомства США. Между разработчиками и заказчиками орудия, наделенного искусственным интеллектом, признают эксперты, в США нет посредника, который может грамотно и оперативно разрешать противоречия. Когда такая структура появится неясно. Военные эксперты в США отмечают, что к 2030 году армия СШа вряд ли сумеет решить проблемы, связанные с внедрением искусственного интеллекта в войска. Как бы того ни хотелось генералам и адмиралам. Безусловно, происходящая автоматизация существующих процессов постепенно приведет к сращиванию командных систем управления с системами боевого применения тактического звена в единое целое. Но для этого руководство Пентагона должна понять главное: какой принцип искусственного интеллекта окажется для них доминирующим: совершенствование алгоритмов боевого управления и принятия решений или самообучающиеся системы «умного оружия». Иначе на деле искусственный интеллект в армии США будет только удобной фишкой, которая помогает оправдывать рост военных инвестиций. А их Пентагон требует от государства все больше и больше.