Лента новостей

18:21
С Русскими тот, кто мощнее всех Орешников - Новости
17:53
Путин созвонился с Эрдоганом
17:47
О ракете, которой Путин ударил по Украине
17:23
В Барнауле загорелся склад с автомобильной резиной и легковоспламеняющейся жидкостью
17:05
Министерство энергетики Украины почти в три раза увеличило импорт электроэнергии из Европы
16:16
Обезоруживающий удар: русская версия
16:14
Какой посыл для Запада нес Орешник
15:55
Ученые создали наноспагетти, которые невозможно разглядеть невооруженным глазом
15:33
Трамп отдаст Украину под протекторат России, если та разорвёт отношения с Китаем — The Guardian
15:29
Десант освободил Дарьино в Суджанском районе Курской области (КАРТА, ВИДЕО)
15:25
На Украине столкнулись с невозможностью включения отопления из-за мобилизации сотрудников
15:03
«Винтовка переднего края»: чем уникален новейший полуавтоматический карабин ZOV
14:44
Карта UnionPay «Газпромбанка» прекратила работу в некоторых странах
14:43
Трамп отдаст Украину под протекторат России, если та разорвёт отношения с Китаем - The Guardian
14:35
Медведев заявил о невозможности сбить «Орешник» современными средствами
14:27
Наполеоновские мечты: парижане повышают ставки на Украине ради лидерства в Европе
14:21
Fallout S01E08 Начало
14:13
Артиллеристы из состава группировки войск «Днепр» уничтожили миномёт ВСУ на Каховском направлении — видео
13:55
Сводка Минобороны России о ходе проведения спецоперации по состоянию на 24 ноября
13:51
Священник пояснил, можно ли женщинам в брюках заходить в храм
13:49
Жертвы необъявленной войны. Как в Европе воюют со свободой слова
13:46
На Украине оказались повреждены 80% объектов энергетики
13:07
В России отмечают День матери
13:01
Переломный момент в конфликте. Американские СМИ обсуждают удар Орешником по Украине
12:22
«Станет важнейшим плацдармом». Под Купянском группировка ВСУ попала в огневой мешок
12:01
НАТО готовится к войне: ключевые события и карта боевых действий на Украине, Донбассе и в Курской области 24 ноября 2024 года
11:33
Антиколониализм — как последнее прибежище педофилов «англосаксонского Ватикана»
11:29
Захарова ответила на подозрение в отсутствии у России «Орешника»
10:30
ВСУ за сутки обстреляли Белгородскую область 103 раза: последствия атак и меры реагирования
10:25
«Превратился в полубылинного персонажа»: историк — о военных достижениях Александра Суворова
09:43
В России работают над бесконтактной технологией оплаты на базе Bluetooth
09:33
«Уголовные мифы» о Великой Отечественной: «блатные патриоты»
05:24
Юрий Подоляка рассказал о Южно-Кураховском котле: бои за Новоивановку, Погребки и Боровское, последние новости СВО на 24.11.2024
05:01
У каждого своя пирамида майя
04:56
До Земли дошел мощнейший удар из космоса
03:12
ВСУ теряют контроль: новости СВО от 24 ноября 2024. Карта боёв на Украине сегодня, обстановка в Курской области, военная сводка, 1004-й день спецоперации России на Украине
01:24
Учёные разгадали тайну Урана, над которой бились почти 40 лет
01:16
Пусть гибнет Америка, лишь бы досадить Трампу
01:14
Россия использует грозную ракету и усиливает свой ответ на ATACMS. Пораженный объект практически перестает существовать
00:53
Десантники захватили технику ВСУ западного производства в приграничном районе Курской области
00:33
Кузькина мать выходит на мировую арену
22:20
Впереди натовского «паровоза»
21:43
Глава Samsung собрался очистить компанию от неповоротливого топ-менеджмента в сфере чипов
21:02
Госпереворот в США: Трус, Балбес и Бывалый в администрации Байдена
20:12
В Севастополе прямо под носом у полиции произошла драка
Все новости

Архив публикаций



Мировое обозрение»Геополитика»В США рождается боевой Голем

В США рождается боевой Голем


В США рождается боевой Голем

В Пентагоне создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» войдёт в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Как заявили в Минобороны США созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность». 

«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс. 

«Хотя технология генеративного искусственного интеллекта не является новой, популярность генеративного искусственного интеллекта за последние несколько месяцев резко возросла в технологическом пространстве из-за его применения в таких проектах, как ChatGPT. Эта технология обучена на огромных наборах данных и может генерировать аудио, текст, изображения и другие типы контента. Сейчас министерство обороны ищет способы использования генеративного искусственного интеллекта для сбора разведывательной информации и будущих военных действий. Но хотя эта технология может предложить новые возможности для министерства обороны, министерство также должно учитывать риски, которым технология может его подвергнуть», – отмечает военный портал Breaking Defence. 

В июне министр ВВС США Фрэнк Кендалл объявил, что попросил научно-консультативный совет ВВС изучить потенциальное воздействие технологии ChatGPT. «Я попросил свой научно-консультативный совет сделать с ИИ две вещи. Взглянуть на генеративные технологии искусственного интеллекта, такие как ChatGPT, и подумать об их военном применении, и собрать небольшую команду, чтобы сделать это довольно быстро», – сказал Кендалл.

Генеративный ИИ относится к категории алгоритмов ИИ, генерирующих новые результаты на основе данных, на которых они были обучены, чем они и отличаются от гораздо более простых алгоритмов машинного обучения, которые просто берут структурированные данные и выдают наиболее вероятный статистический результат. Публичные инструменты генеративного ИИ включают в себя так называемые большие языковые модели типа ChatGPT, которые могут сгенерировать новый текст, практически неотличимый от написанного человеком. Эти модели уже используются для написания эссе, бизнес-планов и даже научных статей. 

«Но эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют»,отмечает известный военный обозреватель Патрик Такер. 

Объяснять, чем чреваты галлюцинации ИИ в случае его применения в военных целях, нет необходимости. 

Один из пионеров этого направления Джеффри Хинтон в мае этого года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с генеративным искусственным интеллектом.

«В 2012 году доктор Хинтон и двое его аспирантов из университета Торонто создали технологию, которая стала интеллектуальной основой для создания искусственного интеллекта – системы, которую крупнейшие компании технологической отрасли считают ключом к их будущему. Однако… он официально присоединился к растущему хору критиков, которые говорят, что эти компании приближаются к опасной черте со своей агрессивной кампанией по созданию продуктов, основанных на генеративном искусственном интеллекте, технологии, которая лежит в основе популярных чат-ботов, таких как ChatGPT»,сообщила The New York Times.

«Трудно понять, как вы можете помешать плохим парням использовать его [генеративный ИИ] для плохих целей», – указывает Хинтон, подчёркивая, что генеративный ИИ может способствовать распространению дезинформации, сокращению рабочих мест и даже представлять угрозу человечеству в долгосрочной перспективе.

Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».

Хинтон особо беспокоится о разработках автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении, и о том, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией. 

Джеффри Хинтон рассказал, что когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это». 

«Он больше так не думает», – отметила The New York Times.

Между тем в США делают ставку на генеративный ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».

«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», пишет колумнист Foreign Policy Майкл Хёрш. 

«Программное обеспечение, управляемое искусственным интеллектом, может заставить крупные державы сократить окно принятия решений до минут, а не часов или дней. Они могут слишком сильно зависеть от стратегических и тактических оценок ИИ, даже когда дело доходит до ядерной войны. Опасность, по словам Герберта Лина из Стэнфордского университета, заключается в том, что лица, принимающие решения, могут постепенно полагаться на новый ИИ как на часть командования и контроля над вооружением, поскольку он действует на гораздо более высоких скоростях, чем люди».

Учитывая склонность ИИ к преувеличениям [то есть к упомянутым выше галлюцинациям], когда люди начинают верить, что машины думают, они с большей вероятностью будут делать сумасшедшие вещи», – отмечает Герберт Лин.

В недавно опубликованной книге «ИИ и бомба» (AI and the Bomb: Nuclear Strategy and Risk in the Digital Age) аналитик Абердинского университета Джеймс Джонсон описывает случайно возникшую ядерную войну в Восточно-Китайском море в 2025 году, спровоцированную ИИ-разведкой как с американской, так и с китайской стороны, с усилиями автономных ботов, поддержкой ИИ, дипфейками и операциями под ложным флагом».

В отчёте, опубликованном в начале февраля 2023 года американской Ассоциацией по контролю над вооружениями, говорится, что искусственный интеллект может привести к «стиранию различия между обычным и ядерным нападением». В докладе также говорится, что борьба за «использование новых технологий в военных целях ускорилась гораздо быстрее, чем попытки оценить опасности, которые они представляют, и установить ограничения на их использование». 

«В январе этого года министерство обороны обновило свою директиву по системам вооружения, в которых используется искусственный интеллект, заявив, что при разработке и развертывании автономных систем вооружения необходимо использовать хотя бы некоторую человеческую оценку», – отмечает Майкл Хёрш, добавляя, что, «возможно, они идут по скользкой дорожке».

Выдающийся российский ученый профессор МГУ им. М.В. Ломоносова Сергей Павлович Расторгуев в написанной в 1965 году монографии «Цель как криптограмма. Криптоанализ синтетических целей» указал: «На сегодняшний день для мира компьютерных программ обретение самостоятельности стало свершившимся фактом». По мере усложнения программного продукта «системное программное обеспечение начинает жить своей жизнью, находя цель в себе самом», – отмечает российский ученый, сравнивая обретающие самостоятельность компьютерные комплексы со средневековым Големом, который, как известно, убил своего создателя.

То, что Расторгуев называл самостоятельностью компьютерных программ, современные американские аналитики применительно к генеративному ИИ, называют «галлюцинациями», что, впрочем, мало утешает. И спустя почти три десятка лет очевидно, что генеративный ИИ, особенно применённый в военных целях, настолько сложен, что его гипотетическая самостоятельность пугает даже его наиболее совестливых разработчиков, таких как Джеффри Хинтон.

Тем не менее Пентагон идёт по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий компьютерный Голем.



Опубликовано: Мировое обозрение     Источник

Читайте нас:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх