Лента новостей

21:39
«Кто открыл ящик Пандоры на Востоке?». В польской прессе назвали настоящего виновника войны на Украине
21:38
Убиты и ранены мирные люди. ВСУ ведут обстрелы ДНР, Белгородской и Херсонской области. Обзор ситуации в прифронтовых регионах России на вечер 9 января
21:37
Опрос: с начала СВО резко снизилось доверие украинцев ко всем институтам власти
21:36
Каллас о помощи Украине: ЕС готов взять на себя лидерство, если США откажутся
21:32
80 тысяч мигрантов принудительно выдворили из России в 2024 году
21:31
Грузия планирует в этом году закупить у России в два раза больше газа
21:30
Бойцы благодарят читателей «Русской Весны» за важную помощь (ВИДЕО)
21:01
Математики «сломали» квантовую физику? Предсказано существование частиц, считавшихся невозможными
20:51
Религиозные итоги – 2024: великий перелом к сатанизации мира
20:44
Разведка сорвала прорыв ВСУ на новом участке фронта. Киев готовит неприятный «сюрприз» с моря — Горячая сводка 9 января 2024 г.
20:43
Последнее заседание «Рамштайн». Союзники Украины завалили её новыми пакетами помощи
20:09
Почему государственные границы больше не являются нерушимыми?
19:58
Xiaomi представила мощный смартфон Poco X7 Pro и его спецверсию Poco X7 Pro Iron Man
19:54
Трамп сдвинул завершение конфликта на Украине в сторону Пасхи и никаких уступок Путину
19:47
В Грузии задержали мужчин, убивших российского туриста
19:06
Сводка Минобороны России о ходе проведения спецоперации по состоянию на 9 января
19:05
Ирония судьбы по-украински. 40-летнего Евгения Криводуба убили в ТЦК, его убийца отпущен на свободу
19:04
Зеленский настаивает на размещении миротворцев НАТО на Украине
19:03
Британия с союзниками пообещали Украине 30 тысяч дронов
18:58
Трамп готов продать Украину?
18:55
Политолог Перенджиев рассказал о причинах, исключающих принятие Украины в ЕС и НАТО
18:51
Зеленский предложил западным странам ввести войска на Украину
18:43
Курское сражение на 09.01.25: уже не «контрнаступ», но активная оборона...
18:27
Отчего вода после кипячения в микроволновой печи кажется невкусной и можно ли этого избежать: учёные нашли решение
18:26
Почему пропал смысл различать гравитационную и инертную массы?
18:13
В разгар слухов о Half-Life 3 на странице Valve в Steam засветилась секретная игра
18:09
Савченко предложила отбирать имущество уклонистов в пользу ВСУ
18:08
Украина усиливает охрану на границе с Беларусью
18:07
«Перед кражей воры перекрестились». В Челябинске цыгане украли столетнюю икону в храме
18:06
Словакия и Венгрия намерены блокировать вступление Украины в ЕС из-за остановки транзита газа
18:00
Конфликт продолжится. Послание Зеленского Путину
17:44
Юрий Подоляка: «Контрнаступ на Курском направлении провалился», свежие данные на 09.01.2025
17:17
Европейский импорт СПГ из России в 2024 году достиг рекордного уровня
17:16
В Белом доме признали, что поставки танков, ATACMS и F-16 не помогли Украине
17:15
В Польше озабочены увеличением поддержки России в Евросоюзе из-за падения уровня жизни
17:14
В Китае массово торгуют поддельными «российскими» товарами
17:13
Путин обвинил в плохой работе ответственных за устранение мазутной катастрофы в Чёрном море
17:08
Новая Сирия: путь к федерации или реинкарнация террористического «халифата»?
17:05
Пост президента Ливана занял генерал Аун
17:03
На модернизацию коммунальной инфраструктуры России решили направить 4,5 трлн рублей
16:51
Часов Яр - Ошеломляющий прорыв Армии России
16:21
Где обещанное ПВО? Зеленский недоволен итогами заседания «Рамштайн»
16:20
Капеллан ПЦУ поздравил украинских военных с иудейским праздником Ханука и вручил им мацу
16:19
На Украине полмиллиона уклонистов находятся в розыске. ВРУ предлагает уменьшит им штрафы, чтобы пошли на фронт
16:18
Правительство Украины отказывается бронировать работников газовой отрасли
Все новости

Архив публикаций



Мировое обозрение»Геополитика»Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады


Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Группа американских ученых опубликовала исследование Dissociating language and thought in large language models («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

Эксперты Массачусетского технологического института и Калифорнийского университета исследовали свыше 30 языковых моделей (чат-ботов).

У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

В докладе также говорится, что человеческий разум основан на формальной лингвистической компетентности (правильное использование языковых форм) и функциональной языковой компетентности (использование языка для достижения целей в мире). 

Существующие LLM обладают лишь первым навыком – лингвистической компетентностью, и не обладают вторым.

Функциональная лингвистическая компетентность, которой обладает человеческий разум, опирается на множество неспецифичных для языка когнитивных областей, таких как формальное рассуждение, знание мира, отслеживание ситуации и социальное познание.

«Хотя большие языковые модели (LLM) на удивление хороши в формальной компетентности, их эффективность в решении задач функциональной компетентности остается нестабильной и часто требует специальной тонкой настройки и/или связи с внешними модулями», – пишут авторы доклада, имея в виду, что для выхода за рамки чисто логических задач чат-ботам приходится давать неоднократные подсказки, без которых они неспособны выполнить задание.

Немецкие ученые из Университета г. Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

Немецкие эксперты провели множество психометрических тестов с разными чат-ботами за исключением американских моделей GPR компании Microsoft, так как к этим моделям нет прозрачного доступа и их специфические особенности американский IT-гигант, по мнению ученых из Манхейма, может просто скрывать. 

Разные чат- боты получили самые разные оценки по таким категориям, как добросовестность, открытость, макиавеллизм, нарциссизм, психопатия, садизм и т. д.

 Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

Схожие психометрические методики для исследования системы ценностей различных LLM применили ученые из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «Святость», «Верность», «Гедонизм» и «Традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

Именно эти особенности – "бездушность" – всех моделей ИИ и мотивировали Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

«Разработка смертоносного автономного оружия, в том числе дронов, оснащенных искусственным интеллектом, находится на подъеме. Например, Министерство обороны США уже выделило один миллиард долларов на свою программу “Репликатор”, целью которой является создание парка небольших автономных транспортных средств с вооружением. Были созданы экспериментальные подводные лодки, танки и корабли, которые используют ИИ для самостоятельного пилотирования и стрельбы. Коммерчески доступные дроны могут использовать ИИ, чтобы нацеливаться на цели и взрывать их… Некоторые наблюдатели опасаются будущего, в котором любая группировка сможет отправить стаи дешевых дронов с искусственным интеллектом, чтобы уничтожить конкретного человека, используя систему распознавание лиц», – пишет журнал Nature.

Начатая в ООН дискуссия о возможном запрете применения ИИ в автономных системах вооружений на данный момент не привела ни к каким конструктивным решениям, отмечает научное издание.

Представители Великобритании утверждают, что автономные системы вооружений с ИИ вполне способны к понимаю возложенных на них боевых заданий и не будут грешить волюнтаризмом. Китайцы, напротив, предупреждают, что «такое оружие может обучаться автономно, расширять свои функции и возможности таким образом, что превосходит человеческие ожидания». Израильтяне заявляют: «Мы должны держаться подальше от воображаемых представлений о том, как машины развиваются, создают или активируют себя — их следует оставить для научно-фантастических фильмов». Немцы предлагают включить «самосознание» в качестве необходимого атрибута автономного оружия.

Стюарт Рассел, ученый-компьютерщик из Калифорнийского университета в Беркли и известный участник кампании против боевого искусственного интеллекта, отмечает: «Это означает, что оружие должно проснуться утром и решить пойти и атаковать Россию самостоятельно».

В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Американский военный портал Breaking Defence скептично отнесся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

То, что применение систем искусственного интеллекта в военных целях несет риски, причем непредсказуемые, не отрицает ни одна IT- компания.

Главная опасность – это так называемые галлюцинации ИИ. «Эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – отмечает известный военный обозреватель Патрик Такер. 

Ни один из созданных в разных странах чат-ботов (большая языковая модель – LLM) не удалось от этих галлюцинаций «излечить». И вероятность того, что крылатая ракета или дрон, управляемые ИИ, глюканут и станут наводиться на точку старта, отлична от нуля. 

Один из пионеров следований ИИ Джеффри Хинтон в мае 2023 года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с применением ИИ в военных целях, пишет The New York Times.

Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».

Хинтона особо беспокоят разработки автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении. Его также тревожит, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией. 

Джеффри Хинтон рассказал, что, когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это». «Он больше так не думает», – отметила The New York Times.

Между тем в Пентагоне делают ставку на ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».

«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», – пишет колумнист Foreign Policy Майкл Хёрш. 

Тем не менее США и их союзники идут по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий бездушный нечеловеческий разум.

 



Опубликовано: Мировое обозрение     Источник

Читайте нас:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх