Лента новостей

13:36
Прорыв обороны Украины: Подоляка рассказал о штурме Торецка и Южно-Кураховском успехе! Последние новости от Юрия Подоляки на сегодня, 23.11.2024, свежая сводка из зоны СВО
13:30
Экипажи штурмовиков Су-25 нанесли удары по позициям ВСУ в курском приграничье — видео
13:06
Коготок увяз – всей птичке пропасть, или Киев вцепился в Сеул мертвой хваткой
12:52
Европа в шоке от Орешника, но они еще Новатор не видели - Новости
12:38
Для освобождения Херсона необходимо полное господство ВКС РФ в воздухе
12:24
Оппозиция Абхазии призвала протестировать в республике единую валюту России и Белоруссии
12:23
Российские войска бьются за Часов Яр в ДНР. Треть города освобождена от украинских оккупантов
12:07
Специальная военная операция ВС РФ и события на Украине 23 ноября, день
12:00
Сводки с фронта: ключевые события и карта боевых действий на Украине, Донбассе и в Курской области 23 ноября 2024 года
11:55
«Возросшее мастерство Советской армии»: Минобороны РФ опубликовало документы о Моонзундской операции
11:11
«Ростех» налаживает массовый выпуск кварцевых генераторов
11:01
Мир в тени «Орешника» – настал ли момент истины?
10:48
Меркель призвала не проводить переговоры о мире без Украины
10:46
России требуется скорейший мир, так как солдаты заканчиваются и у нее
10:25
Российская армия отражает атаки ВСУ в Курской области: детали утренних событий 23 ноября
10:19
«Практически организовано»: Путин заявил о принятии решения по серийному производству ракетных систем «Орешник»
10:14
Медики из США поделились «детективной историей» о синдроме Рапунцель
10:04
Германия должна выплатить России все до копейки
09:47
СВО. Донбасс. Оперативная лента за 23.11.2024
09:35
Последние новости с фронтов СВО от Юрия Подоляки на утро, 23.11.2024: активное наступление российских войск
09:17
Введение нравственного контроля культуры поможет укреплению России
08:19
Путин не исключает вероятность нанесения ударов по странам, поставляющим Киеву вооружения для атак вглубь российской территории
08:06
Путин сделал предупреждение от которого не скрыться - Новости
06:19
«Бахнем! Обязательно бахнем, и не раз. Весь мир в труху. Но потом...»
05:34
О дистанциях решительного боя для отечественных двенадцатидюймовок времен русско-японской войны
05:24
Бои батальона Момыш улы в районе станции Матренино 17 и 18 ноября 1941 г.
04:16
Прорывы на фронтах: новости СВО от 23 ноября 2024. Карта боёв на Украине сегодня, обстановка в Курской области, военная сводка, 1003-й день спецоперации России на Украине
03:01
Запад готовит силовой сценарий для Белоруссии?
02:45
Применение Орешника, удары западным оружием, ядерная доктрина
01:38
Блогер показал, как пройти Baldur’s Gate 3, не делая в бою абсолютно ничего
01:32
Американской верхушке плевать на американцев
00:02
Нехитрая загадка образа Зеленского
23:37
«Сдержать агрессию Запада»: что известно о новейшей российской ракете средней дальности «Орешник»
23:36
Орбан призвал страны Запада отнестись серьёзно к запуску «Орешника»
23:12
Генетики Пентагона нацелились на создание суперсолдат для биологической войны
22:31
Путин предупредил о продолжении боевых испытаний «Орешника»
21:53
Правого экс-президента Бразилии обвиняют в подготовке госпереворота
21:45
Страны Евросоюза готовят население к войне с Россией
21:02
«Уэбб» открыл в ранней Вселенной три огромные галактики — учёные не понимают, почему они так быстро сформировались
20:58
В Думе хотят оставить только вахтовую и целевую миграцию
20:57
В Санкт-Петербурге мошенника из МЧС не отпускают на СВО
20:56
ВСУ ведут обстрелы ДНР, Белгородской и Херсонской области. Обзор ситуации в прифронтовых регионах России на вечер 22 ноября
20:55
В российских городах отменяют выступления комика Гурама Демидова, который высмеял Иисуса Христа
20:45
Путин объявил о серийном производстве ракет «Орешник»
20:34
Выступление Путина на совещании с руководством Минобороны
Все новости

Архив публикаций



Мировое обозрение»Геополитика»Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады


Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Группа американских ученых опубликовала исследование Dissociating language and thought in large language models («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

Эксперты Массачусетского технологического института и Калифорнийского университета исследовали свыше 30 языковых моделей (чат-ботов).

У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

В докладе также говорится, что человеческий разум основан на формальной лингвистической компетентности (правильное использование языковых форм) и функциональной языковой компетентности (использование языка для достижения целей в мире). 

Существующие LLM обладают лишь первым навыком – лингвистической компетентностью, и не обладают вторым.

Функциональная лингвистическая компетентность, которой обладает человеческий разум, опирается на множество неспецифичных для языка когнитивных областей, таких как формальное рассуждение, знание мира, отслеживание ситуации и социальное познание.

«Хотя большие языковые модели (LLM) на удивление хороши в формальной компетентности, их эффективность в решении задач функциональной компетентности остается нестабильной и часто требует специальной тонкой настройки и/или связи с внешними модулями», – пишут авторы доклада, имея в виду, что для выхода за рамки чисто логических задач чат-ботам приходится давать неоднократные подсказки, без которых они неспособны выполнить задание.

Немецкие ученые из Университета г. Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

Немецкие эксперты провели множество психометрических тестов с разными чат-ботами за исключением американских моделей GPR компании Microsoft, так как к этим моделям нет прозрачного доступа и их специфические особенности американский IT-гигант, по мнению ученых из Манхейма, может просто скрывать. 

Разные чат- боты получили самые разные оценки по таким категориям, как добросовестность, открытость, макиавеллизм, нарциссизм, психопатия, садизм и т. д.

 Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

Схожие психометрические методики для исследования системы ценностей различных LLM применили ученые из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «Святость», «Верность», «Гедонизм» и «Традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

Именно эти особенности – "бездушность" – всех моделей ИИ и мотивировали Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

«Разработка смертоносного автономного оружия, в том числе дронов, оснащенных искусственным интеллектом, находится на подъеме. Например, Министерство обороны США уже выделило один миллиард долларов на свою программу “Репликатор”, целью которой является создание парка небольших автономных транспортных средств с вооружением. Были созданы экспериментальные подводные лодки, танки и корабли, которые используют ИИ для самостоятельного пилотирования и стрельбы. Коммерчески доступные дроны могут использовать ИИ, чтобы нацеливаться на цели и взрывать их… Некоторые наблюдатели опасаются будущего, в котором любая группировка сможет отправить стаи дешевых дронов с искусственным интеллектом, чтобы уничтожить конкретного человека, используя систему распознавание лиц», – пишет журнал Nature.

Начатая в ООН дискуссия о возможном запрете применения ИИ в автономных системах вооружений на данный момент не привела ни к каким конструктивным решениям, отмечает научное издание.

Представители Великобритании утверждают, что автономные системы вооружений с ИИ вполне способны к понимаю возложенных на них боевых заданий и не будут грешить волюнтаризмом. Китайцы, напротив, предупреждают, что «такое оружие может обучаться автономно, расширять свои функции и возможности таким образом, что превосходит человеческие ожидания». Израильтяне заявляют: «Мы должны держаться подальше от воображаемых представлений о том, как машины развиваются, создают или активируют себя — их следует оставить для научно-фантастических фильмов». Немцы предлагают включить «самосознание» в качестве необходимого атрибута автономного оружия.

Стюарт Рассел, ученый-компьютерщик из Калифорнийского университета в Беркли и известный участник кампании против боевого искусственного интеллекта, отмечает: «Это означает, что оружие должно проснуться утром и решить пойти и атаковать Россию самостоятельно».

В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Американский военный портал Breaking Defence скептично отнесся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

То, что применение систем искусственного интеллекта в военных целях несет риски, причем непредсказуемые, не отрицает ни одна IT- компания.

Главная опасность – это так называемые галлюцинации ИИ. «Эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – отмечает известный военный обозреватель Патрик Такер. 

Ни один из созданных в разных странах чат-ботов (большая языковая модель – LLM) не удалось от этих галлюцинаций «излечить». И вероятность того, что крылатая ракета или дрон, управляемые ИИ, глюканут и станут наводиться на точку старта, отлична от нуля. 

Один из пионеров следований ИИ Джеффри Хинтон в мае 2023 года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с применением ИИ в военных целях, пишет The New York Times.

Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».

Хинтона особо беспокоят разработки автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении. Его также тревожит, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией. 

Джеффри Хинтон рассказал, что, когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это». «Он больше так не думает», – отметила The New York Times.

Между тем в Пентагоне делают ставку на ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».

«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», – пишет колумнист Foreign Policy Майкл Хёрш. 

Тем не менее США и их союзники идут по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий бездушный нечеловеческий разум.

 



Опубликовано: Мировое обозрение     Источник

Читайте нас:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх