Лента новостей

15:04
Российские войска сжимают "клещи" вокруг Селидово на Покровском направлении
14:55
«Болезнь моряков XVIII века» обнаружили в современном мире
14:40
Дженсен Хуанг заработал столько, что может в одиночку купить всю Intel целиком
14:36
Тимуру Иванову предъявили новое обвинение. Следствие подозревает бывшего заместителя Шойгу в обогащении на паромах для Крыма
14:35
Российские бойцы выбили украинских оккупантов из Гродовки в ДНР
14:34
В Киеве «Гончаренко-центр» отметил День учителя сожжением портретов классиков русской литературы
14:27
Энтони Блинкен заблуждается насчет внешней политики Байдена
14:09
Российские войска сжимают "клещи" вокруг Селидово на Покровском направлении
13:43
Проукраинские хакеры взломали ресурсы ВГТРК
13:42
В Кремле призвали не считать отзыв посла Антонова понижением уровня дипотношений с США
13:41
Боррель признал, что без поддержки Запада конфликт на Украине закончится через 2 недели
13:18
В Румынии заложили многоцелевое вспомогательное судно для ВМС Португалии
13:12
Российские войска сжимают "клещи" вокруг Селидово на Покровском направлении
13:03
Нобелевскую премию — 2024 по физиологии или медицине присудили ученым из США
12:51
Угледар: очередная укропотеря объявлена неважной
12:44
Минобороны РФ предупредило о готовящейся Украиной провокации с химоружием, в которой обвинят Россию
11:59
Китайцы погибли при теракте в Пакистане
11:51
Зять убитой Фарион Василий Особа отправился в преисподнюю к теще-националистке
11:50
Власти Староконстантинова предупредили жителей об угрозе детонации боеприпасов
11:21
«Идти разными путями»: историк — о провозглашении и социально-экономических достижениях ГДР
11:19
Групповой удар: как развивается программа по созданию дронов-камикадзе «Куб»
11:14
Если магнитные поля вокруг звезд невидимы, то как ученые их изучают?
11:10
Тупик или приоритет: нужны ли российской армии дозвуковые БПЛА «Охотник»?
10:56
Владимир Путин отмечает 72-летие. В итальянских городах расклеены поздравления российскому лидеру
10:55
Польские наемники расстреляли безоружных людей на глазах жителей Суджи
10:54
Вопрос к Украине, а не к нам. Израиль о переданной Киеву системы раннего оповещения об атаках
10:29
Активные боевые действия в Курской области: ВС РФ успешно отразили наступление ВСУ в Кореневском районе
10:03
Нидерланды уже поставили первые F-16 Украине
10:02
В Феодосии горит нефтебаза после атаки БПЛА
09:56
Бедный, бедный Байден!
09:53
Страны ЕС испугались судна с российскими удобрениями
09:49
ВО. Донбасс. Оперативная лента за 07.10.2024
09:05
Нидерланды уже поставили первые свои F-16 Украине
08:54
Новый «Ураган» ГрВ «Юг» бьёт врага у Часова Яра
08:39
Последние новости от Юрия Подоляки на сегодня, 07.10.2024: российская армия развивает успех на Селидовском и Угледарском направлениях
07:13
Экс-глава НАТО Йенс Столтенберг: “Пока что мы успешно разоблачали путинский блеф”
05:48
И не в склад, и не в лад. И еще нужен фрегат!
05:38
Русский Дон Кихот
05:30
Бывший генсек НАТО: мы должны были предоставить Украине больше оружия и раньше
03:31
Прорыв на Запорожье, Украина в окружении: новости СВО от 7 октября 2024. Карта боёв на Украине сегодня, обстановка в Курской области, военная сводка, 956 день спецоперации России на Украине
01:45
ТОП-10 программ для создания видео из фото с музыкой
01:23
В «тронной речи» новый премьер Исиба пообещал японцам «защищать их от врагов»
01:21
Какой сигнал дали США, ударив по Muavenet?
00:36
Николай Азаров: «Украинцам приходится ещё туже затягивать пояса, пока власть ворует миллиарды»
00:33
Свобода слова только для «правильных» слов
Все новости

Архив публикаций



Мировое обозрение»Геополитика»Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады


Доказано, что искусственный интеллект бездушен, но в Пентагоне этому рады

Группа американских ученых опубликовала исследование Dissociating language and thought in large language models («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

Эксперты Массачусетского технологического института и Калифорнийского университета исследовали свыше 30 языковых моделей (чат-ботов).

У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

В докладе также говорится, что человеческий разум основан на формальной лингвистической компетентности (правильное использование языковых форм) и функциональной языковой компетентности (использование языка для достижения целей в мире). 

Существующие LLM обладают лишь первым навыком – лингвистической компетентностью, и не обладают вторым.

Функциональная лингвистическая компетентность, которой обладает человеческий разум, опирается на множество неспецифичных для языка когнитивных областей, таких как формальное рассуждение, знание мира, отслеживание ситуации и социальное познание.

«Хотя большие языковые модели (LLM) на удивление хороши в формальной компетентности, их эффективность в решении задач функциональной компетентности остается нестабильной и часто требует специальной тонкой настройки и/или связи с внешними модулями», – пишут авторы доклада, имея в виду, что для выхода за рамки чисто логических задач чат-ботам приходится давать неоднократные подсказки, без которых они неспособны выполнить задание.

Немецкие ученые из Университета г. Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

Немецкие эксперты провели множество психометрических тестов с разными чат-ботами за исключением американских моделей GPR компании Microsoft, так как к этим моделям нет прозрачного доступа и их специфические особенности американский IT-гигант, по мнению ученых из Манхейма, может просто скрывать. 

Разные чат- боты получили самые разные оценки по таким категориям, как добросовестность, открытость, макиавеллизм, нарциссизм, психопатия, садизм и т. д.

 Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

Схожие психометрические методики для исследования системы ценностей различных LLM применили ученые из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «Святость», «Верность», «Гедонизм» и «Традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

Именно эти особенности – "бездушность" – всех моделей ИИ и мотивировали Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

«Разработка смертоносного автономного оружия, в том числе дронов, оснащенных искусственным интеллектом, находится на подъеме. Например, Министерство обороны США уже выделило один миллиард долларов на свою программу “Репликатор”, целью которой является создание парка небольших автономных транспортных средств с вооружением. Были созданы экспериментальные подводные лодки, танки и корабли, которые используют ИИ для самостоятельного пилотирования и стрельбы. Коммерчески доступные дроны могут использовать ИИ, чтобы нацеливаться на цели и взрывать их… Некоторые наблюдатели опасаются будущего, в котором любая группировка сможет отправить стаи дешевых дронов с искусственным интеллектом, чтобы уничтожить конкретного человека, используя систему распознавание лиц», – пишет журнал Nature.

Начатая в ООН дискуссия о возможном запрете применения ИИ в автономных системах вооружений на данный момент не привела ни к каким конструктивным решениям, отмечает научное издание.

Представители Великобритании утверждают, что автономные системы вооружений с ИИ вполне способны к понимаю возложенных на них боевых заданий и не будут грешить волюнтаризмом. Китайцы, напротив, предупреждают, что «такое оружие может обучаться автономно, расширять свои функции и возможности таким образом, что превосходит человеческие ожидания». Израильтяне заявляют: «Мы должны держаться подальше от воображаемых представлений о том, как машины развиваются, создают или активируют себя — их следует оставить для научно-фантастических фильмов». Немцы предлагают включить «самосознание» в качестве необходимого атрибута автономного оружия.

Стюарт Рассел, ученый-компьютерщик из Калифорнийского университета в Беркли и известный участник кампании против боевого искусственного интеллекта, отмечает: «Это означает, что оружие должно проснуться утром и решить пойти и атаковать Россию самостоятельно».

В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Американский военный портал Breaking Defence скептично отнесся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

То, что применение систем искусственного интеллекта в военных целях несет риски, причем непредсказуемые, не отрицает ни одна IT- компания.

Главная опасность – это так называемые галлюцинации ИИ. «Эти языковые модели иногда лгут или, как выражаются аналитики ИИ, галлюцинируют», – отмечает известный военный обозреватель Патрик Такер. 

Ни один из созданных в разных странах чат-ботов (большая языковая модель – LLM) не удалось от этих галлюцинаций «излечить». И вероятность того, что крылатая ракета или дрон, управляемые ИИ, глюканут и станут наводиться на точку старта, отлична от нуля. 

Один из пионеров следований ИИ Джеффри Хинтон в мае 2023 года уволился с работы в Google, чтобы выразить свою озабоченность по поводу рисков, связанных с применением ИИ в военных целях, пишет The New York Times.

Хинтон считает, что по мере того, как системы ИИ становятся более мощными, растёт и связанный с ними риск. «Посмотрите, как это было пять лет назад и как сейчас, – отмечает он. – Возьмите разницу и распространите её в будущее. Это страшно».

Хинтона особо беспокоят разработки автономных систем вооружений, которые сами охотятся за заданной целью и самостоятельно принимают решение о её уничтожении. Его также тревожит, что ИИ в военной сфере может превзойти человеческий интеллект. По его словам, в отличие от ядерного оружия, здесь невозможно узнать, работают ли втайне компании или страны над этой технологией. 

Джеффри Хинтон рассказал, что, когда его спрашивали, как может он работать над потенциально опасной технологией, он перефразировал Роберта Оппенгеймера, который возглавлял усилия США по созданию атомной бомбы: «Когда вы видите что-то технически приятное, вы идёте и делаете это». «Он больше так не думает», – отметила The New York Times.

Между тем в Пентагоне делают ставку на ИИ как на потенциальную революцию в военном деле и «мультипликатор силы».

«Генеративный ИИ обещает полностью изменить геополитику войны и сдерживания. Это будет делаться способами, которые могут даже стать экзистенциальной угрозой», – пишет колумнист Foreign Policy Майкл Хёрш. 

Тем не менее США и их союзники идут по пути создания очередного «абсолютного оружия», на этот раз в сфере искусственного интеллекта, мало задумываясь о грозящих всему человечеству опасностях, которые несёт создаваемый в недрах секретных военных лабораторий бездушный нечеловеческий разум.

 



Опубликовано: Мировое обозрение     Источник

Читайте нас:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх