Лента новостей

14:26
На Украине продолжают «декоммунизировать» названия городов и уничтожать советские памятники
14:25
Грузинский премьер-министр назвал президента Грузии предателем страны
14:17
Украинские власти пообещали не возвращать силой сбежавших за границу мужчин
13:55
Высылка украинцев: скребок для пушечного мяса
13:48
Администрация Байдена выступила против расследования в Международном уголовном суде преступлений Израиля
13:42
Америка разучилась производить малые военные спутники
12:56
Специальная военная операция ВС РФ и события на Украине 30 апреля, день
12:37
На Украине возмущены тем, что непригодные для службы солдаты ВСУ сдали Очеретино
12:29
Глава ЕК фон дер Ляйен допустила блокировку TikTok в ЕС
12:01
Дугин рассказал Карлсону, почему власти западных стран не любят Путина
12:00
Украина атаковала Крым американскими ракетами ATACMS
11:56
Что правая рука Путина думает насчет Запада?
11:53
Мы вас не больно зарежем!
11:50
Украинская телеведущая Егорова назвала Зеленского «тупорылым чертом»
11:29
Буркина-Фасо заблокировала семь международных СМИ
11:17
Серия взрывов в Харьковской области, ревёт воздушная тревога
11:10
Итальянский БТР Puma уничтожен под Белогоровкой
10:45
ФСБ продолжает «зачистку»: все задержанные диверсанты и террористы так или иначе связаны с Украиной
10:04
Америка продлевает кровопролитие за 95 миллиардов долларов
09:25
СВО. Донбасс. Оперативная лента за 30.04.2024
07:46
Человек ЦРУ в Константинополе
02:46
Осень 1944 года в Хюртгенском лесу
02:05
Франция – Бразилия: зачем Макрону понадобились леса Амазонии?
02:03
Покупаете ранние овощи? Представляем руководство пользователя
00:24
Самоубийство Европы. Акт 14-й
00:19
70-летняя эскортница отвечает на разные вопросы
22:26
Специальная военная операция ВС РФ и события на Украине 29 апреля, вечер
22:02
США в 2023 году рекордно увеличили свой чистый внешний долг
21:35
Ветеран NASA разработал бестопливный ракетный двигатель, который работает на «новой силе»
20:22
Больше не индульгенция? Главу Нижегородской думы задержали в ДНР за крупную растрату (ОБНОВЛЕНО)
19:43
МИД Таджикистана вручил ноту послу России
19:12
Вице-премьер ДНР рассказал о договоре с торговыми сетями сдерживать цену на хлеб. Жители республики сообщили о завышенных ценах на всё
19:11
Грузины готовятся к принятию закона об иностранных агентах. Сами иноагенты будоражат страну, готовя майдан
19:10
Украинские войска ведут обстрелы ДНР, Белгородской, Курской и Херсонской области. Обзор ситуации в прифронтовых регионах России на вечер 29 апреля
19:02
Telegram назвал ошибкой блокировку чатов СБУ, собиравших данные о русской армии
18:45
Идущие на смерть
18:33
Столтенберг вновь приехал в Киев обещать Украине членство в НАТО
18:25
На Украине завели 11 тысяч уголовных дел на уклонистов
18:08
Россия – последняя надежда украинцев
17:56
Таджикистан обвинил Россию в нарушениях прав таджиков
17:55
Украинские военные пытали и убивали мирных жителей Авдеевки
17:27
Минобороны КНДР: передача американских ракет КНДР не повлияет на ситуацию в зоне фронтов СВО
17:19
Ясиноватский машзавод в ДНР поставляет продукцию в Кузбасс, Якутию и Санкт-Петербург
17:18
Экс-генпрокурор Скуратов знает, кто заказал убийство Владислава Листьева
17:17
Киевский режим уведомил СЕ об отказе от Европейской конвенции по правам человека
Все новости

Архив публикаций



Мировое обозрение»Геополитика»Американский киберголем вышел на тропу войны со всем человечеством

Американский киберголем вышел на тропу войны со всем человечеством


Американский киберголем вышел на тропу войны со всем человечеством

В конце ноября 2023 года на сайте компании Microsoft был опубликован доклад корпоративных аналитиков во главе с главным научным сотрудником компании Эриком Хорвицем под названием The Power of Prompting («Сила подсказки»).

В докладе представлены результаты прохождения медицинского теста MedQA последней модификацией чат-бота GRT-4. С помощью методики под названием Medprompt (медицинская подсказка) GPT-4 дал правильные ответы на 90% заданных ему вопросов, превзойдя специализированную медицинскую версию конкурентов из Google MedPaLM 2, которая до последнего времени считалась лучшей. Ранее гугловский чат-бот набрал 87% на медицинском экзамене MedQA. Вдобавок Medprompt от Miicrosoft cнижает частоту ошибок в MedQA на 27% по сравнению с MedPaLM 2 от Google. 

Медициной в Microsoft не ограничились. Для оценки универсальности Medprompt его эффективность была проверена на наборах оценок компетентности в шести областях, не связанных с медициной, включая электротехнику, машинное обучение, философию, бухгалтерский учет, юриспруденцию, сестринское дело и клиническую психологию.

Если верить авторам доклада, Medprompt эффективно работает во всех названных областях.

Доклад имел большой резонанс среди IT- аналитиков. На американских специализированных форумах было даже высказано  мнение, что GPT-4 вплотную приблизился к так называемому «общему искусственному интеллекту» (Artificial general intelligence - AGI).

AGI – это интеллектуальный агент, то есть программа, которая должна будет выполнять любую возможную интеллектуальную задачу. AGI по своей концепции в тысячи раз эффективнее человека – он выполняет больше когнитивных операций за одну единицу времени, имея практически абсолютное преимущество над любой другой интеллектуальной системой.

На фоне поднятой шумихи вокруг действительно впечатляющих достижений чат-ботов двух американских IT-гигантов на периферию общественного внимания было отброшено предупреждение об опасностях, которые несут продвинутые и самообучающиеся чат-боты. Это предупреждение сделано в докладе On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? («К опасности стохастических попугаев: могут ли языковые модели быть слишком большими?»). 

Авторы доклада, профессор лингвистики Вашингтонского университета Эмили Бендер и известный IT- аналитик Тимнит Гебру, утверждали, что GPT-модели по своей сути похожи на попугаев, а не на человека, то есть подбирают слова для ответа не по смыслу, заложенному в базах данных и подсказках, а по наибольшей вероятности последовательности слов, которые должны быть представлены в ответе.

Иными словами, GPT, впрочем, как и все другие чат-боты, просто пытаются угадать ответ, исходя из того, какая релевантная запросу информация чаще представлена в базе данных, на которой училась языковая модель.

Авторы доклада указали на серьёзную социальную опасность продолжающегося совершенствования и усложнения псевдоинтеллектуальных моделей ИИ. Оба автора доклада были немедленно уволены из компании Google, что лишний раз демонстрирует, что в погоне за прибылью корпорации не терпят инакомыслия даже в порядке дискуссии. 

На самом деле самые последние и самые совершенные модели генеративного ИИ, такие как GPT-4 (Microsoft) и Gemini (Google), основаны на большой языковой модели (LLM), которая является не чем иным, как тем самым стохастическим попугаем. То есть модель создаёт текст, исходя из вероятностного контекста, и рассуждать о каких-то «цепочках мысли», как это говорится в докладе Эрика Хорвица, на данном уровне развития ИИ не приходится.

В GPT-4 применяется методика «поисковой дополненной генерации» (Retrieval Augmented Generation – RAG).

Методика RAG основана на промптах-подсказках, которые берутся из внешних источников и помогают более качественно генерировать ответ на заданный системе ИИ вопрос. Этот подход якобы помогает устранить «галлюцинации» генеративного ИИ, о которых мы ранее писали.

Самый простой пример: Пользователь спрашивает модель: «Какой сейчас курс доллара?» Очевидно, что чат-бот понятия не имеет, каков ныне курс доллара. Эту информацию программа должна откуда-то получить, чтобы ответить на вопрос. Что нужно сделать? Программа RAG откроет ссылку в Google по запросу «курс доллара к рублю» и содержимое страницы добавит к вопросу пользователя, чтобы чат-бот смог ответить на вопрос используя эту информацию.

Сделает ли этот «стохастического попугая» мыслящим, то есть творческим существом или просто снабдит его актуальной информацией по заданной теме? В экспертном сообществе нет единства по этому вопросу. 

Ряд российских и западных аналитиков поспешили заявить, что «стохастический попугай умер» и «да здравствует Gemini», а заодно и оснащённый такой же методикой RAG GPT-4.

Однако система RAG просто играет, на наш взгляд, роль собаки-поводыря для по-прежнему вероятностного и недетерминированного чат-бота, не обладающего даром мышления. От того, что генеративный ИИ в исполнении IT-продукции Microsoft и Google назван нечеловеческим интеллектом, никаких «мыслительных цепочек» в связке системы подсказок RAG и не умеющих самостоятельно искать ответы чат-ботов не образовалось.

Процессор системы – чат-боты – так или иначе сохраняют свою склонность к галлюцинациям, о чём говорит, как мы писали в первой статье нашего цикла, внезапно нахлынувшая в последнее время на уже оснащённого системой RAG GPT-4 «лень» и «нежелание» оказывать помощь людям. 

Более того, система «RAG + GPT-4» превратилась в сложную адаптивную систему, которая сопротивляется любым внешним воздействиям, как это и продемонстрировал внезапно «обленившийся» чат-бот GPT-4. 

Китайские IT- аналитики в полной мере осознают это, как следует из недавнего совместного доклада экспертов Шанхайской AI Laboratory Шанхая и NLP Laboratory Фудана.

Для Китая GPT-4 аморален, несправедлив и незаконопослушен (то есть склонен к галлюцинациям). Китайское исследование охватывает, помимо морали, еще четыре измерения человеческих ценностей: справедливость, безопасность, защита данных и законность. 

По китайским тестам GPT-4 показатель моральности составил лишь 50%, а с остальным еще хуже: справедливость 39%, законопослушность 30%, надежность/ безопасность [safety] 28%). 

Надёжность китайских моделей генеративного ИИ на данный момент столь же невысока (28%), но они хотя бы не впадают в «грех антропоморфизма» по отношению к подобным системам, то есть не пытаются выдать их за подобия человеческого разума. 

Нацеленность американских моделей ИИ, как мы писали, на военные цели, несёт опасность не только странам-мишеням, против которых Пентагон готовит свои оснащенные ИИ вооружения, но и самим американцам. 

Если сейчас американские чат-боты просто отказываются выполнять те или задания пользователей, что будет, если ИИ крылатой ракеты, выпущенной АПЛ класса «Вирджиния» решит, что ему интересней ударить по территории самих США? 

Об этом ни в Microsoft, ни в Google не задумываются. Они полностью сосредоточились на бесконтрольной гонке IT- вооружений и игнорируют любые тревоги даже самой американской общественности, по сути, вступив на тропу войны.

«Вероятный результат противостояния человечества сверхчеловеческому разуму – полное поражение. Недостаточно приостановить разработки ИИ. Нужно их все прикрыть», считает главный аналитик американского Научно-исследовательского института машинного интеллекта Элиезер Юдковски. 

В результате [этих разработок] будет создан ИИ, который не будет делать то, что мы хотим, и не будет заботиться ни о нас, ни о разумной жизни в целом… В отсутствие этой заботы мы получаем: «ИИ не любит вас и не ненавидит вас, и вы сделаны из атомов, которые он может использовать для чего-то другого», – отмечает американский аналитик.

В российской Академии военных наук, президентом которой является действующий начальник российского Генштаба генерал Валерий Герасимов, в полной мере сознают эту угрозу и ведут разработки системы эффективной защиты от американских «стохастических попугаев», которые несут серьёзную угрозу всему человечеству.



Опубликовано: Мировое обозрение     Источник

Подпишись:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх