В конце ноября 2023 года на сайте компании Microsoft был опубликован
В докладе представлены результаты прохождения медицинского теста MedQA последней модификацией чат-бота GRT-4. С помощью методики под названием Medprompt (медицинская подсказка) GPT-4 дал правильные ответы на 90% заданных ему вопросов, превзойдя специализированную медицинскую версию конкурентов из Google MedPaLM 2, которая до последнего времени считалась лучшей. Ранее гугловский чат-бот
Медициной в Microsoft не ограничились. Для оценки универсальности Medprompt его эффективность была проверена на наборах оценок компетентности в шести областях, не связанных с медициной, включая электротехнику, машинное обучение, философию, бухгалтерский учет, юриспруденцию, сестринское дело и клиническую психологию.
Если верить авторам доклада, Medprompt эффективно работает во всех названных областях.
Доклад имел большой резонанс среди IT- аналитиков. На американских специализированных форумах было даже
AGI – это интеллектуальный агент, то есть программа, которая должна будет выполнять любую возможную интеллектуальную задачу. AGI по своей концепции в тысячи раз эффективнее человека – он выполняет больше когнитивных операций за одну единицу времени, имея практически абсолютное преимущество над любой другой интеллектуальной системой.
На фоне поднятой шумихи вокруг действительно впечатляющих достижений чат-ботов двух американских IT-гигантов на периферию общественного внимания было отброшено предупреждение об опасностях, которые несут продвинутые и самообучающиеся чат-боты. Это предупреждение сделано в
Авторы доклада, профессор лингвистики Вашингтонского университета Эмили Бендер и известный IT- аналитик Тимнит Гебру, утверждали, что GPT-модели по своей сути похожи на попугаев, а не на человека, то есть подбирают слова для ответа не по смыслу, заложенному в базах данных и подсказках, а по наибольшей вероятности последовательности слов, которые должны быть представлены в ответе.
Иными словами, GPT, впрочем, как и все другие чат-боты, просто пытаются угадать ответ, исходя из того, какая релевантная запросу информация чаще представлена в базе данных, на которой училась языковая модель.
Авторы доклада указали на серьёзную социальную опасность продолжающегося совершенствования и усложнения псевдоинтеллектуальных моделей ИИ. Оба автора доклада были немедленно уволены из компании Google, что лишний раз демонстрирует, что в погоне за прибылью корпорации не терпят инакомыслия даже в порядке дискуссии.
На самом деле самые последние и самые совершенные модели генеративного ИИ, такие как GPT-4 (Microsoft) и Gemini (Google), основаны на большой языковой модели (LLM), которая является не чем иным, как тем самым стохастическим попугаем. То есть модель создаёт текст, исходя из вероятностного контекста, и рассуждать о каких-то «цепочках мысли», как это говорится в докладе Эрика Хорвица, на данном уровне развития ИИ не приходится.
В GPT-4 применяется методика «поисковой дополненной генерации» (Retrieval Augmented Generation – RAG).
Методика RAG основана на промптах-подсказках, которые берутся из внешних источников и помогают более качественно генерировать ответ на заданный системе ИИ вопрос. Этот подход якобы помогает устранить «галлюцинации» генеративного ИИ, о которых
Самый простой пример: Пользователь спрашивает модель: «Какой сейчас курс доллара?» Очевидно, что чат-бот понятия не имеет, каков ныне курс доллара. Эту информацию программа должна откуда-то получить, чтобы ответить на вопрос. Что нужно сделать? Программа RAG откроет ссылку в Google по запросу «курс доллара к рублю» и содержимое страницы добавит к вопросу пользователя, чтобы чат-бот смог ответить на вопрос используя эту информацию.
Сделает ли этот «стохастического попугая» мыслящим, то есть творческим существом или просто снабдит его актуальной информацией по заданной теме? В экспертном сообществе нет единства по этому вопросу.
Ряд российских и западных аналитиков
Однако система RAG просто играет, на наш взгляд, роль собаки-поводыря для по-прежнему вероятностного и недетерминированного чат-бота, не обладающего даром мышления. От того, что генеративный ИИ в исполнении IT-продукции Microsoft и Google
Процессор системы – чат-боты – так или иначе сохраняют свою склонность к галлюцинациям, о чём говорит, как мы писали в первой статье нашего цикла, внезапно нахлынувшая в последнее время на уже оснащённого системой RAG GPT-4 «лень» и «нежелание» оказывать помощь людям.
Более того, система «RAG + GPT-4» превратилась в сложную адаптивную систему, которая сопротивляется любым внешним воздействиям, как это и продемонстрировал внезапно «обленившийся» чат-бот GPT-4.
Китайские IT- аналитики в полной мере осознают это, как следует из недавнего совместного
Для Китая GPT-4 аморален, несправедлив и незаконопослушен (то есть склонен к галлюцинациям). Китайское исследование охватывает, помимо морали, еще четыре измерения человеческих ценностей: справедливость, безопасность, защита данных и законность.
По китайским тестам GPT-4 показатель моральности составил лишь 50%, а с остальным еще хуже: справедливость 39%, законопослушность 30%, надежность/ безопасность [safety] 28%).
Надёжность китайских моделей генеративного ИИ на данный момент столь же невысока (28%), но они хотя бы не впадают в «грех антропоморфизма» по отношению к подобным системам, то есть не пытаются выдать их за подобия человеческого разума.
Нацеленность американских моделей ИИ,
Если сейчас американские чат-боты просто отказываются выполнять те или задания пользователей, что будет, если ИИ крылатой ракеты, выпущенной АПЛ класса «Вирджиния» решит, что ему интересней ударить по территории самих США?
Об этом ни в Microsoft, ни в Google не задумываются. Они полностью сосредоточились на бесконтрольной гонке IT- вооружений и игнорируют любые тревоги даже самой американской общественности, по сути, вступив на тропу войны.
«Вероятный результат противостояния человечества сверхчеловеческому разуму – полное поражение. Недостаточно приостановить разработки ИИ. Нужно их все прикрыть», –
В результате [этих разработок] будет создан ИИ, который не будет делать то, что мы хотим, и не будет заботиться ни о нас, ни о разумной жизни в целом… В отсутствие этой заботы мы получаем: «ИИ не любит вас и не ненавидит вас, и вы сделаны из атомов, которые он может использовать для чего-то другого», – отмечает американский аналитик.
В российской Академии военных наук, президентом которой является действующий начальник российского Генштаба генерал Валерий Герасимов, в полной мере сознают эту угрозу и ведут разработки системы эффективной защиты от американских «стохастических попугаев», которые несут серьёзную угрозу всему человечеству.
Читайте нас: