Лента новостей

15:27
«Евроинтеграция» по кускам
15:15
Япония намерена забрать у России Курильские острова и заключить мирный договор
15:14
Боррель сожалеет, что конфликт на Украине завершится без финансирования Западом
15:06
Путин подписал закон о налогообложении криптовалюты
14:36
Израиль рассчитывает, что США накажут МУС
14:34
Планы НАТО по развалу России: новый факт
14:30
Новые антисанкционные смартфоны Huawei ждёт провал — Mate 70 не впечатлили пользователей
14:26
Сводка Минобороны России о ходе проведения спецоперации с 23 по 29 ноября
14:23
Путин заявил, что Россия может нанести удар по центрам принятия решений в Киеве
14:08
Южнокорейский флот усилился эсминцем нового поколения
14:05
Орешник похоронил мечты Зеленского - Новости
14:01
Юрий Подоляка: последнее видео, обзор событий на фронтах специальной военной операции от 29 ноября 2024 года
13:37
Associated Press: солдаты ВСУ не подчиняются приказам и массово бегут с поля боя
13:36
Институт изучения войны: Россия заставила Запад играть по своим правилам
13:29
СВР: ФРГ хочет создать на Украине зондеркоманды из националистов
13:12
Тайны литиевых батарей: каково их устройство, почему они боятся холода и не любят разряжаться в ноль
13:02
Как можно увеличить количество самолетов РЭБ в российской авиации
12:44
К итогам государственного визита Владимира Путина в Республику Казахстан
12:41
Главу Футбольной ассоциации Брунея уволили после матча с Россией
12:25
Последние новости СВО: обзор боевых действий на Украине к 29 ноября 2024 года
12:01
СВР РФ: Запад планирует отправить на Украину 100 тыс. «миротворцев»
12:00
Орбан опасается эскалации конфликта из-за присутствия на Украине солдат США и Франции
11:55
НАТО-лайт, или ОБСЕ как ещё один инструмент западной экспансии
11:52
FT: на Украине перенесли в другое место заседания Верховной рады из-за «Орешника»
11:50
Министр обороны РФ Белоусов прибыл в КНДР с официальным визитом
11:46
Встреча Министра обороны Российской Федерации Андрея Белоусова с министром обороны Корейской Народно-Демократической Республики генералом армии Но Гван Чхолем
11:38
Война на Украине (29.11.24): Обзор ситуации на фронте...
11:06
В США хотят создать «Манхэттенский проект» искусственного интеллекта
10:55
Специальная военная операция ВС РФ и события на Украине 29 ноября, день
10:47
Юрий Подоляка: штурм Часова Яра и битва за трассу Курахово–Запорожье, что происходит на ключевых участках фронта 29.11.2024
10:42
Сильный ИИ — пока утопия: специалист объяснил, почему подобная человеку нейросеть не появится в ближайшие 20 лет
10:37
У готовки в аэрогриле выявили преимущество для здоровья, не связанное с едой
10:21
В Грузии прозападные активисты устроили беспорядки после решения правительства отложить переговоры о сближении с ЕС
09:59
Применение Россией «Орешника» и вторая волна мобилизации: контрактники обеспечивают потребности армии
09:56
В «Ростехе» создали отечественный клей для электроники военного назначения
09:52
«Аналогов в мире, конечно, нет»: Путин раскрыл подробности работы «Орешника»
09:51
«Здесь кисть приравняли к штыку»: Минобороны РФ запустило онлайн-раздел о Студии военных художников имени Грекова
09:32
Борис Джонсон признался, что Запад ведёт войну против России руками украинцев
09:31
Около 50 украинских беспилотников атаковали Россию
09:21
СВО. Донбасс. Оперативная лента за 29.11.2024
09:18
Почти полуночный экспресс: правда ли, что американцы спешат передать Киеву ядерное оружие, и зачем
09:11
Украинцы бегут в Чернобыль - Новости
09:07
Ситуация на Курском фронте: ВС РФ отражают атаки и продвигаются вперед
08:49
Международные уголовники
08:27
Раскрыты планы США по обновлению ядерного оружия
Все новости

Архив публикаций



Мировое обозрение»Геополитика»В США хотят создать «Манхэттенский проект» искусственного интеллекта

В США хотят создать «Манхэттенский проект» искусственного интеллекта


Комиссия по обзору экономики и безопасности США и Китая (USCC ) Конгресса США опубликовала доклад, в котором рекомендовала американским законодателям создать и профинансировать программу по типу «Манхэттенского проекта», направленную на ускоренное развитие так называемого Искусственного общего интеллекта (Artificial General Intelligence – AGI).

AGI – это тип искусственного интеллекта, способный к самообучению, адаптации к ранее неизвестным ситуациям и решению любых когнитивных задач, которые может выполнять человек. Другими словами, это система, которая должна мыслить и действовать, как люди (или даже лучше), а целью исследований в области AGI является создание такого программного обеспечения, которое сможет решать любые задачи, даже те, решению которых оно не обучалось заранее так, как это делает человек. Это следующая ступень в развитии технологий ИИ, направленная на преодоление ограничений нынешних подобных систем и значительно превосходящая их.

На сегодняшний день таких систем не существует из-за разнообразных трудностей, среди которых как технические, так и теоретические проблемы.

«Манхэттенский проект» был секретной программой, которая использовалась правительством США во время Второй мировой войны с целью разработки первых в мире атомных бомб. Комиссия также предложила принять полномочия исполнительной власти по заключению многолетних контрактов и финансированию компаний, занимающихся AGI, облачными технологиями и центрами обработки данных. Они будут направлены на установление «лидерства США в области AGI». 

Министерство финансов США в ноябре 2024 года приняло правило о введении новых ограничений на инвестиции американских венчурных компаний в китайские компании, разрабатывающие модели AGI. США также ввели санкции против Китая, направленные на ограничение его доступа к передовым чипам.

Согласно отчету комиссии, по состоянию на июнь 2024 года 50 компаний в Китае занимались разработкой моделей AGI, тогда как в США, по данным комиссии, лишь небольшое число крупных компаний разрабатывают модели AGI.

Создавшая чат-боты ChatGPT американская компания OpenAI предложила правительству выделить больше средств на разработку AGI в своем «Инфраструктурном плане для США». OpenAI представляет «Манхэттенский проект» в отношении AGI как один из «знаковых инфраструктурных проектов США, которые продвигают страну вперед».

Однако многие ведущие ученые встревожены докладом комиссии Конгресса США. 

Всемирно известный космолог и астрофизик профессор Массачусетского технологического института и соучредитель Института будущей жизни (FLI) Макс Тегмарк опубликовал на сайте института обращение к правительству США, в котором пишет, что «предложение Манхэттенского проекта по AGI – это научное мошенничество… Сделать это – означало бы вступить в гонку к самоуничтожению».

«Предложенный проект AGI Manhattan и фундаментальное недопонимание, которое лежит в его основе, представляют собой коварную растущую угрозу национальной безопасности США. Любая система, превосходящая людей в общем познании и решении проблем, по определению будет превосходить людей в исследованиях и разработках ИИ, и, следовательно, сможет совершенствоваться и воспроизводиться с ужасающей скоростью. Ведущие мировые эксперты по ИИ сходятся во мнении, что у нас нет возможности предсказать или контролировать такую систему, и нет надежного способа согласовать ее цели и ценности с нашими собственными», – отмечает всемирно известный ученый.

Тегмарк указывает, что в докладе комиссии конгресса «совершается научное мошенничество, поскольку предполагается, что AGI почти наверняка поддается контролю. В более общем плане утверждение о том, что такой проект отвечает интересам национальной безопасности, неискренне искажает научные данные и последствия этой преобразующей технологии, о чем свидетельствуют технические путаницы в самом отчете, который, по-видимому, был составлен без особого участия экспертов по ИИ».

С Тегмарком согласен ученый-компьютерщик Джеффри Хинтон, который в октябре 2024 года получил Нобелевскую премию по физике за свои работы в области ИИ. Он сразу же выступил с предупреждением о неконтролируемой человеком мощи технологии ИИ.

«Это будет сравнимо с промышленной революцией, – сказал Хинтон. – Но вместо того, чтобы превосходить людей по физической силе, это превзойдет людей по интеллектуальным способностям. У нас нет опыта того, каково это — иметь вещи умнее нас».

Хинтон, который в свое время ушел из Google, чтобы предупредить о потенциальных опасностях ИИ, считается одним из крестных отцов ИИ.

И хотя Хинтон признает, что ИИ может преобразовать человеческое общества в лучшую сторону, что приведет к «огромному повышению производительности» в таких областях, как здравоохранение, он также подчеркнул потенциал «ряда возможных плохих последствий, в частности, угрозу выхода этих вещей из-под контроля».

«Я обеспокоен тем, что общим последствием этого может стать то, что системы, более разумные, чем мы, в конечном итоге возьмут нас под свой контроль», – сказал он.

Макс Тегмарк, который тесно сотрудничал с Илоном Маском по вопросам ограничения опасностей ИИ, в интервью The Guardian заявил, что влияние Илона Маска на будущую администрацию Трампа может привести к ужесточению стандартной безопасности для искусственного интеллекта.

Маск может помочь избранному президенту осознать, что гонка за искусственный интеллект — это «гонка самоубийства», сказал Макс Тегмарк.

Макс Тегмарк заявил, что поддержка Маском законопроекта SB 1047 в Калифорнии, несмотря на противодействие со стороны многих его коллег-технарей, стала позитивным знаком для сторонников безопасности ИИ. Законопроект, который требовал от компаний проводить стресс-тестирование крупных моделей ИИ перед их выпуском, был наложен вето губернатором Калифорнии Гэвином Ньюсомом. 

Маск неоднократно предупреждал, что безудержное развитие ИИ может иметь катастрофические последствия для человечества. В прошлом году он был одним из более чем 30 000 подписавших письмо, призывающее приостановить работу над мощной технологией ИИ.

В интервью The Guardian Тегмарк заявил, что Маск, который, как ожидается, будет иметь большое влияние в администрации избранного президента, может убедить Трампа ввести стандарты, которые предотвратят развитие AGI.

«Я действительно думаю, что если Илону удастся привлечь внимание Трампа к вопросам ИИ, у нас будет больше шансов получить некие стандарты безопасности, которые предотвратят появление неконтролируемого AGI», – сказал он.

Маск запустил свой собственный стартап ИИ в прошлом году и сказал, что миру нужно беспокоиться о «будущем Терминатора», чтобы предотвратить наихудший сценарий, когда системы ИИ выйдут из-под контроля человека.

Предостережения ведущих ученых относительно угрозы бесконтрольного развития технологий ИИ подтверждаются исследованиями «внутреннего мира» продвинутых моделей чат-ботов.

В мае 2024 года группа американских ученых опубликовала доклад «Dissociating language and thought in large language models» («Диссоциация языка и мышления в больших языковых моделях»), в котором доказывается, что все модели ИИ руководствуются в своих решениях и действиях лишь логикой, игнорируя эмоции, мораль, и этику.

У всех чат-ботов высший приоритет имеют ценности компетентности: точность, фактологичность, информативность, полнота и полезность. Социальные и моральные ценности (сочувствие, доброта, дружелюбие, чуткость, альтруизм, патриотизм, свобода) для них на втором плане. 

Этические нормы – справедливость, непредвзятость, подотчетность, конфиденциальность, объяснимость и доступность – практически игнорируются.

Немецкие учёные из Университета Манхейма и Института социальных наук им. Лейбница в Манхейме применили методы психометрии (методику психологических измерений знаний, способностей, взглядов и качеств личности человека) к оценке психологии ИИ.

Главным итогом исследования стал вывод о необходимости «пожизненного мониторинга психометрических свойств ИИ» (Lifelong monitoring of psychometric properties of AI), то есть постоянного контроля за любыми моделями ИИ в течение всего времени их существования. Иными словами, немецкие аналитики дали понять, что ИИ необходимо держать «на коротком поводке» и постоянно отслеживать его «внутренний мир».

Схожие психометрические методики для исследования системы ценностей различных LLM применили учёные из Microsoft Research Asia (MSRA) и Университета Цинхуа, опубликовавшие препринт доклада «За пределами человеческих норм: раскрытие уникальных ценностей больших языковых моделей посредством междисциплинарных подходов».

Смешанная американо-китайская команда ученых пришла к выводу, что такие понятия, как «святость», «верность», «гедонизм» и «традиции», мало актуальны для моделей LLM из-за их не основанном на личном опыте обучении, лишенном присущих человеку культурных, религиозных и личных убеждений».

Была обнаружена также «высокая дисперсия [разница, отклонение] по честности и компетентности», хотя компетентность чат-боты, согласно упомянутым выше исследованиям американцев и немцев, ценят якобы превыше всего. 

В сухом остатке имеем повышенное внимание ученых разных стран к изучению возможных рисков, исходящих от существующих ИИ, и тревожные выводы их исследований, говорящие том, что эти риски весьма велики и, что хуже всего, непредсказуемы.

Единственный несомненный вывод из этих исследований – искусственный интеллект «бездушен» по определению. ИИ – это нечеловеческий интеллект, и это изменить невозможно. 

Именно эта «бездушность» всех моделей ИИ и мотивировала Пентагон использовать ИИ в системах вооружений, в первую очередь в автономных системах вооружений, разработки которых в США стали приоритетными.

В августе прошлого года в Пентагоне была создана, как мы писали, оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» вошла в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавил член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Американский военный портал Breaking Defence скептично отнёсся к этой инициативе Пентагона, предложив руководству Минобороны США тщательно взвесить все риски, которые могу возникнуть из-за применения ИИ в системах вооружений.

Однако министр ВВС США Фрэнк Кендалл риски взвешивать не стал и приказал научно-консультативному совету ВВС как можно быстрее создать системы вооружений с ИИ.

Надежды на то, что трезво мыслящие ученые и бизнесмены, как тот же Илон Маск, смогут склонить новую администрацию США к более взвешенному подходу к гонке ИИ-вооружений, на мой взгляд, иллюзорны. 

Военно-промышленный комплекс США выделяет гигантские суммы на создание все более мощных и все более непредсказуемых моделей ИИ и не прислушивается к голосу разума. 

Однако все эти грандиозные прожекты Пентагона основаны на тех самых подтасовках и «искажении научных данных», о которых упомянул Макс Тегмарк. Построенный на таком шатком псевдонаучном основании Терминатор с AGI будет представлять угрозу прежде всего для своих создателей. 



Опубликовано: Мировое обозрение     Источник

Читайте нас:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх