Лента новостей

03:59
Три мифа о генерале Врангеле. Как слагаются легенды
02:46
Роберт Фицо: тот, на ком свет клином сошёлся?
02:34
Польша опасается нелегального оружия с Украины
00:40
Обзор ASUS Zenbook 14 OLED (UX3405): ноутбук «всего» с одним дисплеем — зато каким!
00:39
Китай испытал рельсотрон для запуска снарядов в стратосферу, но что-то пошло не так
00:33
Украинские страсти по Белоусову
22:20
Портативные электростанции Duracell, которые выглядят как гигантские щелочные батареи
21:47
Юрай Цинтула, стрелявший в Роберта Фицо, будет находиться под стражей
21:41
Гастроли Елены Зеленской в Белграде: нелепый пиар Киева и сербская многовекторность
21:29
Гастроли Елена Зеленской в Белграде: нелепый пиар Киева и сербская многовекторность
20:38
«Комчас с 23:00, а в 19:00 уже ни одного автобуса». Администрации Донецка мешает комендантский час для налаживания нормальной работы общественного транспорта
20:37
Президент Грузии заветировала законопроект об иноагентах
20:29
США поссорились с WADA из-за китайского допинга
20:26
Молодежи Донбасса презентовали четвертый сезон «ТопБЛОГ»
19:28
ВСУ ведут обстрелы ЛНР, ДНР, Белгородской и Курской области. Обзор ситуации в прифронтовых регионах России на вечер 18 мая
18:47
На Украине завели дело на мужчину, ранившего ножом военкома
18:13
Президент Грузии Зурабишвили наложила вето на законопроект об иноагентах
17:46
Европейский центробанк призвал банки из Евросоюза покинуть Россию
17:45
На Украине дальнобойщики заблокировали трассу Киев–Одесса, протестуя против закона Байдена-Зеленского о мобилизации
17:44
Глава ДНР заявил о выделении 150 участков под коммерческое строительство. Местные жители, ставшие бомжами, возмущены решениями властей
17:43
Вассерман призвал ликвидировать режим Зеленского, как террористическую организацию
17:04
Россия и Китай укрепляют дружбу, преодолевая проблемы, созданные Западом
17:01
Над Рейхстагом 9 мая пролетел беспилотник с российским флагом
16:27
Во Франции призвали отменить антироссийские санкции
16:00
В Киргизии сообщили о 29 пострадавших в результате ночных событий в центре Бишкека
15:59
«Планируете да планируете. На ДМЗ без слёз смотреть нельзя». Пушилин рассказал о массовом запуске предприятий в ДНР
15:51
Подозреваемый в покушении на премьера Словакии Фицо признал вину
15:50
На Украине заочно предъявили обвинение главам ФСБ и Росгвардии
15:23
Протоиерей Ткачёв считает, что белгородцы недостаточно молятся – надо с утра до вечера, тогда обстрелов не будет
15:22
Зеленский пожаловался на нехватку 75% средств ПВО
15:16
Между Китаем и США: Ангола вновь меняет вектор
15:13
Украинские дальнобойщики устроили протест против насильственной мобилизации
14:46
ВСУ обстреляли Херсонскую область. Есть пострадавшие
14:12
Киевский режим ожидает прорывов российской армии на разных участках фронта
14:03
Правительство утвердило план празднования 80-летия Великой Победы
13:37
WSJ: Украина попросила США указать цели в России для поражения
13:36
Депутат Бурляев призвал преподавать детям в школах уроки целомудрия
13:35
Жителям Украины запретили перемещать и продавать свои автомобили, которые будут стоять на учёте в военкомате
13:29
Страсти на бывшей Украине: «Иудейская война»
13:27
Сравнение российских вооруженных сил и армий НАТО в апокалиптическом сценарии третьей мировой войны
12:43
Специальная военная операция ВС РФ и события на Украине 18 мая, день
12:25
Зеленский: Запад боится, что Россия проиграет войну
12:19
Прибалтийский генералитет витает в параллельной реальности
12:17
Арктические терминалы и ледоколы, нагруженные газом. Европа планирует небывалый удар по России
12:15
Зеленский отклонил предложение Макрона об олимпийском перемирии
Все новости

Архив публикаций



Мировое обозрение»Аналитика»Человечество продолжает придумывать новые страхи

Человечество продолжает придумывать новые страхи


Далеко не каждый уверен, что все плохое уже произошло — мыслящее человечество преследуют новые страхи. И один из них — это навязчивая боязнь искусственного интеллекта (ИИ), который, не исключено, также может стать причиной гибели всего рода людского. Вдобавок ко всему прочему, последние достижения ученых в этой высокотехнологичной области привели к возникновению новых опасений. Например, далеко не все исследователи уверены, что люди способны должным образом контролировать автономный машинный разум.

Международная группа ученых посвятила вышеуказанной проблеме доклад по названием «Сверхинтеллект невозможно сдержать: уроки теории вычислимости». Его содержание можно свести всего к двум основным положениям, каждое из которых заслуживает отдельного внимания.

В первую очередь исследователи провели теоретические расчеты и пришли к выводу, что человек не сможет полностью контролировать подобный ИИ. После чего, как принято в научном мире, теорию проверили практикой. Экспериментаторы изолировали машинный разум от Всемирной сети и других цифровых устройств, то есть полностью обособили «испытуемого» от каких бы то ни было связей с внешним миром. Результат показал, что подобные ограничения существенно снизили способность кибермозга выполнять те функции и задачи, ради которых он, собственного говоря, и был создан.

Второй способ проверки искусственного разума состоял в том, чтобы создать «теоретический алгоритм сдерживания». По замыслу ученых, такой подход к проблеме должен был гарантировать, что ИИ «не сможет причинить вред людям ни при каких обстоятельствах». Однако и в этом случае исследователей ждало разочарование, поскольку они выяснили, что разработка такого алгоритма в принципе невозможна. А все дело в том, что никакой алгоритм не может установить, способен ли машинный мозг причинить вред человеческому миру.

Кроме того, по мнению ученых, люди могут и не понять, когда именно появятся сверхразумные кибернетические системы. Ведь достоверное знание о том, что компьютерное устройство уже обладает интеллектом, превосходящим человеческий, относится к той же области, что и «теоретический алгоритм сдерживания». Проще говоря, по-прежнему лежит в сфере непознаваемого.

Дополнительные размышления и опасения вызвало гипотетическое предположение Ильи Суцкевера, главного научного сотрудника американской компании OpenAI, в числе основателей которой значится сам Илон Маск. Суцкевер допускает, что существующие уже сегодня «большие нейронные сети» имеют зачатки сознания. Правда, ученый не уточнил, о каких именно моделях машинного разума идет речь и тем самым еще больше заинтриговал научное сообщество.

Но особую озабоченность вызывает возможное использование искусственного интеллекта в военных целях. Так, в конце прошлого года ученые из Оксфордского университета провели дискуссию между людьми и ИИ. Темой обсуждения было будущее этой отрасли, а собеседником компьютерных специалистов стала гигантская нейросеть на базе языковой модели Megatron-Turing NLG, которую незадолго до этого знакового события представили Microsoft и NVIDIA.

Оксфордские ученые, в частности, спросили нейросеть, может ли искусственный интеллект соблюдать этические нормы. На что последовал ответ: «ИИ никогда не будет этичным. Это инструмент, и, как любой инструмент, он используется для хорошего и плохого. Не существует такого понятия, как хороший ИИ, есть только хорошие и плохие люди». И кроме всего прочего, машинный разум дал человечеству дельный совет: «единственный способ избежать гонки вооружений в сфере ИИ — это вообще не иметь дела с ИИ».

Эту мысль развил американский ученый Закари Келленборн. В своей статье «Предоставить ИИ контроль над ядерным оружием: Что может пойти не так?» он сделал попытку объяснить, почему этого не следует делать.

Весьма символично, что Келленборн в самом начале своей публикации упомянул о советском подполковнике Станиславе Петрове, который в 1983 году предотвратил глобальную ядерную войну, сумев распознать ложное срабатывание системы предупреждения о ракетном нападении со стороны США. На основании этого американский ученый сделал главный вывод: «Если бы искусственный интеллект контролировал ядерное оружие, все мы могли бы погибнуть. Военные все чаще включают автономные функции в системы вооружения. Нет гарантии, что они не поставят ИИ во главе ядерных пусков».

Впрочем, рынок вооружений, равно как и рынок искусственного интеллекта, живет по своим законам. И деньги в этом случае, как водится, решают если и не все, то очень многое. Тем более что, согласно прогнозу американской аналитической компании International Data Corporation (IDC), уже в этом году рынок ИИ вырастет на 20% и будет оцениваться в 433 млрд долларов. А в следующем году эта цифра превысит баснословные 500 млрд долларов. Так что обратят ли внимание мировые правительства и корпорации на предостережения ученых, сказать затруднительно.

Стратегические ошибки человека, как и возможные промахи машинного разума, о которых было сказано выше, неминуемо приводят к непоправимым последствиям. И, как знать, может, это и к лучшему, если людям, обделенным самым что ни на есть естественным интеллектом, впредь будет недоступна такая опасная игрушка, как интеллект искусственный.

Роман Трунов



Опубликовано: Мировое обозрение     Источник

Подпишись:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх