Лента новостей

17:47
В Латвии уволили украинских учителей, потому что дети беженцев из Украины знают только русский
17:46
«Нарративы Кремля», открытки СССР и «процесс российских шпионов»: Украина и Эстония продолжают шагать по стези русофобии
17:45
Евросоюз ежегодно теряет €300 млрд, которые безвозвратно уходят в США
17:39
Мобилизация на Украине: беспредел «в законе»
17:36
Президент Казахстана Токаев запретил вейпы в стране
17:24
Главное в военных СМИ за неделю: перестановки на верфях ОСК, робот-эвакуатор для передовой, закладка танкера проекта 23630
17:07
«Из 85 получаешь 35, ну 40 потолок». В ДНР рассказали о зарплате водителей в 65−85 тыс. рублей при 12−16 часах работы в день
17:06
Мигранта, убившего жителя Москвы, поймали в Ростовской области вместе с подельниками
17:05
Ректора Института русского языка имени Пушкина уволили за работу на мигрантов
17:04
Анналена Бербок и Биньямин Нетаньяху поссорились из-за Палестины
16:56
Финский премьер Орпо отказался общаться с русскоязычными гражданами на границе
16:22
В Париже мужчина пригрозил взорвать себя в консульстве Ирана
16:21
Угрожавшего взорвать посольство Ирана в Париже мужчину задержали
16:01
Впервые введены санкции ЕС против израильских поселенцев
15:49
Разгром ж/д инфраструктуры: последствия ракетных ударов в Днепропетровске и области (ФОТО)
15:46
Украина проиграла, а Голливуд с Вашингтоном не в курсе
15:44
Украинские военные обокрали мужчину на блокпосту
15:42
Путин подписал закон о проведении Всемирных игр дружбы
14:48
Медведев прокомментировал подготовку покушения на Зеленского в Польше
14:46
Нормандия-80: Хотели плюнуть в Россию, а плюнули в своих ветеранов
14:39
Орбан: вмешиваясь в конфликт на Украине, НАТО лезет не в своё дело
14:38
Львовские военкомы избили мужчину, который не захотел умирать за интересы Зеленского и его западных кураторов
14:37
Премьер Франции пугает французов негативными последствиями за отсутствие поддержки Украины
14:29
Парламент Гагаузии попросил вернуть русскому статус языка межнационального общения
13:57
Помогут ли боевикам ВСУ британские боевые лазеры?
13:53
Лавров объяснил недопустимость Швейцарии как площадки для переговоров по Украине
13:27
Forbes опубликовал список обедневших российских миллиардеров
13:23
Бессилие украинской ПВО
13:19
Переговоры, которые могли положить конец военному конфликту на Украине
12:51
ПАСЕ начала травлю Русской Православной Церкви, назвав ее инструментом пропаганды
12:44
На празднование 80-летия высадки в Нормандии приглашена Россия, но не Владимир Путин
12:42
«Какой позор»: американцы прокомментировали очередной ляп Байдена
12:31
Флот Венесуэлы вооружился противокорабельными ракетами иранской разработки
12:14
США провалились с проектом самолёта F-35, который оказался слишком дорогим, сложным и ненадёжным
12:06
В США люди начали заражаться от оленей-зомби
12:05
Глава ЦРУ Бернс спрогнозировал разгром ВСУ до конца года
11:38
США заблокировали принятие Палестины в ООН
11:32
Шольц в Китае пытался минимизировать риски от брюссельской политики «снижения рисков»
11:29
Жители Харьковской области начали массово сдавать российской разведке позиции ВСУ
10:54
Медведев прокомментировал новость о подготовке покушения на Зеленского
10:28
В Ставропольском крае потерпел крушение российский бомбардировщик
10:27
Глава ЦРУ Бернс допустил капитуляцию Украину к концу года
10:26
Глава Дагестана выступил в защиту полицейских в ответ на претензии Кадырова
10:24
Как российская зерновая дипломатия меняет глобальные рынки
10:17
ABC: Израиль нанес ракетный удар по объекту в Иране
Все новости

Архив публикаций



Мировое обозрение»Технологии»Современные роботы не могут справиться с решением задач, связанных с выполнением моральных и этических норм

Современные роботы не могут справиться с решением задач, связанных с выполнением моральных и этических норм


Робот и человек

С учетом того, что роботы-андроиды, роботы-автомобили и роботы других видов все больше и больше входят в нашу повседневную жизнь, люди все больше задумываются о том, чем это все может быть чревато для них самих. В принципе, существующие нормы этики и морали не очень сложно оформить в виде наборов неких правил, запрограммировать их и зашить в "мозги" всех роботов. Но в окружающем нас мире очень часто случаются ситуации, когда возникает необходимость сделать быстро непростой выбор, руководствуясь исключительно собственными внутренними нормами и понятиями. И если в случае с человеком выбор будет определен внутренним миром этого человека, то, что в таком случае будет делать робот, не имеющий точных инструкций на такие случаи? Найти ответ на этот сложный вопрос попробовал исследователь-робототехник Алан Винфилд (Alan Winfield) из Лаборатории робототехники, Бристоль, Великобритания.

Алан Винфилд и его коллеги построили своего рода этическую ловушку для роботов. Подопытный робот был запрограммирован таким образом, чтобы своими действиями воспрепятствовать другим роботам, изображающим из себя людей, упасть в яму. В принципе, эта ловушка является упрощенной интерпретацией второй части Первого закона робототехники Айзека Азимова, который звучит следующим образом - "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред".

Сначала робот-спасатель успешно справлялся со своей задачей. Когда робот, изображающий человека, начинал двигаться к яме, робот-спасатель успешно отталкивал второго робота, смещая его с опасной траектории движения. Но самое интересное началось в тот момент, когда исследователи ввели на поле еще одного робота, изображающего человека, что поставило робота-спасателя перед проблемой выбора. В результате этого ситуации на игровом поле начали происходить по совершенно непредсказуемым сценариям, в одних случаях роботу удавалось спасти обоих "людей", в других - только одного, а в третьих случаях - ни одного. А в 14 случаях из 33 попыток робот-спасатель, "узрев" второго "человека" просто зависал, его программа так и не смогла сделать выбор в пользу одного или другого "человека", в результате чего они оба упали в яму.

Результаты проведенных экспериментов, по мнению Алана Винфилда, указывают на то, что все современные роботы являются "нравственными зомби", которые не способны сделать своего собственного выбора. Конечно, такую ситуацию можно решить путем существенного расширения запрограммированного набора правил поведения, но роботы в любом случае будут просто выполнять эти правила, не понимая рассуждений, этических и моральных норм, стоящих позади этих правил.



Эту проблему, так или иначе, придется решать в самом ближайшем времени. Ибо вполне вероятно возникновение таких ситуаций, когда, к примеру, автомобилю-роботу придется делать выбор между безопасностью его водителя, пассажиров и риском нанесения повреждений другим водителям или пешеходам. И простым набором правил, который нельзя расширять до бесконечности и которым не опишешь все возможные варианты событий, тут же не отделаешься.

Следует отметить, что первые шаги в этом направлении уже ведутся. Рональд Аркин (Ronald Arkin), инженер-программист из Технологического института Джорджии в Атланте уде разработал ряд алгоритмов для систем управления боевыми роботами. Этот ряд алгоритмом можно рассматривать как своего рода "этический контроллер", который позволит роботам принимать сложные решения на поле боя. Алгоритмы "этического контроля" уже были проверены на математических моделях, подобных современных компьютерным играм военной тематики, и это продемонстрировало их высокую эффективность. Беспилотники и другая робототехническая военная техника отказывалась вести огонь по школам, больницам и другим подобным объектам. А если это и приходилось делать, то огонь велся таким образом, чтобы количество жертв среди мирного населения было минимальным.

"Законы ведения войн разрабатывались и шлифовались в течение тысячелетий" - рассказывает Рональд Аркин, - "И роботы, в которых будут вложены эти законы, никогда их не нарушат в отличие от людей, которые способны преступить черту под силой стечения многих обстоятельств". 

"Немного позже мы сможем взять за основу этические и моральные нормы поведения, разработанные для военных роботов, и без особых затруднений адаптировать их под других различных роботов" - рассказывает Алан Винфилд, - "Подчиняясь этим нормам, роботы будущего будут принимать решения и выполнять действия, причины и последствия которых будут понятны не только самим роботам, но и всем окружающим людям".
 

Первоисточник


Опубликовано: legioner     Источник

Подпишись:





Напишите ваш комментарий к статье:

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.

Новости партнеров

Наверх