Лента новостей

00:00
Этот день в истории - 9 Декабря
22:01
«Трибунал по бывшей Югославии — ошибка России»
21:57
Россия возвращается на Ближний Восток
21:52
«Жандарм» не справился с ролью
21:44
Россия поймала попутный ветер
21:39
Американцы запутались в своем вранье про Сирию
21:36
Союз распался, «совок» остался
21:33
Командировка на войну в один конец
21:30
Украина: греть Европу или себя?
19:08
Путин наградил орденом Мужества военных медиков, погибших и пострадавших в Сирии
19:08
СМИ: боевики Джебхат ан-Нусры запросили эвакуацию из Алеппо
19:07
Индекс ММВБ впервые в истории превысил 2200 пунктов
19:04
Сделка по «Роснефти» знаменует новый уровень влияния России в мире
16:10
Внезапная рокировка. Европа заставит Киев отменить антироссийские санкции
16:08
Козырная карта России: чего боятся США и Германия в Алеппо
15:40
Новак объяснил, почему ОПЕК не пригласила США на переговоры в Вене
15:36
Техмаш рассказал о российско-индийском производстве боеприпасов
15:35
Сила искусства
15:27
Крым вернул Украине более тысячи тонн продуктов
15:26
Путин подписал указ о присуждении госпремии Доктору Лизе
15:24
Для студентки Карауловой запросили показательный срок
15:22
Синдром камикадзе. На что способен ядерный Киев?
15:21
Стало известно, какие батальоны чеченского спецназа будут охранять российскую авиабазу в Сирии
15:19
Американский спецназ попал в окружение в Алеппо
15:18
Зачем Катар вошел в Роснефть?
15:17
Для чего советник Трампа Картер Пейдж прибыл в Москву?
15:16
Ляшко набросился на посла ЕС: Нам уже 11-й год морочат голову!
15:15
«Это как если бы Боинг умел садиться на воду»: Что думают иностранцы о русских «Альбатросах»
13:41
История очередной провокации против Вооруженных Сил Беларуси или кто стоит за демаршами «белорусского национального конгресса»
13:41
Скоро Парламент Беларуси ответит, важна ли армия для страны
13:02
Предательство царя? Попса взялась за историю
12:55
Бойцы невидимого фронта: СБУ-ВСУ провалили «штурм» Мариуполя
12:46
Марион Ле Пен: «Части пазла приходят в правильное положение»
12:38
Жизнь и смерть Старого города: первые кадры из освобождённых кварталов Алеппо
12:37
Коалиция США разбомбила госпиталь в Мосуле
12:36
Зенитно-ракетные комплексы С-400 заступили на дежурство на северо-западе России
12:35
Глава Генической райадминистрации начал психическую атаку на Крым
12:35
Запишите: безвиз в январе. Порошенко вновь обещает своим осликам европейскую морковку
12:31
В США рассматривают варианты, при которых Украина откажется от претензий на Крым
12:31
Катар становится собственником «Роснефти»
12:29
Будущий глава Пентагона Джеймс Мэттис сделал первое заявление в адрес Путина
12:27
СМИ сообщили подробности инцидента с Су-33 на «Адмирале Кузнецове»
12:25
Как считать будем: инциденты на авианосце «Адмирал Кузнецов» и опыт ВМФ США
12:25
Порошенко слишком много знает
12:24
Ходорковский снова в деле
Все новости

Архив публикаций

«    Декабрь 2016    »
ПнВтСрЧтПтСбВс
 1234
567891011
12131415161718
19202122232425
262728293031 
» » Современные роботы не могут справиться с решением задач, связанных с выполнением моральных и этических норм

Современные роботы не могут справиться с решением задач, связанных с выполнением моральных и этических норм

Робот и человек

С учетом того, что роботы-андроиды, роботы-автомобили и роботы других видов все больше и больше входят в нашу повседневную жизнь, люди все больше задумываются о том, чем это все может быть чревато для них самих. В принципе, существующие нормы этики и морали не очень сложно оформить в виде наборов неких правил, запрограммировать их и зашить в "мозги" всех роботов. Но в окружающем нас мире очень часто случаются ситуации, когда возникает необходимость сделать быстро непростой выбор, руководствуясь исключительно собственными внутренними нормами и понятиями. И если в случае с человеком выбор будет определен внутренним миром этого человека, то, что в таком случае будет делать робот, не имеющий точных инструкций на такие случаи? Найти ответ на этот сложный вопрос попробовал исследователь-робототехник Алан Винфилд (Alan Winfield) из Лаборатории робототехники, Бристоль, Великобритания.

Алан Винфилд и его коллеги построили своего рода этическую ловушку для роботов. Подопытный робот был запрограммирован таким образом, чтобы своими действиями воспрепятствовать другим роботам, изображающим из себя людей, упасть в яму. В принципе, эта ловушка является упрощенной интерпретацией второй части Первого закона робототехники Айзека Азимова, который звучит следующим образом - "Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред".

Сначала робот-спасатель успешно справлялся со своей задачей. Когда робот, изображающий человека, начинал двигаться к яме, робот-спасатель успешно отталкивал второго робота, смещая его с опасной траектории движения. Но самое интересное началось в тот момент, когда исследователи ввели на поле еще одного робота, изображающего человека, что поставило робота-спасателя перед проблемой выбора. В результате этого ситуации на игровом поле начали происходить по совершенно непредсказуемым сценариям, в одних случаях роботу удавалось спасти обоих "людей", в других - только одного, а в третьих случаях - ни одного. А в 14 случаях из 33 попыток робот-спасатель, "узрев" второго "человека" просто зависал, его программа так и не смогла сделать выбор в пользу одного или другого "человека", в результате чего они оба упали в яму.

Результаты проведенных экспериментов, по мнению Алана Винфилда, указывают на то, что все современные роботы являются "нравственными зомби", которые не способны сделать своего собственного выбора. Конечно, такую ситуацию можно решить путем существенного расширения запрограммированного набора правил поведения, но роботы в любом случае будут просто выполнять эти правила, не понимая рассуждений, этических и моральных норм, стоящих позади этих правил.



Эту проблему, так или иначе, придется решать в самом ближайшем времени. Ибо вполне вероятно возникновение таких ситуаций, когда, к примеру, автомобилю-роботу придется делать выбор между безопасностью его водителя, пассажиров и риском нанесения повреждений другим водителям или пешеходам. И простым набором правил, который нельзя расширять до бесконечности и которым не опишешь все возможные варианты событий, тут же не отделаешься.

Следует отметить, что первые шаги в этом направлении уже ведутся. Рональд Аркин (Ronald Arkin), инженер-программист из Технологического института Джорджии в Атланте уде разработал ряд алгоритмов для систем управления боевыми роботами. Этот ряд алгоритмом можно рассматривать как своего рода "этический контроллер", который позволит роботам принимать сложные решения на поле боя. Алгоритмы "этического контроля" уже были проверены на математических моделях, подобных современных компьютерным играм военной тематики, и это продемонстрировало их высокую эффективность. Беспилотники и другая робототехническая военная техника отказывалась вести огонь по школам, больницам и другим подобным объектам. А если это и приходилось делать, то огонь велся таким образом, чтобы количество жертв среди мирного населения было минимальным.

"Законы ведения войн разрабатывались и шлифовались в течение тысячелетий" - рассказывает Рональд Аркин, - "И роботы, в которых будут вложены эти законы, никогда их не нарушат в отличие от людей, которые способны преступить черту под силой стечения многих обстоятельств". 

"Немного позже мы сможем взять за основу этические и моральные нормы поведения, разработанные для военных роботов, и без особых затруднений адаптировать их под других различных роботов" - рассказывает Алан Винфилд, - "Подчиняясь этим нормам, роботы будущего будут принимать решения и выполнять действия, причины и последствия которых будут понятны не только самим роботам, но и всем окружающим людям".
 

Первоисточник





Опубликовано: legioner     Источник

Похожие публикации


Добавьте комментарий

Новости партнеров


Loading...

Loading...

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Наверх