Лента новостей

16:58
Новое лицо войны
16:56
Убить ИС-3: Как шведы безуспешно пытались создать мощный танк
16:53
75 лет в авангарде
16:52
Трамп делает ставку на морпехов
16:51
Супер-БМП Т-15 Армата: впервые с действующим Афганитом
16:50
Боязнь русских заставила НАТО лететь в Прибалтику: ВВС Испании уже в пути
16:49
У «Искандера» появится новое лицо
16:48
Порошенко присвоил убийце звание Героя Страны
16:46
Что делают британские танки в тоннеле под Ла-Маншем
16:45
Порошенко анонсировал обеспечение армии новейшим оружием
16:44
Дальность действия — земной шар: почему ПАК ФА везде дотянется
16:34
Как морпехи США используют научную фантастику
16:33
Сирия, сводка: САА наступает в Хомсе и Алеппо, Тияс стал гробницей для ИГ
16:32
Неуправляемый «Трайдент»: Британские СМИ сообщили об инциденте с ядерной ракетой
16:20
Истребитель F-35 оказался ещё хуже, чем думали
16:17
Разрушения, рабство, смерть: беженцы Дейр эз-Зора сообщили о жизни при ИГ
16:16
Спецслужбы Украины лезут в Москву
16:15
Новый штурмовой комбинезон Альфа-1: невидим для врага, удобен для носителя
16:08
Ажиотаж по-японски: противолодочный корабль «Адмирал Трибуц» ошеломил местных жителей
16:07
«Конфету этому хлопцу»… Порошенко боится конкуренции
15:14
Патриоты в истерике: ЦРУ рассекретили документы про преступления ОУН-УПА
15:13
Юрий Селиванов: Отмороженная элита Америки
15:12
Тягнибок в бешенстве: мэра Львова Садового надо расстрелять
15:12
Дональд Трамп и новый американский патриотизм
15:10
Евросоюз приготовился к войне с США
15:09
Хочу такую речь от Путина!
15:07
Савченко под прицелом ВСУ: подробности спецоперации
15:06
Отдаст ли Трамп Беларусь на откуп Москве?
15:05
Марионетка Яценюк снова в деле. Кто вернёт его в большую политику
15:02
США начали отсчет: "Минск-2" становится головной болью Киева
15:01
Он не зря помолился пред боем
14:58
Украинцы в бешенстве: политиков нужно расстрелять за подхалимство к Трампу
14:55
Разоблачавший ЦРУ немецкий журналист не смог встретиться с Трампом — был найден мёртвым
14:54
Инаугурация Трампа: выиграно сражение, но не битва
14:51
Геноцид русского языка на Украине
14:49
Инаугурация Трампа, или съезд расколовшейся партии Саакашвили?
14:47
«Собиратель земель» Порошенко: единство любой ценой
14:45
За русский язык – в тюрьму: украинизация достигла новой точки
14:44
Россия пояснила Азербайджану: Конфликт с Нагорным Карабахом
14:43
В ответе за Крым: россияне массово переезжают на полуостров
14:41
Сатановский: Астана - гениальная площадка для переговоров по Сирии
14:40
Генри Киссинджер: Именно президент России Путин поддерживает равновесие на планете
14:39
Покушение на Геращенко - инсценировка, которую готовили СБУ и МВД
14:34
Саакашвили объяснил свое фото в кустах на инаугурации Трампа связями авторов снимков с Россией
14:33
Пресс-секретарь Трампа объявил войну «лживым СМИ»
Все новости

Архив публикаций

«    Январь 2017    »
ПнВтСрЧтПтСбВс
 1
2345678
9101112131415
16171819202122
23242526272829
3031 
» » Ученые собираются привить этику и мораль системам искусственного интеллекта робототехнических систем

Ученые собираются привить этику и мораль системам искусственного интеллекта робототехнических систем

Робот

Группа исследователей из университета Тафтса (Tufts University), университета Брауна (Brown University) и Ренселлеровского политехнического института (Rensselaer Polytechnic Institute) уже несколько лет работают в направлении создания роботов, поведение которых не будет подчиняться строгому набору правил. Эти роботы смогут изменять свое поведение в соответствии с заложенными в них нормами морали и этики, которые будут максимально приближены к нормам поведения человека. Если работа ученых увенчается успехом, то в результате этого появится искусственный интеллект, способный оценить текущую ситуацию и принять сложные с этической точки зрения решения, которые будут иметь более высокий приоритет, нежели строгий набор инструкций, заложенный в программу поведения робота.

Семьдесят два года назад, писатель-фантаст Айзек Азимов ввел понятие трех законов робототехники, которые являются своего рода "моральным компасом", направляющим действия высокоразвитого искусственного интеллекта. К сожалению, уровень развития современных технологий искусственного интеллекта не позволяет робототехническим системам воспринимать полную информацию об окружающей их среде, и до появления первых роботов, способных осознавать и руководствоваться законами Азимова, пройдет еще очень много времени.

Тем не менее, исследователи из университета Тафтса, возглавляемые профессором Мэттиасом Шеуцем (Prof. Matthias Scheutz), занимаются проблемами робототехнической морали и этики уже достаточно давно. Исследователи пытаются разложить принципы человеческой морали на набор более простых основных правил, соблюдение которых позволит поведению робототехнических систем подражать поведению высокоморального человека. Разрабатываемая учеными структура правил формализуется в структуру алгоритмов, которые могут быть включены в систему искусственного интеллекта. И внедрение этих алгоритмов позволит автоматической системе оправдывать свои действия и обходить набор четких правил в тех случаях, если поведение системы может выйти за рамки общепринятых моральных норм.

Примером вышесказанному может послужить следующая ситуация. Представьте себе, что роботу-санитару поручено доставить раненого бойца к ближайшему медицинскому пункту для оказания ему там помощи. Но в момент транспортировки раненого на пути робота встречается еще один раненый человек, находящийся в критической ситуации. Вышеупомянутый "моральный компас" позволит роботу прервать выполнение текущего основного задания, оценить имеющуюся ситуацию и принять решение о немедленном оказании помощи найденному человеку или о продолжении выполнения первоначальной задачи по транспортировке первого человека.

Одной из главных мыслей, которые можно почерпнуть из романов Айзека Азимова, является то, что никакой, пусть даже очень обширный набор четких правил, не сможет обеспечить правильную работу робототехнической системы в каждом из возможных сценариев развития событий. В любой цепочке событий рано или поздно произойдет неожиданное отклонение, которое введет робототехническую систему в ступор и послужит причиной совершения роботом "необдуманных" действий. Профессор Шеуц и его коллеги полностью соглашаются с этим постулатом, и для преодоления ограничений ими была разработана двухступенчатая система принятия решений.

С точки зрения исследователей, все решения, принятые системой робота, должны проходить предварительную "моральную оценку", реализацию которой уже можно видеть в системе искусственного интеллекта суперкомпьютера Watson компании IBM. Если принятое решение удовлетворяет моральным нормам, то оно принимается к исполнению. В обратном случае вырабатывается еще одно решение, источником которого является система, разработанная группой профессора Шеуца, и которая учитывает все сложности человеческой этики.

Следует отметить, что работы исследователей в данном направлении проводятся по заказу и финансируются ВМС США. Поэтому первые роботы, которые получат наборы моральных правил и ограничений, будут являться боевыми роботами и роботами, оказывающими солдатам всевозможную помощь. И это, в свою очередь, сможет послужить гарантией того, что сценарии наподобие сценария фильма "Терминатор" станут попросту невозможными.





Опубликовано: legioner     Источник

Похожие публикации


Добавьте комментарий

Новости партнеров


Loading...

Loading...

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
Наверх