Autonomus Публикации Кого должен убить робот? О морали беспилотных автомобилей

Кого должен убить робот? О морали беспилотных автомобилей

305
0

Представьте, что вы — беспилотный автомобиль который едет по дороге. Вы обнаруживаете прямо перед собой препятствие, и избежать столкновения уже не получится. У вас есть 2 варианта — свернуть и врезаться в дерево, убив вашего пассажира, или продолжить движение и задавить двоих пешеходов, которые идут мимо. Как поступить в этой ситуации? Кто должен это решать?

Ученые из лаборатории Массачусетского технологического университета создали базу данных, которую они назвали «Моральная машина» (в оригинале «Moral Machine»). Они опросили людей, приводя в пример сценарии, в которых оба варианта развития ситуации являются неприемлемыми с точки зрения результата. Например, любое из двух возможных действий приведет к человеческим жертвам.

Никогда в истории человечества мы не разрешали машине самостоятельно решать, кто должен жить, а кто должен умереть. Решать за долю секунды, без размышлений. Сегодня мы готовимся это сделать.

Большинство ответов были предсказуемы. Люди предпочитали спасти детей, пожилых людей и женщин.

Но даже если мы опросим всех людей планеты, очевидного ответа, который поможет сделать правильный выбор, мы не получим. Французы и греки будут отдавать приоритет людям молодого поколения, а китайцы наоборот — старшего. Или у машин должны быть свои правила для каждой страны?

Прежде чем мы разрешим нашим автомобилям принимать этические решения, нам нужно вынести этот вопрос на широкое, глобальное обсуждение. 

Обсуждение вопроса началось не сегодня. Еще в 1942 году Айзек Азимов сформулировал известные всем законы роботехники, в которых говориться, что робот не должен своим действием или бездействием нанести вред человеку.

Три закона роботехники Айзека Азимова

Но как ему быть, если появится неизбежный выбор, и нужно решать кого именно спасать?

Журнал Guardian приводит данные одного из своих опросов на эту тему:

76% человек согласились с тем, что беспилотный автомобиль должен пожертвовать своим пассажиром, вместо того, чтобы сбить 10 пешеходов. Они также согласились с тем, что программировать машины таким образом является допустимым с точки зрения морали, ведь это должно до минимума снизить число жертв ДТП, вызванных наездом автомобиля на пешеходов. 

На первый взгляд может показаться, что такое единодушие дает нам надежду на создание единого, общего для всех стандарта, с которым будет согласно большинство.

Однако, мнение человека резко меняется, когда ему указывают, что внутри беспилотного автомобиля будет находится он сам, либо его близкий человек:

Когда людей спрашивали, купят ли они автомобиль, который будет ставить в приоритет жизнь пешехода, а не их собственную, энтузиазм угасал. Было видно, что беспилотник, иногда приносящий в жертву своего пассажира ради общего блага — прекрасная идея. Но только не для них самих.

Таким образом этот вопрос остается неразрешенным сегодня. Впрочем, мы уверены, что это не станет большим препятствием для развития и внедрения беспилотных технологий в жизнь.

(3 оценок, среднее: 5,00 из 5)
Загрузка...

ОСТАВИТЬ КОММЕНТАРИЙ

Please enter your comment!
Please enter your name here

восемнадцать − шесть =