Этические дилеммы беспилотного автомобиля

Jan 10, 2019
Blog

Вы сидите в сверхсовременном робомобиле. Расслабленно листаете FaceBook… Впереди пешеходный переход. С одной стороны идёт семья с маленьким ребёнком, с другой – пожилая пара. Вы не успеваете даже вздохнуть, тормозить поздно, ИИ должен принять решение за вас! Сейчас будет авария, кто-то в этой истории умрет!

Ситуация, при которой искусственному интеллекту действительно придётся решать, кому жить, а кому умереть – это уже не предмет теоретических дискуссий или сюжет фантастики, а ближайшее будущее. Вероятность очень мала, но на больших данных событие неизбежно.

Но сейчас нас интересует не столько вероятность, сколько этическое решение проблемы данной ситуации. Авария на пешеходном переходе. Всеми объектами и действующими лицами управляют законы физики, но вашей машиной – ещё и искусственный интеллект. Рассмотрим задачу, в которой у автопилота есть только три решения:
1. Убить мать с ребёнком;
2. Убить пожилую пару;
3. Убить вас (например, свернув с дороги), хотя вы, вообще-то, этот ИИ купили.

Как следует поступить, если трагедия неизбежна? Кто умрёт? А кто имеет право принять такое решение?

Вопрос “кем жертвовать?” отсылает нас к т.н. “проблеме вагонетки”, мысленному эксперименту английского философа Фута. Классический вариант такой:
“Тяжёлая неуправляемая вагонетка несётся по рельсам. На пути её следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?”

Важнее всего в подобной задаче не нахождение конкретного решения, а то, как его ищут. Человек выбирает вариант исходя из собственных моральных принципов, и большинство жертвует жизнью одного, чтобы спасти больше. Но вот ИИ в своих действиях будет ориентироваться на оценку рисков и вероятностей. И как тут поступать – пока не ясно.

По утилитарной этике, машина должна минимизировать вред, даже если такое действие приведет к чьей-то гибели. С другой стороны, ещё по “законам роботехники” Айзека Азимова, робот не может причинить или допустить вред человеку. Выходит, такой ИИ находится в цугцванге, любое его решение – ошибочно!

Учёные из Массачусетского технологического института опросили больше миллиона человек со всего мира. Как люди считают правильным поступать в таких ситуациях?

Большинство из нас придерживается утилитарной логики, ведущей к меньшим жертвам. Почему же не принять это за правило, которому мы обучим автопилоты? Дело в том, что если спросить у сторонников минимизации ущерба, купят ли они, скажем, Теслу, которая в определенной ситуации пожертвует их жизнью ради общего блага, – они обычно отказываются.

Инстинкт самосохранения не преодолеть. Идеальным вариантом человек видит тот случай, когда он купит машину, которая будет его защищать. А вот остальные пусть заботятся о минимизации жертв. Это отсылает нас к ещё одной старой этической проблеме, называемой “трагедия общих ресурсов”. Смысл её заключается в следующем. Используя общий ресурс, человек стремится в первую очередь получить выгоду для себя, а вот риски переложить на остальных. А в итоге в проигрыше все. Вообще, человечество регулирует подобные ситуации с помощью законов. Но в сфере этики искусственного интеллекта юридические нормы ещё только начали разрабатываться. И на данный момент беспилотный автомобиль, наиболее вероятно, будет до последней секунды маневрировать, пытаясь избежать аварии, даже если это не эффективно. В итоге, кому жить, а кому умереть определят законы физики и случай, а не чьё-то решение. Тоже вариант, но скорее от безысходности, мол, мы сделали всё, что могли.

Итак, ответ у данного вопроса такой. На сегодняшний день ИИ не вправе пожертвовать своим пассажиром, поэтому умрет кто-то из пешеходов. А кто же сядет? Вопрос тоже открытый, так как в корпорациях садиться не хотят. Водитель вообще не при делах, ну а пешеходам это уже безразлично.

P. S. Кстати жестокий но не бессмысленный вариант – пожертвовать теми, кто менее полезен обществу. Подробнее – в нашей статье “Зачем демократия, когда есть данные?”. Поступаем следующим образом: приносим в жертву тех, чей социальный рейтинг ниже (кто не рассчитывается вовремя по кредитам, покупает спиртное слишком часто или плохо говорит о властях).

Previous articleNext article