Лента TH Новости Искусственный интеллект


Беспилотные автомобили могут принимать моральные и этические решения

∴ 155

Вопреки стереотипному мышлению, новаторское исследование впервые выявило, что человеческая мораль может быть смоделирована. Это означает, что машину можно запрограммировать на принятие моральных решений.

Robot Worm Apple Graphic Trojan Computer Graphics

Ученые, исследующие поведение человека и особенности морального выбора, из Института когнитивных наук в Университете Оснабрюка, использовали виртуальную реальность, чтобы люди могли изучать поведение человека в имитируемых сценариях дорожного движения.

Участников попросили водить машину в типичном пригородном районе в туманный день, но водители постоянно находились в состоянии напряжения, так как на дороге появлялись препятствия в виде ям, автомобилей, животных и людей. Из-за этого, водители должны были постоянно решать, кого щадить. Результаты были обработаны статистическими моделями, объясняющими поведение. Исследование показало, что моральные решения в ограниченном объеме неизбежных дорожных столкновений могут быть хорошо объяснены, смоделированы и интерпретированы.

Леон Сютфельд, соавтор исследования, говорит, что до сих пор считалось, что моральные решения сильно зависят от контекста и поэтому не могут быть смоделированы или описаны алгоритмически.

Но мы нашли совершенно противоположное: поведение человека в ситуациях дилеммы можно моделировать Довольно простая модель на основе жизненного цикла, которая приписывается участником каждому человеку, животному или неодушевленному объекту. Леон Сютфельд, первый автор исследования

Это означает, что человеческое моральное поведение может быть хорошо описано алгоритмами, которые могут быть использованы и машинами.

Результаты исследования имеют серьезные последствия в дискуссии о поведении беспилотных автомобилей и других машин, в неизбежных ситуациях. Например, ведущая новая инициатива Федерального министерства транспорта и цифровой инфраструктуры Германии (BMVI) определила 20 этических принципов, связанных с искусственным интеллектом.
Профессор Гордон Пипа, соавтор исследования, говорит, что, поскольку теперь кажется возможным, что машины могут быть запрограммированы на человеческие, моральные решения, крайне важно, чтобы общество начинало обсуждать эту тему.

Должны ли автономные системы принимать моральные суждения, если да, должны ли они имитировать моральное поведение, подражая человеческим решениям, должны ли они вести себя по этическим теориям, и если да, то по каким именно, и, если что-то пойдет не так, кто или что будет виноватым?Профессор Гордон Пипа, соавтор исследования.

Например, в рамках новых германских этических принципов ребенок, бегущий по дороге, будет классифицирован как причина риска, поэтому приоритет его жизни будет меньше, чем приоритет взрослого, стоящего на тропинке в качестве непричастной стороны. Но является ли это моральной ценностью, которой придерживается большинство людей?

Теперь, когда мы знаем, как внедрять человеческие этические решения в машины, мы, как общество, все еще остаемся с двойной дилеммой. Во-первых, мы должны решить, следует ли включать моральные ценности в руководящие принципы поведения машин, а во-вторых, если они есть, должны ли машины действовать так же, как люди.Профессор Питер Кениг, соавтор статьи.

Авторы исследования говорят, что автономные автомобили – это только начало, поскольку роботы в больницах и другие системы искусственного интеллекта становятся более распространенными. Они предупреждают, что мы находимся сейчас в начале новой эпохи с необходимостью четких правил, иначе машины начнут применять решения без нас.

Филипп Дончев