Лента TH Новости Искусственный интеллект


Как привлечь искусственный интеллект к ответственности?

∴ 188

Трое ученых опубликовали статью о необходимости привлечения систем искусственного интеллекта к ответственности за свои действия.

410

Сандра Вахтер, Брент Миттельштадт и Лучиано Флориди, из Института Интернета в Оксфорде, предполагают, что на пути противоправных действий со стороны ИИ стоят три основные закона для роботов. Но их не достаточно, чтобы препятствовать осуществлению античеловеческих стратегий [возможно] предпринимаемых машинами.

В научно-фантастических фильмах дается четкое представление о том, как выглядят роботы, ставшие изгоями общества. Но что мы можем предпринять в отношении преступного искусственного интеллекта? Этот агент распространяется свободно в сети, с легкостью охватывая планету.. Когда вы подаете заявку на получение кредитной карты, система ИИ принимает решение, или когда вы сидите без дела на заднем сиденье беспилотного автомобиля, система ИИ везет вас в пункт назначения. ИИ будет нести ответственность за принятие решений, например, следует ли давить пешеходов или разбиться о бетонный столб, или протаранить другой автомобиль, чтобы минимизировать следствие несчастного случая. Как люди, мы хотим подотчетности, хотим чувствовать контроль. Если скоро произойдет сбой в автомобилях Google, мы, скорее всего, будем обвинять Google. Но как насчет более отдаленного будущего, когда есть два таких автомобиля из разных компаний? Как понять технический жаргон, который может возникнуть во время судебного разбирательства, если люди пострадали? Это те проблемы, которые авторы считают первоосновными.

В своей статье авторы полагают, что существуют три основные трудности, стоящие на пути обеспечения уверенности в том, что машины придерживаются тех же стандартов, что и люди, которые их создают.

Во-первых, это разнообразие таких машин. Исследователи отмечают, что необходимо проводить различие между роботами и системами ИИ. Первые – это типы аппаратного обеспечения и управляются программным обеспечением. Вторые – это система, способная принимать решения на основе того, что она узнала. Но ученые также указывают, что системы ИИ настолько отличаются друг от друга, что почти невозможно создать единую систему подотчетности.

Другая проблема – прозрачность. Когда вы сталкиваетесь с системой ИИ, было бы неплохо знать, как она работает. Знать, как она приняла решение. Мы все знаем, что программное обеспечение задействовано постоянно, что алгоритмы шлифуются, и данные хранятся и извлекаются, и что это каким-то образом связано с облаком. Но как мы знаем, что делает данная система? Что делает система, которая может принять решение, очень серьезно влияющее на нашу жизнь? Разобраться с этим, как отмечают авторы, будет сложно.

Третья проблема – это конструкция. ИИ поставляется во многих формах, как невидимая система с голосом робота, которая отвечает, когда вы вызываете поддержку. Как робот, который может наблюдать и оценивать ваше поведение. Или система, которая следит за правописанием, и контролирует перемещение.

Пока что, у нас нет ответов, как обращаться с агентами ИИ. Но положение дел таково, что мы просто обязаны дать их, еще вчера.

Филипп Дончев