Лента TH Новости Искусственный интеллект



Этический скандал Google

∴ 416

Что будет, если вы выпустите слишком человечный Искусственный Интеллект? Что, если он идеально пройдет Тест Тьюринга? Вас обвинят в нарушении законов этики.

1543

Несколько дней назад на ежегодной конференции разработчиков I/O Google поисковый гигант представил новую систему ИИ под названием Duplex. Система взаимодействует с Google Assistant и может неплохо разговаривать с людьми, посредством телефонных звонков. Примером возможностей ассистента может послужить резервирование столика в ресторане, или запись к парикмахеру.

Однако не все зрители были довольны новаторской презентацией. Данное представление вызвало протест в сфере этики. Ведь по сути, ИИ обманывал людей, выдавая себя за человека. Протестующие требуют, чтобы искусственный интеллект не был похож на человека, и давал понять собеседнику, что тот говорит с машиной.

Большой отличительный признак Google Duplex – способность вести естественный разговор. Система запрограммирована на быстрое время отклика и включает в себя то, что Google называет «речевыми недостатками», чтобы звучать более естественно. А именно: «ээээ», «нуууу», «ммммм» и так далее. А это можно рассматривать как очередное, успешное прохождение теста Тьюринга.

Демонстрация технологии на конференции была впечатляющей и поразительной. В первом примере Duplex позвонил в парикмахерскую и запланировал встречу. Второй пример связан с еще более сложным разговором. Система позвонила в ресторан, чтобы зарезервировать столик. В ходе разговора собеседник заявил, что места есть, и ничего бронировать не надо. Понимая это, Duplex поблагодарила человека и повесила трубку.

Эти примеры человечески звучащих агентов ИИ, взаимодействующих с реальными людьми, бесспорно, впечатляют. Единственный минус – указан выше. Представители компании Google заявили, что вопрос этики не рассматривался при конструировании ИИ. Сейчас же создается впечатление, что развитие современных технологий пошло как-то не так.

Неужели в Google не рассчитали то, как будет воспринята его новая технология? Был ли это тот самый случай, когда компания Кремниевой Долины разрабатывала технологию в полном вакууме, не понимая реальных последствий продукта?
В блоге, опубликованном одновременно с презентацией, Янив Левиафан, главный инженер, и Йосси Матиас, вице-президент по машиностроению, просто в восторге от потенциала технологии.

Однако, в их записи в блоге есть интересный абзац. В нём сказано:

Для нас важно, чтобы пользователи и предприятия получили хороший опыт при работе с этим сервисом, а прозрачность – это его ключевая часть. Мы хотим добиться того, чтобы данный ассистент научился понимать контекст. Мы будем экспериментировать с правильным подходом в ближайшие месяцы.Из блога разработчиков.

Исследователи ИИ должны делать продукт таким, чтобы люди могли легко сказать, взаимодействуют ли они с другим человеком или с машиной.Эрик Брынджольфссон (Erik Brynjolfsson), профессор Массачусетского технологического института, в интервью Washington Post.

Нам нужны основополагающие правила. Одно из предложений: «Закон Тьюринга красного флага». Роботы должны быть спроектированы так, чтобы было ясно, что они роботы, и они также должны идентифицировать себя как роботов.Арвин Нараянан из Принстонского университета.

Помимо опасений по поводу того, что технология может быть использована для телемаркетинга и робототехники, этическая проблема становится всё згначительней. Нужно ли ИИ идентифицировать себя при общении с человеком?

В ответ на растущие споры Google опубликовал заявление о том, что полное раскрытие будет включено в программное обеспечение.

Мы понимаем и оцениваем напряженние вокруг Google Duplex. Как мы уже говорили с самого начала, нам крайне важна прозрачность данной технологии. Мы разрабатываем эту функцию с помощью встроенного раскрытия, и мы удостоверимся, что система правильно себя идентифицирует. То, что мы показали в I/O, было ранней технологической демонстрацией, ради получения обратной связи. И её мы обязательно интегрируем в продукт.Пресс-секретарь Google в интервью CNET

Протесты и этика – это реалии наших дней. А отойдя от них, мы видим будущее, в котором можем общаться со своими искусственными ассистентами как с людьми. Разве это не тот прогресс, которого мы жаждем?

Филипп Дончев