Только машинного обучения недостаточно!

Amazon и кукольный домик

Первый ситуация связана с голосовым помощником Alexa Echo. Девочка, проживающая в Сан-Диего, случайно заказала кукольный домик. Она озвучила родителям, что хочет купить кукольный домик для себя. В результате программа восприняла это желание как голосовую команду, и отправила заказ в интернет-магазин Amazon.

Эту ситуацию рассказали в местных новостях с комментариями от ведущего, что ему понравилась девочка, которая озвучила родителям: «Alexa заказала мне кукольный домик». После просмотра репортажа по телевизору многие жители стали жаловаться, что у них произошла подобная ситуация.

Данный курьез объясняет тем, что ИИ не распознает каждый человеческий голос. В результате, после просмотра новостей, «умные» помощники сразу принялись оформлять заказ в интернет-магазинах.

Воппер «вреден» для людей?

Аналогичная ситуация произошла с Burger King. Они выпустили небольшую видео-рекламу, в которой говорится о том, что за 15 секунд нельзя рассказать о составе воппера, поэтому стоит обратиться к Википедии. В этот момент актер произносит кодовую фразу «Окей, Google», а дальше задает команду – «Что такое воппер-бургер?».

Таким образом, он хотел показать принцип поиска, а получилось, что он активировал устройства с голосовым помощником Google на поиск. Итогом стало массовая активация Википедии на странице про вопперы.

В качестве ответной меры, многие пользователи подправили электронную энциклопедию в данном разделе. Они написали, что мясо бургеров вызывает рак у клиентов.

Голосовой помощник Microsoft

На презентации своего нового программного продукта под названием Cortana, компания решила провести рекламную презентацию работоспособности голосового помощника. Но почему-то за разработчики забыли учесть один фактор – акцент.

В результате, спикер с явным неамериканским акцентом попытался поговорить с ИИ, но он не смог корректно распознать речь. Cortana на запрос клиента передавала ссылки на магазины, где продается молоко. Изначально просьба звучала «Show me my most at-risk opportunities», а искусственный разум воспринимал как «Show me the buy milk at this opportunity».

«Изменение» внешности

Сотрудники университета Карнеги – Меллона провели исследование на интересную тему. Как известно, искусственный интеллект используется для системы распознавания лиц.

Группа людей в качестве проверки работоспособности ИИ, одевали очки с разными цветовыми гаммами. В результате получились неожиданные результаты. Система распознавала сотрудника, как совершенно другого человека.

При добавлении арта на оправу, ИИ мог определить пользователя как совершенного другого гражданина.

Панда или Гиббон

Схожая ситуация произошла с системой распознавания картинок.

Изначально поисковая система распознавала панду. После добавления небольшого шумового пятна к панде, она стала видеть на картинке гиббона.

Такой пример можно встретить время от времени. Это говорит о несовершенстве поисковых машин, необходимо дорабатывать алгоритмы.

Чат-бот стал нацистом?

Компания Microsoft решила провести эксперимент чатом и программой. Она создала собеседника с именем Tay. По задумке корпорации, чат-бот представлял собой девушку-подростка, которая обучалась в чатах с другими людьми.

В результате данного эксперимента, ИИ стал ярым нацистом. Общение с большинства людей сформировало именно такой поведение у Tay.

Авария с автопилотом

К сожалению, не все ситуация заканчивались счастливо, были и трагические последствия. Например, авария автомобиля Tesla под управлением ИИ.

Владелец транспортного средства управлял машиной с нарушением всех правил и рекомендаций. Он превышал скорость в несколько раз рекомендуемой, убирал руки с руля и выполнял другие действия. Способные привести к серьезному ДТП.

Таким образом, водитель проигнорировал указания системы, а искусственный интеллект не мог взять контроль над авто в свои руки, так как это не заложено в его алгоритмы действия. Результатом стала страшная авария.

После произошедшего ученые подробно разбирали трагический случай. Они пришли к выводу, что его можно было избежать. Для этого необходимо научить искусственный разум оперативно реагировать на бездействия человека, а также распознавать угрозу со стороны движущегося грузовика.

Автопилот смог бы избежать столкновения заранее, и никто не пострадал бы.

Заключение

Исходя из всего вышесказанного становится понятным, что искусственный разум проходит этап активного развития. Исследователи и разработчики стараются учиться на чужих ошибках. Они вносят необходимые коррективы в настройки ПО до момента официального релиза.