По мнению Google и Microsoft искусственный интеллект может вредить бизнесу

Какие ошибки возникают?

Ежегодно корпорации предоставляют отчет инвесторам. В нем указываются результаты успешной работы, стратегия на будущий год и финансовая отчетность. Документ содержит также перечень провалов, которые возникли в течение предыдущего года.

Компании Microsoft и Google включили в последний отчет информацию о рисках, связанных с неудачами при исследовании или работе с нейросетями. В результате ущерб будет выражаться не только в финансовом эквиваленте, но и моральном. Неработающий продукт будут связывать с компаниями, что негативно отразится на репутации и снизит доходы в будущем.

К примеру, расчет по некорректному алгоритму может привести к неверному результата. Соответственно, на основе данных будет принято ошибочное решение, способное повлечь дополнительные проблемы.

Также решения на искусственном интеллекте не должны ущемлять права человека, нарушать границы личной жизни, пропагандировать агрессивные формы поведения (фашизм, расизм) или наркотические вещества (например, алкоголь).

23 марта 2016 года корпорация «Майкрософт» запустила бота Microsoft Tay, который был первой разработкой на основе нейронных сетей. Он должен был стать миролюбивым собеседником, но за 24 часа с момента запуска, превратился в нациста. Бот оставлял записи, в которых предлагал уничтожить феминисток, а также «признавался», что ненавидит евреев.

Второй известный случай – ошибка алгоритма идентификации пользователей по лицу на электронной площадке Amazon. Система неверно различала пол чернокожих людей в 30% случаях. Аналогичный сервис компании Microsoft ошибался в 1,5% случаев.

По данным печатного издания Wired, исследования и разработки нейронных сетей идут уже несколько лет, но только сейчас инвесторы стали закладывать риски в ежегодные отчеты.