Этические проблемы использования искусственного интеллекта

Технологии ИИ уже изменили нашу реальность в лучшую сторону: голосовые помощники, распознавание лиц, автопилотируемые машины и многое другое. Умные компьютерные системы существенно ускоряют процесс принятия решений, обрабатывая огромные массивы данных. Но у каждой медали, как известно, есть две стороны. Эксперты задаются вопросом, способно ли сложное ПО, которое функционирует посредством заданных алгоритмов учитывать общечеловеческие ценности? Какие этические проблемы возникают в связи с внедрением  ИИ в повседневную жизнь?

Увеличение безработицы

Проведенный среди Российских HR специалистов опрос показал, что к 2050 году примерно треть рабочих мест заменят роботы. В первую очередь, сокращение человеческих ресурсов затронет банковскую, страховую и финансовую отрасль. Несмотря на то, что отечественные инвестиции в разработку и внедрение ИИ пока значительно уступают лидерам отрасли, в перспективе в зоне риска окажутся и другие профессии.

Компания Илона Маска готовится к серийному запуску беспилотных грузовиков, участие водителя в которых сводится к минимуму, позволяя работодателям привлекать меньше сотрудников и снизить издержки по зарплате. Китайская компания Foxconn Texnology Group – крупнейший поставщик Apple и Samsung, планирует в ближайшее время заменить роботами порядка 60 000 рабочих мест. ИИ уже пробует свои силы в творческих профессиях: с помощью алгоритмов создаются виртуальные игровые пространства, генерируются сотни видов дизайна пользовательских интерфейсов и т.д.

Можно утверждать, что компьютерные системы выигрывают конкурентную борьбу с человеком в разных областях. При этом сложно представить, что угроза роста безработицы станет препятствием в использовании искусственного интеллекта. По мнению экспертов, первоочередная задача состоит в создании этических комиссий, регулирующих внедрение машинного труда.

Дискриминация по гендерному и расовому признаку

Компьютерные системы работают на основе обширной базы, в которую могут быть заложены скрытые расовые и гендерные стереотипы. Например, технология распознавания лиц, которая используется в сканерах Face ID, применяется для поиска преступников, обладает признаками сексизма и расизма.

Исследование Массачусетского технологического университета показало, что ошибки в гендерном анализе фотографий темнокожих женщин, в среднем составляют 30 процентов. При этом доля несоответствия в определении пола белокожих мужчин – всего 0,8%. Дело в том, что выборка, на основе которой происходит сравнение и анализ, традиционно включает меньший процент изображений темнокожих, по сравнению с представителями других рас.

В системе правосудия, неточности с распознаванием лиц могут привести к серьезным последствиям. Без максимальной точности ПО риск привлечь к ответственности людей, непричастных к преступлению, достаточно велик.

Военное применение ИИ

Компания Google – одна из гигантов коммерческой отрасли, которая активно пользуется технологиями ИИ, недавно стала участником этического скандала. Летом 2018 года сообщество ученых составило открытое письмо руководству компании, в связи с участием в проекте Maven (программа Министерства обороны США, в которой ИИ используется для определения военных целей на основе анализа снимков беспилотников). Авторы письма призывают Google прекратить участие в разработке автономного оружия, апеллируя к невозможности контролировать этическую сторону вопроса.

Однако сторонники применения ИИ в военной и оборонной промышленности заявляют о том, что мир переходит в эпоху «гипервойн», в которых наряду с физическими атаками возрастает роль цифровых. В опросе, проведенном Брукинским институтом, 45% граждан США высказались в поддержку разработки ИИ для ведения военных действий.

Вмешательство государства в частную жизнь граждан

Китайская система социального кредита, пожалуй, первый полномасштабный эксперимент внедрения государственного управления на основе данных ИИ. К 2020 г все компании и каждый житель страны будут оцениваться единой системой рейтинга в режиме реального времени. Выдача кредита, распределение должностей, предоставление социального обеспечения и другие аспекты жизни граждан будут зависеть от рейтинга, который рассчитает ИИ на основе всех поведенческих шагов.

Руководство страны предполагает, что законопослушным жителям нет нужды скрывать подробности личной и социальной деятельности, наоборот, высокий рейтинг позволит рассчитывать на большое количество привилегий. Однако многие опасаются, что проект приведет к тоталитаризму и репрессиям. Недоверие к алгоритмам ИИ, находящегося под контролем государства, порождает разногласия в этической стороне проекта.

К примеру, система автоматически снижает рейтинг за неуплату штрафа. Но причин для такого поведения может быть несколько. В одном случае человек намеренно уходит от оплаты, в другом – просрочка случилась из-за чрезвычайных обстоятельств, например, экстренной госпитализации. Искусственный  интеллект одинаково накажет должников, учитывая только объективную сторону – отсутствие оплаты. В результате даже социально ответственный гражданин классифицируется машинным ПО как нарушитель с соответствующими последствиями.

Идея тотальной слежки с помощью различных алгоритмов ИИ не нова и реализация подобной программы возможна не только в Китае. Правительство США в 2015 году рассматривало возможность включить в досмотр пассажиров перед полетом анализ поведения в социальных сетях, историю покупок и перемещений граждан. Инициатива спровоцировала шквал критики и не была поддержана на законодательном уровне. Однако перспектива того, что в будущем определять степень угрозы и благонадежности человека будет алгоритм, кажется вполне допустимой.

По мнению Джонатана Зитрейна, профессора в области интернет права университета Гарвард, постоянно усложняющиеся компьютерные системы затрудняют процесс контроля и проверки алгоритма. Человеку все трудней проследить всю цепочку от постановки задач до формулирования конечного результата. Поэтому этические нормы внедрения ИИ необходимо разрабатывать уже сейчас, чтобы технологии развивались на благо людей, а не наоборот.