Технологии ИИ уже изменили нашу реальность в лучшую сторону: голосовые помощники, распознавание лиц, автопилотируемые машины и многое другое. Умные компьютерные системы существенно ускоряют процесс принятия решений, обрабатывая огромные массивы данных. Но у каждой медали, как известно, есть две стороны. Эксперты задаются вопросом, способно ли сложное ПО, которое функционирует посредством заданных алгоритмов учитывать общечеловеческие ценности? Какие этические проблемы возникают в связи с внедрением ИИ в повседневную жизнь?
Увеличение безработицы
Проведенный среди Российских HR специалистов опрос показал, что к 2050 году примерно треть рабочих мест заменят роботы. В первую очередь, сокращение человеческих ресурсов затронет банковскую, страховую и финансовую отрасль. Несмотря на то, что отечественные инвестиции в разработку и внедрение ИИ пока значительно уступают лидерам отрасли, в перспективе в зоне риска окажутся и другие профессии.
Компания Илона Маска готовится к серийному запуску беспилотных грузовиков, участие водителя в которых сводится к минимуму, позволяя работодателям привлекать меньше сотрудников и снизить издержки по зарплате. Китайская компания Foxconn Texnology Group – крупнейший поставщик Apple и Samsung, планирует в ближайшее время заменить роботами порядка 60 000 рабочих мест. ИИ уже пробует свои силы в творческих профессиях: с помощью алгоритмов создаются виртуальные игровые пространства, генерируются сотни видов дизайна пользовательских интерфейсов и т.д.
Можно утверждать, что компьютерные системы выигрывают конкурентную борьбу с человеком в разных областях. При этом сложно представить, что угроза роста безработицы станет препятствием в использовании искусственного интеллекта. По мнению экспертов, первоочередная задача состоит в создании этических комиссий, регулирующих внедрение машинного труда.
Дискриминация по гендерному и расовому признаку
Компьютерные системы работают на основе обширной базы, в которую могут быть заложены скрытые расовые и гендерные стереотипы. Например, технология распознавания лиц, которая используется в сканерах Face ID, применяется для поиска преступников, обладает признаками сексизма и расизма.
Исследование Массачусетского технологического университета показало, что ошибки в гендерном анализе фотографий темнокожих женщин, в среднем составляют 30 процентов. При этом доля несоответствия в определении пола белокожих мужчин – всего 0,8%. Дело в том, что выборка, на основе которой происходит сравнение и анализ, традиционно включает меньший процент изображений темнокожих, по сравнению с представителями других рас.
В системе правосудия, неточности с распознаванием лиц могут привести к серьезным последствиям. Без максимальной точности ПО риск привлечь к ответственности людей, непричастных к преступлению, достаточно велик.
Военное применение ИИ
Компания Google – одна из гигантов коммерческой отрасли, которая активно пользуется технологиями ИИ, недавно стала участником этического скандала. Летом 2018 года сообщество ученых составило открытое письмо руководству компании, в связи с участием в проекте Maven (программа Министерства обороны США, в которой ИИ используется для определения военных целей на основе анализа снимков беспилотников). Авторы письма призывают Google прекратить участие в разработке автономного оружия, апеллируя к невозможности контролировать этическую сторону вопроса.
Однако сторонники применения ИИ в военной и оборонной промышленности заявляют о том, что мир переходит в эпоху «гипервойн», в которых наряду с физическими атаками возрастает роль цифровых. В опросе, проведенном Брукинским институтом, 45% граждан США высказались в поддержку разработки ИИ для ведения военных действий.
Вмешательство государства в частную жизнь граждан
Китайская система социального кредита, пожалуй, первый полномасштабный эксперимент внедрения государственного управления на основе данных ИИ. К 2020 г все компании и каждый житель страны будут оцениваться единой системой рейтинга в режиме реального времени. Выдача кредита, распределение должностей, предоставление социального обеспечения и другие аспекты жизни граждан будут зависеть от рейтинга, который рассчитает ИИ на основе всех поведенческих шагов.
Руководство страны предполагает, что законопослушным жителям нет нужды скрывать подробности личной и социальной деятельности, наоборот, высокий рейтинг позволит рассчитывать на большое количество привилегий. Однако многие опасаются, что проект приведет к тоталитаризму и репрессиям. Недоверие к алгоритмам ИИ, находящегося под контролем государства, порождает разногласия в этической стороне проекта.
К примеру, система автоматически снижает рейтинг за неуплату штрафа. Но причин для такого поведения может быть несколько. В одном случае человек намеренно уходит от оплаты, в другом – просрочка случилась из-за чрезвычайных обстоятельств, например, экстренной госпитализации. Искусственный интеллект одинаково накажет должников, учитывая только объективную сторону – отсутствие оплаты. В результате даже социально ответственный гражданин классифицируется машинным ПО как нарушитель с соответствующими последствиями.
Идея тотальной слежки с помощью различных алгоритмов ИИ не нова и реализация подобной программы возможна не только в Китае. Правительство США в 2015 году рассматривало возможность включить в досмотр пассажиров перед полетом анализ поведения в социальных сетях, историю покупок и перемещений граждан. Инициатива спровоцировала шквал критики и не была поддержана на законодательном уровне. Однако перспектива того, что в будущем определять степень угрозы и благонадежности человека будет алгоритм, кажется вполне допустимой.
По мнению Джонатана Зитрейна, профессора в области интернет права университета Гарвард, постоянно усложняющиеся компьютерные системы затрудняют процесс контроля и проверки алгоритма. Человеку все трудней проследить всю цепочку от постановки задач до формулирования конечного результата. Поэтому этические нормы внедрения ИИ необходимо разрабатывать уже сейчас, чтобы технологии развивались на благо людей, а не наоборот.