Введение
С активным развитием искусственного интеллекта все чаще стал подниматься вопрос об этических нормах, которые должны соблюдать при работе с ним. Организации стараются озвучить основные постулаты нового решения, позволяющее использовать ИИ в благо и без нарушений прав человека. В России одна из компаний, которая занимается подобным вопросами – информационный центр 21 век.
Основные проблемы и методы решения
Основатель центра инновационных технологий, который расположен в Брукингском институте, Даррел Уэст выдвинул четыре основные проблемы. Они характеризуют в целом ситуацию, которая возникла на текущий момент при использовании ИИ.
- Искусственный интеллект в военной сфере;
- Осуществление тотального контроля за гражданами внутри одной страны или в целом мире;
- ИИ как инструмент надзора за государственным организациями и их действиями;
- Использование искусственного интеллекта как средство для анализа поведения каждого гражданина в жизни общества.
Выдвинув данные вопросы, Уэст провел анализ сложившейся ситуации в мире на текущий момент и предложил методы развития ИИ в ближайшем будущем.
Прежде всего, организациям необходимо разработать кодекс этики для искусственного интеллекта. В нем должно быть указаны методы и варианты решения возникающих проблем при использовании нейронных сетей. Соответственно, в обязательном порядке должны быть введены практические занятия.
Во-вторых, обучать отдельных граждан как специалистов по этике общения с ИИ. Соответственно, создать кафедры и отдельные институты для изучения данного вопроса, и, как следствие, создание дисциплины. Студенты, окончившие такие ВУЗы, должны уметь решать проблемы этики при постановке задачи ИИ.
Третьим моментом, заслуживающим внимания, Даррел считает логирование. С его точки зрения, должен вестись специальный журнал, в котором записываются все изменения. Сотрудник внес новый код или удалил часть старого – отмечает в документе, что именно было сделано и в каком месте.
В-четвертых, обязательно необходимо ввести обратную связь. Это поможет понять специалистам насколько эффективны методы и решения, которые они применяют при работе с ИИ.
И, последнее – прогнозирование и аналитика. Как действие, совершенное специалистом, отразится в будущем. Такие прогнозы помогут убрать заранее неэффективные решения или вызывающие сложности.
Прогноз будущего
Многие крупные компании провели анализ сложившейся ситуации, и выложили в общий доступ свое видение ситуации.
Организации IEEE, которая занимается развитием стандартов, считает, что необходимо ввести единый стандарт. На его основании будут соблюдаться этические нормы при создании и дальнейшей эксплуатации ИИ.
Microsoft, Amazon и другие предлагают создать отдельное юридическое лицо под названием OpenAI. Компания будет создавать протоколы с открытым исходным кодом, который в дальнейшем будут использоваться при разработке искусственного интеллекта.
Мировой поисковый гигант Google высказывается о том, что необходимо сфокусироваться на сотрудниках, которые разрабатывают ИИ. С их точки зрения, на начальном этапе проектирования в нейронные сети должны быть заложены принципы соблюдения этических норм, а не дорабатываться потом. Также ИИ должен приносить пользу обществу и быть подконтролен людям, а не государствам.
Политика «двойных стандартов»
Как и в любой ситуации, разработка и внедрение искусственного интеллекта содержит и негативные моменты, которые условно можно назвать технологиями «двойного назначения». То есть для каких целей будет использоваться созданный ИИ, и кто именно будет его использовать.
Условно можно выделить несколько направлений, в которых возможно эксплуатация искусственного интеллекта как в благих, так и в негативных целях.
- Военная сфера деятельности. Многие организации выступаю против активного использования ИИ в данной сфере;
- Контроль границ государства не должно полностью лежать на ИИ. Именно такую позицию занимают крупные компании. С их точки зрения, нейронная сеть должны быть вспомогательным инструментом;
- Тотальный контроль над гражданами страны или мира в целом. Данный пункт нарушает личные права человека, несмотря на то, что такой подход помогает найти быстрее злоумышленников или террористов;
- Система распознавания лиц гораздо хуже работает с темнокожими людьми. Такой пункт создает определённый волнения и проблемы в толерантных странах. В данной ситуации требуется определенная доработка программного кода или пересмотр использования системы;
- Рейтинговая система каждого гражданина, которая активно используется в Китае. Каждые человек внимательно анализируется и получает внутренний балл. На основании его оценивается полезность для государства. Чем он полезнее, тем больше льгот ему предоставляется в Китае.
Заключение
Как можно заметить из статьи использование искусственного интеллекта в различных сферах жизнедеятельности порождает множество проблем. Требуется тщательный подход в каждой ситуации, а также разработка определенных правовых норм.