Rambler's Top100
Все новости Новости отрасли

В России появился кодекс этики для «машин»

27 октября 2021

Крупные российские компании вчера подписали первый на отечественном рынке Кодекс этики искусственного интеллекта. Его разработка предусмотрена стратегией развития ИИ до 2030 года и федеральным проектом «Искусственный интеллект». Пока соблюдение норм этого документа носит добровольный характер.

Как сообщает "КоммерсантЪ" , документ подписали Сбербанк, «Яндекс», «Ростелеком», МТС, Mail.ru, «Газпром нефть», Infowatch, «Росатом», ЦИАН. Также к кодексу присоединились НИУ-ВШЭ, «Сколтех», МФТИ, ИТМО, Иннополис, РФПИ и Институт системного программирования им. В. П. Иванникова. Вице-премьер Дмитрий Чернышенко вчера выразил надежду, что до конца года к кодексу присоединятся до ста компаний.

Разработкой свода правил занимались Альянс ИИ (включая Сбербанк, который является «ответственным» за развитие этой технологии) и Аналитический центр при правительстве. Подобные документы есть в 20 странах, у 35 крупных компаний в мире уже есть и собственные кодексы (в России — у Сбербанка, «Яндекса» и ABBY).

В 12-страничном кодексе кратко зафиксированы принципы человекоориентированности систем ИИ, сохранения автономии и свободы воли в обществе, отсутствия дискриминации и непричинения вреда.

В нем рекомендуется применение «риск-ориентированного подхода» — соотнесения жесткости регулирования с потенциальным влиянием создаваемых систем (методику оценки рисков предлагается разработать дополнительно). Ответственность за применение искусственного интеллекта всегда должна оставаться за человеком (в том числе на ИИ не должны перекладываться «полномочия ответственного нравственного выбора»). В документе закреплено, что применение технологий «сильного» (схожего с человеческим) ИИ должно находиться под контролем государства.

Из практических аспектов кодексом обозначено требование об идентификации ИИ при общении с человеком, «когда это затрагивает вопросы прав человека и критических сфер его жизни», а также об обеспечении безопасности в работе с данными. Закрепляется условия конкуренции между компаниями. Она не должна вредить развитию технологии, поэтому рекомендуется обеспечивать доступность данных и совместимость систем там, где это возможно, а также предоставлять достоверную информацию о применяемом ИИ. Для контроля за исполнением кодекса планируется создание специальной комиссии по этике на базе Альянса ИИ.

Отметим, нормативное регулирование в этой области по-прежнему остается одной из наиболее обсуждаемых тем. При этом как китайский опыт активного использования ИИ для распознавания лиц и в инструментах скоринга, так и европейский, когда вводятся жесткие ограничения на использование личных данных, не находят всеобщей поддержки (во втором случае — из-за торможения развития этой технологии). Между тем, как предупреждал в своей недавней статье об эффектах развития ИИ на экономику профессор Массачусетского технологического института Дарон Асемоглу, отсутствие норм может повлечь риски, которые снизят общее благосостояние, негативно скажутся на ценовой конкуренции и на рынке труда.

В России уровень доверия населения к ИИ выше среднемирового: 48% против 28%. Однако участники рынка признают, что эта статистика является в том числе следствием не слишком глубокого проникновения технологий (то есть отсутствия ситуаций, когда выбор ИИ испугал бы пользователей, а не как такого его использования).

Пока давать ИИ последнее слово в принятии решений российские компании не планируют.

К примеру, беспилотные автомобили «Яндекса», по словам главы компании Елены Буниной, порой не могут сдвинуться с места, так как в их алгоритмах заложено соблюдение всех правил. В Сбербанке, у которого, по словам первого заместителя председателя правления Александра Ведяхина, 99% решений по кредитам физлицам и 30% — юрлицам принимаются автоматически, обещают раскрывать причины отказов и в случае неоднозначных ситуаций проводить повторную оценку уже с привлечением человека.

Источник: КоммерсантЪ

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.