Rambler's Top100
 
 
Все новости Новости отрасли

ЕС опубликовал закон против порабощения человечества искусственным интеллектом

10 апреля 2019

Европейский Союз опубликовал черновик Директивы об этичном подходе к разработке искусственного интеллекта. В документе указывается, что ИИ должен «соблюдать закон, этические нормы и быть надежным», и все эти составляющие должны учитываться в равной степени. В случае, если какая бы то ни было из них отсутствует, общество должно немедленно добиваться исправления этого недостатка.

«Этическое измерение ИИ - это не премиальная характеристика или аддон, - отметил член Еврокомиссии Андрус Ансип (Andrus Ansip), отвечающий за направление единого цифрового рынка ЕС. - Наше общество может что-то выиграть от технологий только в случае полного к ним доверия».

В 41-страничном документе Директивы указывается, что именно сейчас существует возможность удостовериться, что системы искусственного интеллекта будут «человекоцентричными, нацеленными целиком и полностью на то, чтобы служить человечеству и общему благу и на то, чтобы способствовать совершенствованию условий человеческого существования и его свободе».

Директива выделяет семь основных факторов этической разработки ИИ. Искусственный интеллект должен создаваться в поддержку субъектности человека, а не наоборот; он должен быть надежным, устойчивым к ошибкам и лишенным уязвимостей перед атаками; граждане, в свою очередь, должны иметь контроль над своими данными, и эти данные не должны использоваться для причинения им вреда.

В документе также указывается, что общественность должна иметь полное представление о том, какие работы по созданию ИИ ведутся, и что всякая разработка искусственного интеллекта должна вестись с учетом ключевой идеи: совершенствование общества и окружающей среды. Также должны учитываться справедливость и многообразие; плюс к этому должны создаваться механизмы, обеспечивающие «ответственность ИИ-систем» за результаты их работы.

Нынешняя версия директивных указаний носит сугубо черновой характер; сейчас их будут изучать представители индустрии, и по итогам консультаций с ними предлагаемые правила могут существенно поменяться. В конечном счете, ЕС планирует выработать набор конкретных правил, обязательных для исполнения всеми игроками рынка.

«Искусственный интеллект, который действует без учета этической составляющей и, в конечном счете, превращается из помощника в угрозу для человечества, - это очень распространенный и очень старый мотив в научной фантастике, - отмечает Роман Малышев, директор по маркетингу группы компаний «Программный Продукт». - Но сейчас человечество вплотную приблизилось к созданию такого искусственного интеллекта, и риск превращения полезного инструмента в источник угрозы действительно реален как никогда прежде. Так что идея обязать разработчиков ИИ внедрять этический компонент выглядит безусловно правильной. Мы как технологическая компания, в последнее время все чаще работаем над проектами, в которых задействованы элементы ИИ и машинного обучения и данный аспект является для нас очень актуальным. По сути, наш основной принцип сейчас должен быть тот же, что и у врачей: «Не навреди». Единственная проблема состоит в том, что в разных национальных культурах даже базовые представления и об этике, и о границах применимости ИИ могут более чем существенно разниться, так что единства представлений в этой области ожидать в обозримом будущем не приходится, но это не значит, что над этой проблемой не стоит работать уже сейчас».

Источник: CNews

Поделиться:
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.