Rambler's Top100
Все новости Новости отрасли

В ЕС согласованы положения нового закона об искусственном интеллекте

11 декабря 2023

Европарламент и Совет ЕС предварительно согласовали основные положения готовящегося к принятию закона AI Act об искусственном интеллекте (ИИ).

Как пишет D-Russia  со ссылкой на соообщение Еврокомиссии, документ устанавливает требования по безопасности к разработчикам ИИ-моделей, вводит крупные штрафы для нарушителей.

ИИ-системы отнесены к нескольким группам риска:
  • минимальный риск — в эту категорию попадает бо́льшая часть ИИ-систем (рекомендательные системы, спам-фильтры на основе ИИ) — эти системы признаются либо полностью безопасными, либо представляющими минимальную угрозу для пользователей;
  • высокий риск – к таким системам отнесены, например, определённая критическая инфраструктура в сфере водоснабжения, поставок газа и электричества, медицинские устройства, а также системы, задействованные в охране границ, соблюдении общественного порядка, отправлении правосудия, «демократических процессах», биометрической идентификации, категоризации, распознавании эмоций — подобные ИИ-системы обязаны соблюдать жёсткие требования в таких вопросах, как система минимизации рисков, «массивы данных высокого качества», регистрация операций, подробная документация, чёткая пользовательская информация, надзор со стороны человека, высокая эксплуатационная надёжность, точность, кибербезопасность;
  • неприемлемый риск — сюда включены ИИ-системы или приложения, которые манипулируют поведением человека с целью ограничить свободный выбор пользователей, например, игрушки с голосовым помощником, «поощряющие опасное поведение детей», или системы, которые допускают составление социальных рейтингов правительствами или компаниями, а также определённые виды прогностической деятельности полиции — такие системы подлежат полному запрету (за некоторыми исключениями).
  • риск для открытости — в данный список включены в том числе чат-боты; в документе указано, что пользователи должны быть информированы о том, что взаимодействуют с машиной, дипфейки и другой сгенерированный ИИ контент следует маркировать соответствующим образом, граждан необходимо информировать в случае задействования систем биометрической категоризации или распознавания эмоций, вдобавок разработчики ИИ-систем должны будут создавать их таким образом, чтобы «синтетический текстовый, графический, аудио- и видеоконтент содержал маркировку в машиночитаемом формате, а также распознавался в качестве искусственно сгенерированного или манипулятивного».
Документ вводит специальные правила для ИИ-моделей общего назначения (General Purpose AI Models). Для каждой высокопроизводительной модели, способной нести системный риск, предусматриваются дополнительные юридические обязательства, относящиеся к сфере управления рисками, мониторинга значимых инцидентов, анализа модели, состязательного тестирования (более детальной информации не приведено — ред.).

Вместе с тем AI Act не будет применяться в случае, если он негативно повлияет «на компетенции какой-либо страны ЕС в области национальной безопасности или уполномоченной в этом вопросе организации». Из-под действия закона также выведены системы, которые используются только в военных и оборонных целях, в научной деятельности, а также людьми в непрофессиональной деятельности.

Для нарушителей AI Act предусмотрены оборотные штрафы 7,5-35 миллионов евро. За имплементацию положений закона на национальных уровнях будут отвечать надзорные органы стран-членов ЕС, координировать их усилия станет специально создаваемый при Еврокомиссии орган — Управление по ИИ (AI Office).

Теперь соглашение предстоит оформить Европарламенту и Совету ЕС формально. Закон вступит в силу через 20 дней после публикации текста в официальном журнале Евросоюза. Положения AI Act начнут применяться через два года после вступления закона в силу. При этом прописанные запреты начнут действовать уже через шесть месяцев, а нормы в отношении ИИ-моделей общего назначения — через год.

Источник: D-Russia

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.