Rambler's Top100
Реклама
 
Все новости Новости отрасли

ЕС установил первый в мире стандарт для систем ИИ

23 мая 2023

В мае 2023 года Европарламент (ЕП) принял законопроект AI Act, который стал первыми в мире правилами и стандартом для искусственного интеллекта.

«Системы ИИ с неприемлемым уровнем риска для безопасности людей будут строго запрещены. В их число входят системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или использующиеся для социального скоринга (классификация людей на основе их социального поведения, социально-экономического статуса, личных характеристик)», — сказано в заявлении ЕП.

Согласно документу, цель депутатов Евросоюза (ЕС) — установить первые в мире правила для искусственного интеллекта и поставить системы ИИ под контроль людей, сделав их безопасными, прозрачными, отслеживаемыми и недискриминационными.

В соответствии с принятыми стандартами, разработчики высокорискового искусственного интеллекта должны:
  • провести оценку риска и соответствия;
  • зарегистрировать свои системы в европейской базе данных ИИ;
  • обеспечить высокое качество данных, используемых для обучения ИИ;
  • обеспечить прозрачность и информированность пользователей;
  • обеспечить эффективный надзор со стороны человека и возможность вмешательства;
  • обеспечить безопасность и надежность систем ИИ. 
Что касается «низкорискового» ИИ, такого как чат-боты, то его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется ещё одно требование — сообщать пользователям, что контент создан нейросетью.

В целом компании, использующие различные ИИ-инструменты, должны будут оценивать их потенциальные риски с точки зрения «здоровья, безопасности, фундаментальных прав, окружающей среды, демократии и верховенства закона», говорится в документе.

Источник: TAdviser

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.