Рубрикатор |
Все новости | Новости компаний |
Выпущено руководство по безопасной разработке ИИ
28 декабря 2024 |
«Лаборатория Касперского» представила руководство по безопасной разработке и внедрению систем на основе искусственного интеллекта (ИИ) на международном Форуме ООН по управлению интернетом, который проходил в Эр-Рияде в декабре 2024 года. Цель документа — помочь организациям избежать киберрисков, связанных с применением технологий ИИ.
- Информирование о киберугрозах и обучение. Руководство организаций должно быть осведомлено об угрозах безопасности, связанных с использованием ИИ, и регулярно проводить специализированное обучение для сотрудников. Люди, работающие в компании, должны знать, какие методы используют злоумышленники для атак на системы ИИ, а обучающие программы необходимо постоянно обновлять, чтобы информация об угрозах была актуальной.
- Моделирование угроз и оценка рисков. Моделирование угроз позволит заблаговременно выявлять и снижать риски: с помощью этого инструмента можно находить и устранять уязвимости на ранних этапах ИИ-разработки. Эксперты предлагают использовать уже принятые методологии оценки рисков (например, STRIDE, OWASP), чтобы обнаруживать угрозы в сфере ИИ, например нецелевое использование моделей, применение нерелевантных данных для обучения модели, системные недостатки.
- Безопасность облачной инфраструктуры. Системы ИИ часто развёртывают в облачных средах, и это требует строгих защитных мер, таких как шифрование, сегментация сети и двухфакторная аутентификация. «Лаборатория Касперского» предлагает следовать принципу нулевого доверия, применять защищённые каналы связи и регулярно обновлять инфраструктуру, чтобы снижать риски взломов.
- Защита цепочки поставок и данных. Чтобы избежать рисков, связанных с внешними ИИ-компонентами и моделями, включая утечки данных и их продажу злоумышленниками, необходимо строго соблюдать политику конфиденциальности и правила безопасности для всех участников цепочки поставок.
- Тестирования и проверки. Регулярные проверки моделей ИИ помогут убедиться в надёжности их работы. Рекомендуется проводить мониторинг их производительности, а также собирать отчёты об уязвимостях. Это позволит вовремя обнаруживать проблемы, связанные с изменением используемых моделью данных, а также атаки злоумышленников. Чтобы снизить риски, важно следить за актуальностью наборов данных и проверять логику принятия решений.
- Защита от угроз, специфичных для ИИ-моделей. ИИ-компоненты необходимо защищать от угроз, характерных для ИИ-систем: промпт-инъекций и других вредоносных запросов, отравления учебных данных и так далее. Чтобы снизить риски, можно намеренно включать нерелевантные данные в процессе тренировки модели, чтобы научить её распознавать их. Кроме того, рекомендуется использовать системы обнаружения аномалий, а также методы дистилляции знаний, которые помогают эффективнее обрабатывать информацию и придают ей большую устойчивость к манипуляциям.
- Регулярное обновление. Необходимо часто обновлять ИИ-библиотеки и фреймворки, чтобы вовремя устранять появляющиеся уязвимости. Чтобы повысить устойчивость таких систем, стоит участвовать в программах Bug Bounty, которые предполагают выплату вознаграждения сторонним специалистам за обнаружение уязвимостей, и регулярно обновлять облачные модели ИИ, учитывая их быструю эволюцию.
- Соответствие международным стандартам. Следование международным нормам, использование передовых практик, а также проверка ИИ-систем на соответствие законодательству помогут компаниям соблюдать требования в сфере этики и конфиденциальности данных, а следовательно, укрепить доверие и повысить прозрачность бизнеса.
Источник: Лаборатория Касперского
Читайте также:
Узбекистан развивает партнёрство с ОАЭ в области технологий
Запущен сервис для безопасной работы ИИ с персональными данными
Мощность гипермасштабных ЦОДов к 2030 году утроится благодаря GenAI
США планируют полностью запретить экспорт ИИ-чипов в некоторые страны
Microsoft планирует в 2025 году потратить на ИИ-ЦОДы $80 млрд
Оставить свой комментарий:
Комментарии по материалу
Данный материал еще не комментировался.