Краткое описание
В этом документе рекомендуются рекомендации для поставщиков любых систем, использующих искусственный интеллект (ИИ), независимо от того, были ли эти системы созданы с нуля или построены поверх инструментов и услуг, предоставляемых другими. Реализация этих рекомендаций поможет поставщикам создавать системы искусственного интеллекта, которые функционируют по назначению, доступны при необходимости и работают без раскрытия конфиденциальных данных неуполномоченным лицам.
Этот документ предназначен в первую очередь для поставщиков систем искусственного интеллекта, которые используют модели, размещенные в организации, или используют внешние интерфейсы прикладного программирования (API). Мы настоятельно призываем все заинтересованные стороны (включая специалистов по обработке данных, разработчиков, менеджеров, лиц, принимающих решения, и владельцев рисков) ознакомиться с этими рекомендациями, чтобы помочь им принимать обоснованные решения о проектировании, разработке, развертывании и эксплуатации их систем искусственного интеллекта.
О рекомендациях
Системы искусственного интеллекта потенциально могут принести много пользы обществу. Однако для полной реализации возможностей искусственного интеллекта его необходимо разрабатывать, внедрять и эксплуатировать безопасным и ответственным образом.
Системы искусственного интеллекта подвержены новым уязвимостям в системе безопасности, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. При высоких темпах разработки – как в случае с искусственным интеллектом – безопасность часто может быть второстепенным соображением. Безопасность должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы.
По этой причине, руководство разбито на четыре ключевых областях в систему искусственного интеллекта развития жизненного цикла: безопасный дизайн, безопасное развитие, безопасное развертываниеи безопасной эксплуатации и технического обслуживания. В каждом разделе мы предлагаем соображения и меры по смягчению последствий, которые помогут снизить общий риск для процесса разработки организационной системы искусственного интеллекта.
- Безопасный дизайн
В этом разделе содержатся рекомендации, применимые к стадии проектирования жизненного цикла разработки системы искусственного интеллекта. В нем рассказывается о понимании рисков и моделировании угроз, а также о конкретных темах и компромиссах, которые необходимо учитывать при проектировании системы и модели.2Безопасная разработкаВ этом разделе содержатся рекомендации, применимые к стадии разработки жизненного цикла разработки системы искусственного интеллекта, включая безопасность цепочки поставок, документацию и управление активами и техническим долгом. - Безопасное развертывание
В этом разделе содержатся рекомендации, применимые к этапу развертывания жизненного цикла разработки системы искусственного интеллекта, включая защиту инфраструктуры и моделей от компрометации, угроз или потерь, разработку процессов управления инцидентами и ответственный выпуск. - Безопасная эксплуатация и техническое обслуживание
В этом разделе содержатся рекомендации, применимые к этапу безопасной эксплуатации и технического обслуживания жизненного цикла разработки системы искусственного интеллекта. В нем содержатся рекомендации по действиям, особенно актуальным после развертывания системы, включая ведение журнала и мониторинг, управление обновлениями и обмен информацией.
Руководящие принципы основаны на подходе “безопасность по умолчанию” и тесно связаны с практикой, определенной в руководстве по безопасной разработке и развертыванию NCSC, Платформе разработки безопасного программного обеспечения NIST и “Принципах безопасности по дизайну”, опубликованных CISA, NCSC и международными киберагентствами. Они расставляют приоритеты:
- ответственность за результаты обеспечения безопасности для клиентов
- обеспечение максимальной прозрачности и подотчетности
- создание организационной структуры и руководства, настолько безопасных по замыслу, является главным приоритетом бизнеса
One Comment
Comments are closed.