Стремительный рост внедрения искусственного интеллекта (ИИ) в бизнес-процессы сопровождается не только технологическим прогрессом, но и возрастающими киберрисками. По мере того как компании переходят к использованию облачных платформ и ИИ-сервисов, конфигурационные ошибки, уязвимости и избыточные права доступа становятся источником значительных угроз. Отчёт Tenable Cloud AI Risk Report 2025 даёт детализированную картину текущего состояния безопасности облачных ИИ-сред, подчеркивая необходимость системного подхода к управлению рисками.
Основная часть
1. Масштабы внедрения ИИ и облачных сервисов
По данным отчёта, уже 72% организаций применяют ИИ хотя бы в одной бизнес-функции. При этом:
- 60% компаний, использующих Microsoft Azure, настроили Azure Cognitive Services;
- 25% организаций на AWS применяют Amazon SageMaker;
- 20% — используют Vertex AI Workbench на Google Cloud Platform.
ИИ-пакеты, такие как Scikit-learn, Ollama, TensorFlow и Keras, стали наиболее популярными среди инструментов машинного обучения.
2. Главные угрозы и уязвимости
Критические уязвимости
- 70% облачных ИИ-нагрузок содержат хотя бы одну критическую уязвимость (по сравнению с 50% у обычных облачных рабочих нагрузок).
- Пример — уязвимость CVE-2023-38545 в библиотеке
curl
, остающаяся нерешённой более года.
Концепция «Дженги» в облаке
Tenable вводит термин “Jenga-эффект” — явление, когда один облачный сервис строится поверх другого, наследуя его небезопасные настройки. Пример:
- В 77% случаев в Google Cloud при создании экземпляра Vertex AI Workbench используется сервисный аккаунт Compute Engine с избыточными правами (
Editor
), что нарушает принцип наименьших привилегий.
Ошибки в конфигурации хранилищ и прав доступа
- Amazon Bedrock:
- В 14% случаев обучение ИИ проводится в бакетах S3 без запрета публичного доступа.
- 5% бакетов имеют чрезмерно разрешительную политику, что ставит под угрозу конфиденциальность данных и целостность моделей.
- Amazon SageMaker:
- В 90,5% организаций, использующих сервис, как минимум один экземпляр ноутбука предоставляет root-доступ — критическая уязвимость, позволяющая изменить или повредить ИИ-модели и системные настройки.
Заключение
ИИ в облаке — это одновременно прорыв и вызов. Несмотря на удобство и масштабируемость, большинство организаций сталкиваются с серьёзными проблемами безопасности, связанными с:
- отсутствием контроля над правами доступа;
- устаревшими или избыточными настройками по умолчанию;
- нехваткой прозрачности в архитектуре облачных сервисов;
- неустранёнными уязвимостями в open source-компонентах.
Рекомендации:
- Контекстное управление рисками:
- Интеграция безопасности по всем слоям: идентичности, данные, сеть, ИИ-модели.
- Мониторинг всех активов и использование телеметрии.
- Минимизация прав и ограничение доступа:
- Исключение root-доступа и реализация принципа наименьших привилегий.
- Аудит хранилищ и политик доступа:
- Применение блокировки публичного доступа к S3-бакетам;
- Регулярная проверка политик IAM и bucket policies.
- Регуляторное соответствие и осведомлённость:
- Следование рекомендациям NIST и отраслевым гайдлайнам;
- Обучение команд DevOps и разработчиков принципам безопасного ИИ.
Список источников:
- Tenable Cloud AI Risk Report 2025. www.tenable.com
- OWASP: Machine Learning Security Top 10. owasp.org
- NIST AI Risk Management Framework. nist.gov
- McKinsey Global Survey on AI (2024). mckinsey.com