Искусственный интеллект в облаке: риски, уязвимости и ошибки конфигурации в эпоху ИИ
Искусственный интеллектКибербезопасностьОтчеты

Искусственный интеллект в облаке: риски, уязвимости и ошибки конфигурации в эпоху ИИ

Стремительный рост внедрения искусственного интеллекта (ИИ) в бизнес-процессы сопровождается не только технологическим прогрессом, но и возрастающими киберрисками. По мере того как компании переходят к использованию облачных платформ и ИИ-сервисов, конфигурационные ошибки, уязвимости и избыточные права доступа становятся источником значительных угроз. Отчёт Tenable Cloud AI Risk Report 2025 даёт детализированную картину текущего состояния безопасности облачных ИИ-сред, подчеркивая необходимость системного подхода к управлению рисками.


Основная часть

1. Масштабы внедрения ИИ и облачных сервисов

По данным отчёта, уже 72% организаций применяют ИИ хотя бы в одной бизнес-функции. При этом:

  • 60% компаний, использующих Microsoft Azure, настроили Azure Cognitive Services;
  • 25% организаций на AWS применяют Amazon SageMaker;
  • 20% — используют Vertex AI Workbench на Google Cloud Platform.

ИИ-пакеты, такие как Scikit-learn, Ollama, TensorFlow и Keras, стали наиболее популярными среди инструментов машинного обучения.

2. Главные угрозы и уязвимости

Критические уязвимости

  • 70% облачных ИИ-нагрузок содержат хотя бы одну критическую уязвимость (по сравнению с 50% у обычных облачных рабочих нагрузок).
  • Пример — уязвимость CVE-2023-38545 в библиотеке curl, остающаяся нерешённой более года.

Концепция «Дженги» в облаке

Tenable вводит термин “Jenga-эффект” — явление, когда один облачный сервис строится поверх другого, наследуя его небезопасные настройки. Пример:

  • В 77% случаев в Google Cloud при создании экземпляра Vertex AI Workbench используется сервисный аккаунт Compute Engine с избыточными правами (Editor), что нарушает принцип наименьших привилегий.

Ошибки в конфигурации хранилищ и прав доступа

  • Amazon Bedrock:
    • В 14% случаев обучение ИИ проводится в бакетах S3 без запрета публичного доступа.
    • 5% бакетов имеют чрезмерно разрешительную политику, что ставит под угрозу конфиденциальность данных и целостность моделей.
  • Amazon SageMaker:
    • В 90,5% организаций, использующих сервис, как минимум один экземпляр ноутбука предоставляет root-доступ — критическая уязвимость, позволяющая изменить или повредить ИИ-модели и системные настройки.

Заключение

ИИ в облаке — это одновременно прорыв и вызов. Несмотря на удобство и масштабируемость, большинство организаций сталкиваются с серьёзными проблемами безопасности, связанными с:

  • отсутствием контроля над правами доступа;
  • устаревшими или избыточными настройками по умолчанию;
  • нехваткой прозрачности в архитектуре облачных сервисов;
  • неустранёнными уязвимостями в open source-компонентах.

Рекомендации:

  1. Контекстное управление рисками:
    • Интеграция безопасности по всем слоям: идентичности, данные, сеть, ИИ-модели.
    • Мониторинг всех активов и использование телеметрии.
  2. Минимизация прав и ограничение доступа:
    • Исключение root-доступа и реализация принципа наименьших привилегий.
  3. Аудит хранилищ и политик доступа:
    • Применение блокировки публичного доступа к S3-бакетам;
    • Регулярная проверка политик IAM и bucket policies.
  4. Регуляторное соответствие и осведомлённость:
    • Следование рекомендациям NIST и отраслевым гайдлайнам;
    • Обучение команд DevOps и разработчиков принципам безопасного ИИ.

Список источников:

  1. Tenable Cloud AI Risk Report 2025. www.tenable.com
  2. OWASP: Machine Learning Security Top 10. owasp.org
  3. NIST AI Risk Management Framework. nist.gov
  4. McKinsey Global Survey on AI (2024). mckinsey.com
admin
Author: admin

Добавить комментарий