Генеративный ИИ в облачных средах: угроза или эволюция? Глубокий анализ отчета Netskope Cloud Threat Report 2025
Искусственный интеллектКибербезопасностьОтчеты

Генеративный ИИ в облачных средах: угроза или эволюция? Глубокий анализ отчета Netskope Cloud Threat Report 2025

С 2022 года генеративный искусственный интеллект (ИИ) стал одной из самых трансформирующих технологий в цифровом мире. Однако его стремительное внедрение привело не только к инновационным достижениям, но и к масштабным вызовам в сфере кибербезопасности. В марте 2025 года компания Netskope, мировой лидер в области облачной безопасности, представила доклад Cloud Threat Report: Generative AI 2025, в котором систематизировала угрозы, инциденты и тенденции, связанные с использованием генеративного ИИ в корпоративных облаках.

Цель данной статьи — провести глубокий анализ этого отчета, рассмотреть его основные выводы, а также представить практические рекомендации для организаций, стремящихся безопасно использовать генеративный ИИ.

Основная часть

1. Контекст и цели исследования Netskope

Исследование охватывает более 100 миллиардов облачных транзакций, осуществленных пользователями по всему миру, в том числе с использованием таких генеративных платформ, как ChatGPT, GitHub Copilot, Google Gemini, DALL·E и других.

Ключевые задачи отчета:

  • Определить, как именно используется генеративный ИИ в организациях.
  • Проанализировать потенциальные векторы атак и инциденты утечки данных.
  • Дать рекомендации по безопасному внедрению ИИ в облачные среды.

2. Основные результаты исследования

2.1. Взрывной рост использования генеративного ИИ

  • За последние 12 месяцев доля организаций, использующих генеративный ИИ в облаке, выросла с 27% до 75%.
  • 14 новых платформ ИИ появились в 2024 году, активно применяемые в корпоративных средах.
  • Основные сценарии использования: генерация кода (47%), автоматизация контента (31%), аналитика данных (22%).

2.2. Угрозы безопасности

Фишинговые атаки нового поколения:

  • Использование ИИ позволяет создавать гиперреалистичные фишинговые письма и сайты.
  • Зафиксирован рост фишинга на 59%, связанного с генеративными платформами.

Утечки данных:

  • В 2024 году 23% инцидентов утечки данных в облаке связаны с генеративным ИИ.
  • Причины: загрузка конфиденциальной информации в публичные ИИ-интерфейсы, отсутствие контроля над выводом моделей.

“Теневой ИИ” (Shadow AI):

  • 68% организаций сообщают о случаях, когда сотрудники использовали генеративные ИИ-инструменты без ведома IT-отдела.
  • Это создает “невидимую зону риска”, аналогично “теневому IT”.

Новый класс вредоносных ИИ-агентов:

  • Зарегистрированы случаи создания вредоносных макросов, скриптов и кода с помощью Copilot и аналогов.
  • Генеративный ИИ используется для маскировки эксплойтов и обхода EDR-систем.

3. Лучшие практики и рекомендации Netskope

1. Внедрение политики контроля доступа к ИИ-инструментам:

  • Ограничить использование публичных моделей.
  • Применять DLP (Data Loss Prevention) и CASB (Cloud Access Security Broker).

2. Образование и осведомленность персонала:

  • Создание курсов по киберграмотности в сфере ИИ.
  • Проведение тренингов по фишинг-симуляции с использованием ИИ-сценариев.

3. Аудит и мониторинг облачного трафика:

  • Использование решений класса SSE (Security Service Edge) для отслеживания поведения ИИ в облаке.
  • Выявление нетипичных транзакций, связанных с генерацией кода или текстов.

4. Этика и нормативное соответствие:

  • Разработка внутренних принципов использования ИИ.
  • Учет требований законодательства: GDPR, NIS2, AI Act (ЕС).

Заключение

Генеративный ИИ — это одновременно мощный двигатель инноваций и потенциальный источник масштабных угроз в облачных инфраструктурах. Отчет Netskope 2025 предоставляет ценный ориентир для организаций, демонстрируя реальную картину ИИ-рисков и предлагая конкретные стратегии минимизации угроз.

Компании, которые стремятся сохранить конкурентоспособность, обязаны не просто внедрять ИИ, но делать это ответственно, этично и безопасно. Следование рекомендациям отчета позволяет не только защитить корпоративные активы, но и подготовиться к будущим вызовам цифровой эпохи.

Список источников

  1. Netskope Threat Labs. (2025). Cloud Threat Report: Generative AI 2025. https://www.netskope.com
  2. ENISA (2024). Threat Landscape for AI. European Union Agency for Cybersecurity.
  3. OpenAI. (2023). GPT and Risk Mitigation Strategies. Technical Whitepaper.
  4. Gartner. (2024). Top Security and Risk Trends Involving Generative AI.
  5. IBM Security. (2023). Cost of a Data Breach Report.
admin
Author: admin