С 2022 года генеративный искусственный интеллект (ИИ) стал одной из самых трансформирующих технологий в цифровом мире. Однако его стремительное внедрение привело не только к инновационным достижениям, но и к масштабным вызовам в сфере кибербезопасности. В марте 2025 года компания Netskope, мировой лидер в области облачной безопасности, представила доклад Cloud Threat Report: Generative AI 2025, в котором систематизировала угрозы, инциденты и тенденции, связанные с использованием генеративного ИИ в корпоративных облаках.
Цель данной статьи — провести глубокий анализ этого отчета, рассмотреть его основные выводы, а также представить практические рекомендации для организаций, стремящихся безопасно использовать генеративный ИИ.
Основная часть
1. Контекст и цели исследования Netskope
Исследование охватывает более 100 миллиардов облачных транзакций, осуществленных пользователями по всему миру, в том числе с использованием таких генеративных платформ, как ChatGPT, GitHub Copilot, Google Gemini, DALL·E и других.
Ключевые задачи отчета:
- Определить, как именно используется генеративный ИИ в организациях.
- Проанализировать потенциальные векторы атак и инциденты утечки данных.
- Дать рекомендации по безопасному внедрению ИИ в облачные среды.
2. Основные результаты исследования
2.1. Взрывной рост использования генеративного ИИ
- За последние 12 месяцев доля организаций, использующих генеративный ИИ в облаке, выросла с 27% до 75%.
- 14 новых платформ ИИ появились в 2024 году, активно применяемые в корпоративных средах.
- Основные сценарии использования: генерация кода (47%), автоматизация контента (31%), аналитика данных (22%).
2.2. Угрозы безопасности
Фишинговые атаки нового поколения:
- Использование ИИ позволяет создавать гиперреалистичные фишинговые письма и сайты.
- Зафиксирован рост фишинга на 59%, связанного с генеративными платформами.
Утечки данных:
- В 2024 году 23% инцидентов утечки данных в облаке связаны с генеративным ИИ.
- Причины: загрузка конфиденциальной информации в публичные ИИ-интерфейсы, отсутствие контроля над выводом моделей.
“Теневой ИИ” (Shadow AI):
- 68% организаций сообщают о случаях, когда сотрудники использовали генеративные ИИ-инструменты без ведома IT-отдела.
- Это создает “невидимую зону риска”, аналогично “теневому IT”.
Новый класс вредоносных ИИ-агентов:
- Зарегистрированы случаи создания вредоносных макросов, скриптов и кода с помощью Copilot и аналогов.
- Генеративный ИИ используется для маскировки эксплойтов и обхода EDR-систем.
3. Лучшие практики и рекомендации Netskope
1. Внедрение политики контроля доступа к ИИ-инструментам:
- Ограничить использование публичных моделей.
- Применять DLP (Data Loss Prevention) и CASB (Cloud Access Security Broker).
2. Образование и осведомленность персонала:
- Создание курсов по киберграмотности в сфере ИИ.
- Проведение тренингов по фишинг-симуляции с использованием ИИ-сценариев.
3. Аудит и мониторинг облачного трафика:
- Использование решений класса SSE (Security Service Edge) для отслеживания поведения ИИ в облаке.
- Выявление нетипичных транзакций, связанных с генерацией кода или текстов.
4. Этика и нормативное соответствие:
- Разработка внутренних принципов использования ИИ.
- Учет требований законодательства: GDPR, NIS2, AI Act (ЕС).
Заключение
Генеративный ИИ — это одновременно мощный двигатель инноваций и потенциальный источник масштабных угроз в облачных инфраструктурах. Отчет Netskope 2025 предоставляет ценный ориентир для организаций, демонстрируя реальную картину ИИ-рисков и предлагая конкретные стратегии минимизации угроз.
Компании, которые стремятся сохранить конкурентоспособность, обязаны не просто внедрять ИИ, но делать это ответственно, этично и безопасно. Следование рекомендациям отчета позволяет не только защитить корпоративные активы, но и подготовиться к будущим вызовам цифровой эпохи.
Список источников
- Netskope Threat Labs. (2025). Cloud Threat Report: Generative AI 2025. https://www.netskope.com
- ENISA (2024). Threat Landscape for AI. European Union Agency for Cybersecurity.
- OpenAI. (2023). GPT and Risk Mitigation Strategies. Technical Whitepaper.
- Gartner. (2024). Top Security and Risk Trends Involving Generative AI.
- IBM Security. (2023). Cost of a Data Breach Report.