Развитие искусственного интеллекта (ИИ) в корпоративном секторе идет ускоренными темпами. Согласно отчету Zscaler ThreatLabz 2025 AI Security Report, количество транзакций, связанных с ИИ и машинным обучением (ML), выросло в 36 раз по сравнению с прошлым годом, достигнув 536,5 миллиарда. Однако столь стремительное внедрение технологий сопровождается новыми угрозами, среди которых утечки данных, атаки с использованием генеративного ИИ, рост числа дипфейков и создание фальшивых ИИ-платформ для кибератак.
В этом исследовании представлены основные тенденции использования ИИ, риски, связанные с его применением, а также стратегии защиты организаций от новых угроз.
Основные тенденции внедрения ИИ
1. Взрывной рост использования ИИ в корпоративном секторе
- Транзакции, связанные с ИИ, выросли на 3 464,6% за год.
- ChatGPT остается лидером среди всех ИИ-инструментов, на его долю приходится 45,2% транзакций.
- Активное использование наблюдается в финансовом секторе (28,4% всех транзакций), промышленности (21,6%) и сфере услуг (18,5%).
- 3624 ТБ данных было передано через ИИ-приложения, что подчеркивает масштабы их интеграции.
2. Угрозы от “теневого ИИ” (Shadow AI) и неконтролируемого использования ИИ-инструментов
Некоторые ИИ-приложения внедряются сотрудниками без официального одобрения и контроля со стороны ИТ-отделов. Это приводит к утечкам конфиденциальных данных, поскольку ИИ-системы могут сохранять, передавать и обрабатывать чувствительную информацию без должного уровня защиты.
3. Генеративный ИИ как инструмент кибератак
- Дипфейки и голосовые подделки используются для социальной инженерии и атак на компании.
- Злоумышленники создают поддельные ИИ-платформы для распространения вредоносного ПО.
- Автономные ИИ-агенты способны самостоятельно находить уязвимости, организовывать атаки и обходить системы защиты.
Ключевые угрозы и реальные сценарии атак
1. Утечки данных и нарушение конфиденциальности
- 59,9% всех ИИ-транзакций были заблокированы компаниями из-за опасений утечки данных.
- Наибольшие утечки произошли в ChatGPT и Microsoft Copilot – они часто передавали персональные данные, финансовую информацию и исходный код.
- В списке нарушений: утечки номеров социального страхования, медицинских данных и конфиденциальной информации клиентов.
2. Использование ИИ в атаках на корпоративные сети
- ИИ-генерируемые фишинговые страницы становятся более реалистичными и сложными для обнаружения.
- Глубокие дипфейки и голосовые подделки уже применяются для атак на корпоративные сети.
- ИИ-оптимизированные атаки программ-вымогателей позволяют злоумышленникам находить уязвимости и шифровать данные быстрее, чем когда-либо.
3. Риски, связанные с открытыми ИИ-моделями (Open-Source AI)
- Модели вроде DeepSeek и Grok позволяют создавать мощные генеративные ИИ, которые злоумышленники могут адаптировать для атак.
- Открытые ИИ-системы не имеют встроенных механизмов защиты, что делает их удобными инструментами для киберпреступников.
- Компании используют модели с недостаточными мерами безопасности, что увеличивает риски утечек данных.
Рекомендации по защите ИИ-инфраструктуры
1. Контроль использования ИИ
- Внедрение Zero Trust-подхода к безопасности ИИ.
- Ограничение доступа сотрудников к неавторизованным ИИ-приложениям.
- Введение строгих политик защиты данных при взаимодействии с ИИ-системами.
2. Борьба с дипфейками и фальшивыми ИИ-сервисами
- Использование ИИ-детекторов поддельного контента.
- Постоянный мониторинг нетипичного поведения пользователей.
- Проведение обучающих программ для сотрудников по выявлению социальной инженерии и дипфейков.
3. Улучшение защиты от ИИ-атак
- Модернизация DLP-систем для предотвращения утечек данных.
- Использование ИИ для защиты от атак – внедрение механизмов поведенческого анализа угроз.
- Внедрение систем мониторинга аномалий, отслеживающих подозрительные ИИ-активности.
Заключение
ИИ продолжает кардинально менять ландшафт кибербезопасности. С одной стороны, он ускоряет обработку данных, улучшает защиту и оптимизирует бизнес-процессы, но с другой – повышает уровень угроз, делая атаки сложнее и масштабнее.
Организациям необходимо:
- Создавать строгие политики безопасности при использовании ИИ.
- Контролировать утечки данных и взаимодействие с ИИ-инструментами.
- Использовать собственные ИИ-решения для защиты корпоративных данных.
- Внедрять Zero Trust-архитектуру и адаптивные меры защиты.
В ближайшие годы уровень угроз, связанных с ИИ, продолжит расти, и только проактивный подход к защите поможет бизнесу минимизировать риски.