Искусственный интеллект (ИИ) — ключевая технология XXI века, трансформирующая бизнес и государственное управление. Однако вместе с возможностями растут и киберриски. Согласно первому ежегодному отчету Cisco о состоянии безопасности ИИ, 72% организаций в мире уже интегрировали ИИ в свои процессы, но только 13% считают себя готовыми к его полноценному использованию. Основной сдерживающий фактор — безопасность ИИ.
Отчет Cisco освещает основные угрозы, исследует новые векторы атак, политику государств в области ИИ и предлагает рекомендации по защите корпоративной инфраструктуры.
Главные угрозы безопасности ИИ
- Компрометация ИИ-инфраструктуры — В 2024 году были зафиксированы успешные атаки на ключевые компоненты ИИ-среды, включая NVIDIA Container Toolkit и Ray, что позволило злоумышленникам получить доступ к файловым системам и вычислительным ресурсам.
- Атаки на цепочки поставок — Использование сторонних моделей и библиотек (например, из Hugging Face или PyTorch) открывает возможности для внедрения вредоносных компонентов. Один из примеров — техника Sleepy Pickle, позволяющая внедрять вредоносный код через сериализованные модели.
- Атаки на модели и данные — Jailbreaking и Prompt Injection позволяют обойти встроенные защитные механизмы моделей. Методы извлечения обучающих данных (включая технику decomposition) позволяют воссоздавать части обучающих наборов, нарушая конфиденциальность.
- Отравление данных — Злоумышленники внедряют вредоносные примеры в публичные датасеты, тем самым снижая точность и надежность ИИ-моделей. Для отравления данных достаточно потратить менее 100 долларов и изменить менее 0.01% обучающего набора.
Использование ИИ злоумышленниками
- Фишинг и социальная инженерия с использованием генеративных моделей (включая глубокие подделки голоса и видео).
- Разработка вредоносного ПО и автоматизация атак с помощью LLM (например, FraudGPT, DarkGPT).
- Имитация человеческой активности для обхода систем защиты: киберпреступники применяют ИИ для подбора паролей, обхода CAPTCHA и анализа уязвимостей.
Агентный ИИ и новые векторы угроз
Cisco предупреждает о росте рисков, связанных с агентным ИИ — автономными системами, способными действовать без участия человека. Потенциальные угрозы включают отравление памяти, выполнение удаленного кода и сложные цепные атаки, которые могут быть незаметны для традиционных средств защиты.
Мировая политика в сфере ИИ
- В 2024 году США представили более 700 законопроектов, касающихся ИИ.
- В ЕС вступил в силу AI Act, регулирующий высокорисковые ИИ-системы.
- Великобритания переименовала свой институт безопасности ИИ в AI Security Institute, акцентируя внимание на борьбе с преступным использованием технологий.
- Африканский союз и Япония разрабатывают собственные подходы к регулированию ИИ.
Рекомендации от Cisco
- Управляйте рисками на всех этапах жизненного цикла ИИ.
- Адаптируйте существующие политики к новым угрозам, включая контроль доступа и DLP.
- Используйте стандарты безопасности (NIST, OWASP, MITRE ATLAS).
- Определите пороги риска и обучайте персонал.
- Внедряйте специализированные решения по защите ИИ, такие как Cisco AI Defense.
Заключение
ИИ стал неотъемлемой частью цифровой трансформации, но его безопасность требует системного подхода. Угрозы становятся всё более изощренными, и только сочетание технических решений, политических мер и просвещения пользователей способно обеспечить устойчивую защиту. Cisco продолжает инвестировать в безопасность ИИ и предлагает передовые решения для защиты инфраструктуры, данных и пользователей в условиях быстро меняющегося ландшафта.