Рекомендации CISA и партнёров по безопасной интеграции ИИ в операционные технологии критической инфраструктуры
Искусственный интеллектКибербезопасностьРекомендации

Рекомендации CISA и партнёров по безопасной интеграции ИИ в операционные технологии критической инфраструктуры

Публикация TechRepublic (15 января 2026) обращает внимание на новые рекомендации по безопасности искусственного интеллекта (ИИ) в операционных технологиях (Operational Technology, OT) — системах управления физическими процессами (энергосети, водоочистка, промышленная автоматизация). Отмечается, что рост применения генеративных инструментов (включая ChatGPT) и подключение OT к интернет-среде и промышленному интернету вещей усиливают риск утечек данных, компрометации управления и сбоев в предоставлении жизненно важных услуг. (TechRepublic)

Ключевой первоисточник — совместный документ “Principles for the Secure Integration of Artificial Intelligence in Operational Technology” (публикация 3 декабря 2025), подготовленный CISA вместе с партнёрами из Австралии, США, Канады, Германии, Нидерландов, Новой Зеландии и Великобритании. Документ фиксирует двойственную природу ИИ для OT: потенциальный рост эффективности и качества решений при одновременном повышении рисков функциональной безопасности (то есть физической безопасности процессов) и кибербезопасности (конфиденциальность, целостность, доступность). Он задаёт четыре принципа: (1) понимать ИИ и применять безопасный жизненный цикл разработки/внедрения; (2) оценивать целесообразность ИИ именно в OT и управлять рисками данных и поставщиков; (3) выстроить управление (governance) и процедуры подтверждения качества/безопасности; (4) внедрить надзор, механизмы отказоустойчивости и планы реагирования на инциденты. (nsa.gov)

Существенный блок посвящён специфическим угрозам ИИ в OT: манипуляции данными и моделями, «инъекции» в запросы (prompt injection), дрейф модели при изменении технологических режимов, низкая объяснимость решений, «усталость операторов» из-за ложных тревог и риск зависимости персонала от автоматизации с утратой навыков ручного управления. Подчёркнуто, что большие языковые модели (Large Language Models, LLM) могут генерировать правдоподобные, но неверные ответы («галлюцинации»), поэтому их нельзя использовать как самостоятельный источник решений по функциональной безопасности.

Практический вывод: организациям критической инфраструктуры следует рассматривать ИИ как компонент киберфизической системы и управлять им через сегментацию и минимизацию постоянного входящего доступа в OT (предпочтение схем «выгрузки» данных наружу), требования к прозрачности поставщиков (включая перечень программных компонентов — Software Bill of Materials, SBOM), журналирование и мониторинг входов/выходов ИИ, тестирование на стендах до вывода в эксплуатацию, регулярные проверки устойчивости (включая «красные команды» для ИИ) и обязательного «человека в контуре» для критичных действий.

admin
Author: admin

Добавить комментарий