Еженедельный Дайджест в сфере «кибербезопасности»  
Искусственный интеллектКибербезопасностьОтчеты

Глобальный ландшафт КБ и ИИ (27 июня — 2 июля 2025 г.) Суть событий

1.1. Атака на Qantas – Компрометация цепочки поставок через подрядчика

  • Что произошло: 30 июня крупнейшая авиакомпания Австралии Qantas подтвердила утечку данных до 6 млн клиентов. Атака была осуществлена через инфраструктуру стороннего поставщика услуг — колл-центра. Подтверждена связь с группой Scattered Spider.
  • Как это работает: Злоумышленники скомпрометировали не основную инфраструктуру Qantas, а IT-системы подрядчика, что является классическим примером атаки на цепочку поставок (supply chain attack). Через полученный доступ к системам колл-центра был извлечен массив персональных данных клиентов, включая имена, телефоны, даты рождения и номера карт лояльности. Важной технической деталью является то, что финансовые данные и пароли не хранились в скомпрометированной системе, что ограничило прямой финансовый ущерб.
  • Почему это важно: Инцидент демонстрирует системный риск, при котором безопасность периметра организации больше не гарантирует защиту данных. Атака через менее защищенного партнера является высокоэффективным вектором. Финансовые и транспортные структуры должны внедрять обязательные требования по кибербезопасности для всех поставщиков и проводить регулярный аудит их систем.
  • Источники:

1.2. Санкции против Aeza Group – Удар по инфраструктуре киберпреступности

  • Что произошло: 1 июля Министерство финансов США ввело санкции против российского хостинг-провайдера Aeza Group за предоставление «пуленепробиваемого хостинга» (BPH) известным группам-вымогателям.
  • Как это работает: «Пуленепробиваемый хостинг» (BPH) — это услуга, при которой провайдер целенаправленно игнорирует запросы правоохранительных органов и жалобы на вредоносную активность. Aeza Group предоставляла серверы и сетевую инфраструктуру для C2-серверов (Command & Control) таких групп, как BianLian, а также для даркнет-рынка BlackSprut. Санкции заморозили активы компании, включая конкретный кошелек с ~$350,000 в криптовалюте TRON.
  • Почему это важно: Демонстрирует сдвиг в стратегии борьбы с киберпреступностью — от преследования отдельных акторов к разрушению их базовой инфраструктуры. Это усложняет и удорожает проведение атак, нанося удар по экономической модели злоумышленников. Для финансовых учреждений это сигнал о необходимости более тщательного скрининга транзакций, связанных с подсанкционными BPH-провайдерами.
  • Источник:

1.3. EchoLeak (CVE-2025-32711) – Атака через AI-ассистента

  • Что произошло: Microsoft устранила критическую уязвимость «EchoLeak» в Microsoft 365 Copilot, позволявшую проводить zero-click атаку для кражи конфиденциальных данных.
  • Как это работает: Технически атака основана на indirect prompt injection. Злоумышленник отправляет жертве e-mail, содержащий скрытую вредоносную инструкцию. Когда пользователь задает Copilot легитимный вопрос (например, “сделай сводку по последним письмам”), ИИ-агент, сканируя релевантные документы для контекста, находит и исполняет скрытую команду. Это инициирует exfiltration (выгрузку) данных из OneDrive, SharePoint или Teams на внешний сервер. Атака эксплуатирует не уязвимость в коде, а логику работы самой LLM (LLM scope violation), обходя традиционные проверки безопасности.
  • Почему это важно: Это первая публичная демонстрация атаки, где вектором является сама логика ИИ, а не уязвимость в инфраструктуре. Традиционные средства защиты (DLP, EDR) бессильны, так как все действия ИИ-агента легитимны в рамках его прав доступа. Инцидент открывает новый класс угроз, требующий специализированных средств контроля за активностью LLM-агентов.
  • Источник:

1.4. Уязвимость в Chrome (CVE-2025-6554) – Эксплуатация в целевых атаках

  • Что произошло: 1 июля Google выпустила экстренное обновление для устранения уязвимости нулевого дня в движке V8 браузера Chrome, которая уже активно эксплуатировалась злоумышленниками.
  • Как это работает: Уязвимость относится к типу “type confusion” в движке V8, который обрабатывает JavaScript и WebAssembly. Атакующий создает вредоносную HTML-страницу. При ее обработке браузером возникает ошибка, из-за которой движок неправильно интерпретирует тип объекта в памяти. Это позволяет атакующему записать данные за пределы выделенного буфера, что, в свою очередь, может быть использовано для эскалации до удаленного выполнения кода (RCE).
  • Почему это важно: Являясь RCE-уязвимостью в самом популярном браузере мира, она представляет прямую угрозу для подавляющего большинства пользователей. Факт ее обнаружения Google Threat Analysis Group (TAG) и немедленное включение в каталог CISA KEV указывают на использование в сложных, целенаправленных атаках.
  • Источник:

1.5. Гонка за AGI: Meta запускает Superintelligence Labs

  • Что произошло: 30 июня Meta объявила о создании новой лаборатории, сфокусированной на разработке сверхразумных AI-моделей. Руководителями назначены экс-глава Scale AI Александр Ванг и экс-глава GitHub Нат Фридман.
  • Как это работает: Новая структура централизует все усилия компании по созданию фундаментальных моделей (включая команды FAIR, GenAI и др.) с единой целью — разработка общего искусственного интеллекта (AGI). Этот шаг сопровождается агрессивным переманиванием ключевых исследователей из конкурирующих компаний (OpenAI, Google DeepMind) с многомиллионными бонусами.
  • Почему это важно: Эскалация гонки за технологическое лидерство в ИИ. Meta делает явную стратегическую ставку на AGI, усиливая конкурентное давление на OpenAI и других лидеров рынка. Это меняет ландшафт на рынке ИИ-специалистов и может привести к новым технологическим альянсам.
  • Источник:

1.6. Демократизация ИИ: Baidu открывает исходный код Ernie 4.5

  • Что произошло: 30 июня китайский технологический гигант Baidu объявил, что делает свою флагманскую ИИ-модель Ernie полностью открытой (open-source).
  • Как это работает: Baidu публикует в открытом доступе предварительно обученные веса модели и код для ее развертывания (inference). Этот шаг является прямой реакцией на растущую рыночную долю конкурентов, в частности, open-source модели DeepSeek, и направлен на стимуляцию широкого внедрения технологии Baidu силами сообщества.
  • Почему это важно: Это крупнейшая и наиболее мощная open-source LLM, выпущенная китайской Big Tech-компанией. Данный шаг ускорит инновации, но создаст новые вызовы в области лицензирования, безопасности и комплаенса при использовании ИИ-моделей из конкурирующей юрисдикции.
  • Источник:

1.7. Cloudflare Pay Per Crawl – Новый экономический барьер для AI-краулеров

  • Что произошло: 1 июля компания Cloudflare, обслуживающая ~20% интернета, начала по умолчанию блокировать AI-краулеров и запустила инициативу “Pay Per Crawl” («Плати за сканирование»).
  • Как это работает: Для всех новых клиентов Cloudflare теперь активирована автоматическая блокировка известных ботов, собирающих данные для обучения ИИ. Одновременно запущен marketplace, где владельцы сайтов могут устанавливать собственные тарифы за доступ к своему контенту, а AI-компании — оплачивать его, если сочтут нужным.
  • Почему это важно: Это кардинальный сдвиг в экономике сбора данных для обучения ИИ. Переход от модели “opt-out” (откажись, если не хочешь) к “opt-in” (разреши, если хочешь) создает новый рынок лицензирования данных, что может замедлить разработку ИИ-моделей и дать владельцам контента рычаги влияния.
  • Источник:

1.8. CISA Alert (AA25-160) – Уязвимость в SimpleHelp RMM (CVE-2024-57727)

  • Что произошло: CISA выпустила уведомление о критической уязвимости в ПО для удаленного управления SimpleHelp RMM.
  • Как это работает: Уязвимость в механизме аутентификации позволяет злоумышленнику обойти проверку подлинности и получить доступ к сессии с правами администратора. Это, в свою очередь, используется для выполнения произвольного кода и развертывания программ-вымогателей на всех управляемых конечных точках.
  • Почему это важно: Уязвимость активно эксплуатируется в кампаниях двойного вымогательства. Инструменты удаленного управления (RMM) являются привилегированными точками входа в инфраструктуру, и их компрометация может привести к мгновенному заражению всей сети.
  • Источник:

1.9. Рекомендации CISA/NSA/FBI по безопасности данных для ИИ

  • Что произошло: Ведущие кибер-агентства США (CISA, NSA, FBI) и их международные партнеры выпустили совместное руководство по обеспечению безопасности данных на протяжении всего жизненного цикла систем искусственного интеллекта (ИИ).
  • Как это работает: Документ представляет собой фреймворк из 10 ключевых практик, смещающий фокус с безопасности кода модели на безопасность самих данных. Технически рекомендации сгруппированы по нескольким направлениям:
    • Безопасность цепочки поставок данных (Data Supply Chain Security): Внедрение механизмов отслеживания происхождения данных (data provenance). Это означает, что для каждого набора данных, используемого для обучения, должна быть известна его история: источник, методы сбора и предварительной обработки.
    • Защита от манипуляций с данными: Реализация мер для предотвращения атак типа «отравление данных» (data poisoning), при которых злоумышленник внедряет в обучающую выборку вредоносные или предвзятые данные. Это может привести к созданию скрытых бэкдоров в модели или к ее непредсказуемому поведению.
    • Мониторинг и управление целостностью: Внедрение процедур для управления «дрейфом данных» (data drift). Это непрерывный мониторинг производительности модели для своевременного обнаружения деградации ее точности, вызванной изменением характера входных данных с течением времени.
  • Почему это важно (Приоритет: СТРАТЕГИЧЕСКИЙ): Данный документ формирует первый универсальный, межведомственный стандарт по защите ИИ, который рассматривает данные как основной вектор угрозы. Для банков и других регулируемых отраслей, активно внедряющих LLM, это руководство становится де-факто отраслевым стандартом.
    Рекомендуется использовать данное руководство как основу для разработки внутренних политик безопасного внедрения и эксплуатации ИИ, а также для аудита сторонних AI-решений.
  • Источник:
admin
Author: admin

Добавить комментарий