Искусственный интеллект под прицелом: OpenAI усиливает борьбу с киберугрозами и дезинформацией
Искусственный интеллектКибербезопасностьОтчеты

Искусственный интеллект под прицелом: OpenAI усиливает борьбу с киберугрозами и дезинформацией

В условиях нарастающей геополитической напряженности и приближающихся выборов в разных странах мира, компания OpenAI опубликовала обновленный отчет, посвященный анализу угроз, связанных со злонамеренным использованием искусственного интеллекта. Документ, датированный октябрем 2024 года, подробно описывает методы, используемые киберпреступниками и участниками тайных операций влияния, а также меры, предпринимаемые компанией для противодействия этим угрозам.

ИИ как инструмент защиты и нападения

OpenAI подчеркивает свою миссию – обеспечить, чтобы преимущества искусственного интеллекта были доступны всему человечеству. В отчете компания отмечает, что с начала 2024 года было пресечено более 20 операций и сетей дезинформации, пытавшихся использовать модели ИИ в вредоносных целях. Эти операции варьировались от отладки вредоносного ПО до написания статей для веб-сайтов и создания контента, публикуемого поддельными аккаунтами в социальных сетях. Сложность действий злоумышленников также разнилась: от простых запросов на генерацию контента до сложных многоэтапных попыток анализа и ответа на сообщения в социальных сетях.

Примечательно, что OpenAI активно использует собственные модели ИИ для выявления и анализа подозрительного поведения. Новые инструменты, разработанные компанией, позволяют сократить время некоторых аналитических этапов с нескольких дней до нескольких минут. Хотя расследование по-прежнему требует внимания и опыта специалистов, ИИ значительно ускоряет процесс.

Тенденции злонамеренного использования ИИ

Анализ пресеченных операций позволил OpenAI выявить ряд ключевых тенденций:

  • Использование ИИ на промежуточном этапе: Злоумышленники чаще всего применяют модели ИИ после получения базовых инструментов (доступ в Интернет, адреса электронной почты, аккаунты в социальных сетях), но до развертывания «готовых» продуктов (публикации в социальных сетях, вредоносное ПО). Это позволяет компаниям, разрабатывающим ИИ, дополнять информацию, получаемую от интернет-провайдеров и платформ социальных сетей.
  • Постоянная эволюция, но без прорывов: Несмотря на эксперименты злоумышленников с моделями ИИ, OpenAI не обнаружила доказательств существенных прорывов в создании принципиально нового вредоносного ПО или формировании вирусной аудитории.
  • Ограниченное влияние на выборы: OpenAI пресекла деятельность, связанную с генерацией контента для социальных сетей о выборах в США, Руанде, Индии и Европейском Союзе. Однако эти сети не смогли привлечь вирусное внимание или создать устойчивую аудиторию.
  • Компании, разрабатывающие ИИ, как мишень: OpenAI пресекла попытку фишинговой атаки, предположительно организованной из Китая, направленной на сотрудников компании.

Примеры злонамеренной активности

Отчет приводит несколько конкретных примеров:

  • Sweet Specter: Предположительно китайская группа, использовавшая сервисы OpenAI для разведки, исследования уязвимостей и фишинговых атак на сотрудников компании.
  • Cyber Av3ngers: Предположительно связанная с КСИР Ирана группа, использовавшая модели ИИ для исследования программируемых логических контроллеров.
  • STORM-0817: Иранская группа, разрабатывавшая вредоносное ПО и инструменты для сбора данных из социальных сетей.
  • StopNews: Российская группа, создававшая контент на английском и французском языках, направленный на Западную Африку и Великобританию.
  • A2Z: Группа, публиковавшая политические комментарии на разных языках в X (Twitter) и Facebook.
  • BetBot: Сеть, рассылавшая спам со ссылками на сайты азартных игр через личные сообщения в X.
  • Операции в Руанде: Сеть, генерировавшая политические твиты в поддержку правящей партии.
  • CorruptComment: Группа, публиковавшая критику Фонда борьбы с коррупцией Алексея Навального в X.
  • TortReport: Группа, генерировавшая комментарии, предназначенные для подачи жалоб на публикации вьетнамских независимых СМИ в Facebook и YouTube.

Выводы и перспективы

OpenAI признает, что злоумышленники продолжают искать новые способы использования ИИ в своих целях. Компания обязуется продолжать работу по выявлению и пресечению подобной деятельности, а также делиться своим опытом с партнерами и исследовательским сообществом. OpenAI подчеркивает важность многоуровневой защиты и постоянного мониторинга киберпространства для эффективного противодействия угрозам, связанным с искусственным интеллектом.

admin
Author: admin