Кибербезопасность в эпоху искусственного интеллекта: изучение кибератак, генерируемых искусственным интеллектом
Искусственный интеллектКибербезопасность

Кибербезопасность в эпоху искусственного интеллекта: изучение кибератак, генерируемых искусственным интеллектом

Исторически кибератаки были трудоемкими, тщательно планируемыми и требовали обширных исследований вручную. Однако с появлением искусственного интеллекта субъекты угроз использовали свои возможности для организации атак с исключительной эффективностью. Этот технологический сдвиг позволяет им выполнять более сложные, масштабируемые атаки, которые труднее обнаружить. Они также могут манипулировать алгоритмами машинного обучения для нарушения операций или компрометации конфиденциальных данных, усиливая влияние своей преступной деятельности.

Злоумышленники все чаще обращаются к искусственному интеллекту для анализа и совершенствования своих стратегий атак, что значительно повышает вероятность их успеха. Эти атаки, управляемые искусственным интеллектом, характеризуются скрытым и непредсказуемым характером, что делает их искусными в обходе традиционных мер безопасности, основанных на фиксированных правилах и исторических данных об атаках. В опросе глобального директора по информационной безопасности (CISO) 2023 года, проведенном поисковой фирмой Heidrick & Struggles, искусственный интеллект был назван наиболее часто признаваемой серьезной угрозой, ожидаемой в ближайшие пять лет. Следовательно, организации должны уделять приоритетное внимание повышению осведомленности об этих киберугрозах с поддержкой искусственного интеллекта и соответственно укреплять свою защиту.

Характеристики кибератак, управляемых искусственным интеллектом

Кибератаки, управляемые искусственным интеллектом, обладают следующими характеристиками:

  • Автоматическое профилирование целей: Искусственный интеллект упрощает исследования атак, используя анализ данных и машинное обучение для эффективного профилирования целей путем сбора информации из общедоступных записей, социальных сетей и веб-сайтов компаний.
  • Эффективный сбор информации: Искусственный интеллект ускоряет этап разведки, который является первым активным шагом в атаке, автоматизируя поиск целей на различных онлайн-платформах, повышая эффективность.
  • Персонализированные атаки: Искусственный интеллект анализирует данные для создания персонализированных фишинговых сообщений с высокой точностью, повышая вероятность успешного обмана.
  • Таргетинг на сотрудников: Искусственный интеллект выявляет ключевых сотрудников организаций, имеющих доступ к конфиденциальной информации.
  • Обучение с подкреплением: Искусственный интеллект использует обучение с подкреплением для адаптации в режиме реального времени и постоянного совершенствования атак, корректируя тактику на основе предыдущих взаимодействий, чтобы оставаться гибким и повышать вероятность успеха, опережая средства защиты.

Типы кибератак с поддержкой искусственного интеллекта

Продвинутые фишинговые атаки

В недавнем отчете компании по кибербезопасности SlashNext приводится тревожная статистика: с четвертого квартала 2022 года количество вредоносных фишинговых электронных писем выросло на 1265%, при этом фишинг учетных данных вырос на 967%. Киберпреступники используют генеративные инструменты искусственного интеллекта, такие как ChatGPT, для создания высоконаправленных и сложных компрометирующих сообщений деловой электронной почты (BEC) и фишинговых сообщений.

Дни плохо составленных электронных писем “Принц Нигерии” на ломаном английском остались в прошлом. В настоящее время фишинговые электронные письма удивительно убедительны, отражая тон и структуру официальных сообщений из надежных источников. Участники угроз используют искусственный интеллект для создания очень убедительных электронных писем, что затрудняет определение их подлинности.

Для защиты от фишинговых атак с поддержкой искусственного интеллекта:

  • Внедрите усовершенствованную фильтрацию электронной почты и антифишинговое программное обеспечение для обнаружения и блокирования подозрительных электронных писем.
  • Обучайте сотрудников распознаванию признаков фишинга и регулярно проводите тренинги по повышению осведомленности о фишинге.
  • Применяйте многофакторную аутентификацию и регулярно обновляйте программное обеспечение для устранения известных уязвимостей.

Продвинутые атаки социальной инженерии

Атаки социальной инженерии, созданные искусственным интеллектом, включают манипулирование и обман людей с помощью алгоритмов искусственного интеллекта для создания убедительных персонажей, сообщений или сценариев. Эти методы используют психологические принципы, чтобы заставить цели раскрыть конфиденциальную информацию или выполнить определенные действия.

Примеры атак социальной инженерии, созданных искусственным интеллектом, включают:

  • Чат-боты, или виртуальные помощники, созданные искусственным интеллектом, способны к человекоподобному взаимодействию и вступают в разговоры с отдельными людьми для сбора конфиденциальной информации или манипулирования их поведением.
  • Технология deepfake на базе искусственного интеллекта представляет серьезную угрозу, поскольку генерирует аутентичный аудио- и видеоконтент для кампаний по олицетворению и дезинформации. Используя инструменты синтеза голоса искусственного интеллекта, злоумышленники собирают и анализируют аудиоданные, чтобы точно имитировать голос цели, облегчая обман в различных сценариях.
  • Манипулирование социальными сетями с помощью созданных искусственным интеллектом профилей или автоматизированных ботов, которые распространяют пропаганду, фейковые новости или вредоносные ссылки.

Стратегии защиты от атак социальной инженерии с использованием искусственного интеллекта

  • Расширенное обнаружение угроз: Внедрение систем обнаружения угроз на базе искусственного интеллекта, способных выявлять закономерности, указывающие на атаки социальной инженерии.
  • Инструменты фильтрации электронной почты и защиты от фишинга: Используйте решения на базе искусственного интеллекта для блокирования вредоносных электронных писем до того, как они попадут в почтовые ящики пользователей.
  • Многофакторная аутентификация (MFA): Внедрите MFA, чтобы добавить дополнительный уровень защиты от несанкционированного доступа.
  • Программы обучения сотрудников и повышения осведомленности о безопасности: Обучайте сотрудников распознавать тактики социальной инженерии, включая методы с поддержкой искусственного интеллекта, и сообщать о них посредством постоянных информационных кампаний и тренингов.

Атаки программ-вымогателей

В оценке NCSC рассматривается влияние искусственного интеллекта на кибероперации и меняющийся ландшафт угроз в течение следующих двух лет. В нем рассказывается о том, как искусственный интеллект снижает барьеры для начинающих киберпреступников, наемных хакеров и хактивистов, расширяя возможности доступа и сбора информации. Участники угроз, включая группы программ-вымогателей, уже используют эту повышенную эффективность в различных кибероперациях, таких как разведка, фишинг и кодирование. Ожидается, что эти тенденции сохранятся и после 2025 года.

Как защититься от атак программ-вымогателей с поддержкой искусственного интеллекта:

  • Расширенное обнаружение угроз: Используйте системы на базе искусственного интеллекта для выявления шаблонов программ-вымогателей и аномалий в сетевой активности.
  • Сегментация сети: Разделите сеть, чтобы ограничить распространение программ-вымогателей.
  • Резервное копирование и восстановление: Регулярно создавайте резервные копии критически важных данных и проверяйте процессы восстановления.
  • Управление исправлениями: Постоянно обновляйте системы для устранения уязвимостей, используемых программами-вымогателями.

Состязательный искусственный интеллект

Атаки с уклонением и отравлением – это два типа состязательных атак в контексте моделей искусственного интеллекта (ИИ) и машинного обучения (ML).

Атаки с отравлением: Они включают вставку вредоносных данных в обучающий набор данных модели искусственного интеллекта или ML. Цель состоит в том, чтобы манипулировать поведением модели путем тонкого изменения обучающих данных, что приводит к предвзятым прогнозам или снижению производительности. Внедряя искаженные данные во время обучения, злоумышленники могут подорвать целостность и надежность модели.

Атаки уклонения: Целью этих атак является введение в заблуждение модели машинного обучения путем обработки входных данных. Цель состоит в том, чтобы изменить прогноз модели путем незначительных изменений входных данных, что приведет к неправильной классификации данных. Эти корректировки тщательно разработаны, чтобы оставаться визуально незаметными для людей. Атаки с целью уклонения распространены в различных приложениях искусственного интеллекта, таких как распознавание изображений, обработка естественного языка и распознавание речи.

Как защититься от враждебного искусственного интеллекта:

  • Состязательное обучение: Обучите модель распознавать примеры состязательности, используя доступные инструменты для автоматического обнаружения.
  • Переключение моделей: Для прогнозирования в системе используется несколько случайных моделей, что усложняет задачу злоумышленникам, поскольку они не знают о текущей используемой модели.
  • Обобщенные модели: Объедините несколько моделей для создания обобщенной модели, что затруднит обман всех участников угрозы.
  • Ответственный ИИ: Используйте ответственные фреймворки искусственного интеллекта для устранения уникальных уязвимостей в машинном обучении, поскольку традиционных фреймворков безопасности может быть недостаточно.

Вредоносные GPT

Вредоносные GPT включают манипулирование генеративными предварительно обученными трансформерами (GPT) в наступательных целях, используя их обширную информацию о киберугрозах. Пользовательские GPT, использующие обширные наборы данных, потенциально могут обойти существующие системы безопасности, что приведет к новой эре адаптивных и уклончивых угроз, генерируемых искусственным интеллектом. Следует отметить, что на данный момент они носят лишь теоретический характер и на момент написания этой статьи еще не были замечены в активном использовании.

  • WormGPT: используется для генерации мошеннических электронных писем, разжигания ненависти и распространения вредоносного ПО, помогая киберпреступникам в проведении атак по компрометации деловой электронной почты (BEC) с целью воздействия на получателей.
  • FraudGPT: обладает способностью генерировать необнаруживаемое вредоносное ПО, фишинговые страницы, нераскрытые инструменты для взлома, выявлять утечки и уязвимости, а также выполнять дополнительные функции.
  • POISONONGPT: Poison GPT создан для распространения онлайн-дезинформации путем введения ложных деталей в исторические события. Этот инструмент позволяет злоумышленникам фабриковать новости, искажать реальность и влиять на общественное восприятие.

Заключение

Атаки, генерируемые искусственным интеллектом, представляют серьезную угрозу, способную нанести широкомасштабный ущерб и нарушить работу. Чтобы подготовиться к этим угрозам, организациям следует инвестировать в защитные технологии искусственного интеллекта, развивать культуру осведомленности о безопасности и постоянно обновлять свои стратегии защиты. Сохраняя бдительность и проактивность, организации могут лучше защитить себя от этой новой и развивающейся угрозы.

Источник

Дилки Ратнаяке

Приглашенный автор

Примечание редактора: Мнения, выраженные в этой статье приглашенного автора, принадлежат исключительно автору и не обязательно отражают мнение Tripwire.

admin
Author: admin

Hi, I’m admin