Отсутствие в официальных отчетах обильных данных об атаках с использованием искусственного интеллекта не должно мешать нам готовиться к потенциальным будущим угрозам и смягчать их.
“Отчет о расследованиях нарушений данных” Verizon (DBIR) – это заслуживающий доверия ежегодный отчет, который предоставляет ценную информацию об утечках данных и киберугрозах на основе анализа реальных инцидентов. Профессионалы в области кибербезопасности полагаются на этот отчет, чтобы помочь разработать стратегии безопасности, основанные на тенденциях в меняющемся ландшафте угроз. Тем не менее, DBIR 2024 года поднял несколько интересных вопросов, особенно касающихся роли генерирующего ИИ в кибератаках.
Позиция DBIR в отношении генеративного ИИ
Авторы последнего DBIR заявляют, что исследователи “следили за любыми признаками использования развивающейся области генеративного искусственного интеллекта (GenAI) в атаках и потенциальными эффектами этих технологий, но в данных об инцидентах, которые мы собирали по всему миру, ничего не материализовалось”.
Хотя я не сомневаюсь, что это утверждение верно, исходя из специфических методов сбора данных Verizon, оно резко контрастирует с тем, что мы наблюдаем на местах. Основное предостережение к общему заявлению Verizon о GenAI содержится в приложении DBIR 2024 года, где упоминается расследование секретной службы, продемонстрировавшее GenAI как “критически важную технологию” для злоумышленников, не владеющих английским языком.
Однако в SlashNext мы заметили, что реальное влияние GenAI на кибератаки выходит далеко за рамки этого единственного варианта использования. Ниже приведены шесть различных вариантов использования, которые мы видели “в дикой природе”.
Шесть примеров использования генеративного искусственного интеллекта в киберпреступности
1. Фишинговые электронные письма с использованием искусственного интеллекта
Исследователи угроз заметили, что киберпреступники делятся руководствами по использованию GenAI и инструментов перевода для повышения эффективности фишинговых электронных писем. На этих форумах хакеры предлагают использовать ChatGPT для создания электронных писем профессионального звучания и дают советы не носителям языка по созданию более убедительных сообщений. Фишинг уже является одним из самых распространенных видов атак, и, даже согласно базе данных Verizon, пользователю требуется в среднем всего 21 секунда, чтобы нажать на вредоносную ссылку в фишинговом электронном письме после его открытия, и еще 28 секунд, чтобы пользователь передал свои данные. Злоумышленники, использующие GenAI для рассылки фишинговых электронных писем, только делают эти атаки более убедительными и эффективными.
2. Создание вредоносных программ с помощью искусственного интеллекта
Злоумышленники изучают использование искусственного интеллекта для разработки вредоносных программ, таких как кейлоггеры, которые могут работать незамеченными в фоновом режиме. Они просят WormGPT, основанную на искусственном интеллекте модель большого языка (LLM), помочь им создать кейлоггер, использующий Python в качестве языка программирования. Это демонстрирует, как киберпреступники используют инструменты искусственного интеллекта для оптимизации и усиления своей вредоносной деятельности. Используя искусственный интеллект для кодирования, злоумышленники потенциально могут создавать более сложные и труднообнаруживаемые вредоносные программы.
3. Мошеннические веб-сайты, созданные искусственным интеллектом
Киберпреступники используют нейронные сети для создания серии мошеннических веб-страниц, или “готовых дорвеев”, предназначенных для перенаправления ничего не подозревающих жертв на мошеннические веб-сайты. Эти страницы, созданные искусственным интеллектом, часто имитируют законные сайты, но содержат скрытые вредоносные элементы. Используя нейронные сети, злоумышленники могут быстро создавать большое количество убедительных поддельных страниц, каждая из которых немного отличается, чтобы избежать обнаружения. Этот автоматизированный подход позволяет киберпреступникам раскидывать более широкую сеть, потенциально вовлекая больше жертв в свои фишинговые схемы.
4. Глубокие подделки для обхода проверки учетной записи
Исследователи угроз SlashNext обнаружили поставщиков в Темной Сети, предлагающих услуги, которые создают глубокие подделки для обхода процессов проверки учетных записей в банках и криптовалютных биржах. Они используются для обхода рекомендаций “знай своего клиента” (KYC). Эта тревожная тенденция показывает, как глубокие подделки, созданные искусственным интеллектом, превращаются из социальной инженерии и кампаний по дезинформации в инструменты финансового мошенничества. Преступники используют продвинутый искусственный интеллект для создания реалистичных видео- и аудиовизуальных подделок, вводя в заблуждение системы безопасности, которые полагаются на биометрическую проверку.
5. Подмена голоса с помощью искусственного интеллекта
Киберпреступники делятся информацией о том, как использовать искусственный интеллект для подделки и клонирования голосов для использования в различных киберпреступлениях. Эта возникающая угроза использует передовые алгоритмы машинного обучения для воспроизведения человеческих голосов с поразительной точностью. Злоумышленники потенциально могут использовать эти созданные искусственным интеллектом голосовые клоны для выдвижения себя за руководителей, членов семьи или авторитетных лиц в ходе атак социальной инженерии. Например, они могут совершать мошеннические телефонные звонки для авторизации денежных переводов, обходить голосовые системы безопасности или манипулировать жертвами с целью получения конфиденциальной информации.
6. Боты с одноразовым паролем, усовершенствованные искусственным интеллектом
Искусственный интеллект интегрируется в ботов с одноразовым паролем (OTP) для создания шаблонов для голосового фишинга. Эти сложные инструменты включают такие функции, как пользовательские голоса, поддельные идентификаторы вызывающего абонента и системы интерактивного голосового реагирования. Функция настраиваемой голосовой связи позволяет преступникам имитировать доверенные организации или даже конкретных физических лиц, в то время как поддельные идентификаторы вызывающих абонентов придают мошенничеству дополнительную достоверность. Интерактивные системы голосового реагирования добавляют дополнительный уровень реалистичности, делая поддельные звонки почти неотличимыми от законных. Этот подход на базе искусственного интеллекта не только повышает вероятность успеха попыток фишинга, но и усложняет обнаружение и предотвращение таких атак системами безопасности и отдельными лицами.
Хотя я согласен с DBIR в том, что вокруг ИИ в кибербезопасности много шумихи, крайне важно не сбрасывать со счетов потенциальное влияние генеративного ИИ на ландшафт угроз. Представленные выше неофициальные данные демонстрируют, что киберпреступники активно изучают и внедряют методы атак с использованием искусственного интеллекта.
Взгляд в будущее
Организации должны занимать активную позицию в отношении ИИ в кибербезопасности. Даже если объем атак с использованием ИИ в официальных наборах данных в настоящее время невелик, наши неофициальные данные свидетельствуют о том, что угроза реальна и растет. Двигаясь вперед, важно сделать следующее:
- Будьте в курсе последних разработок в области искусственного интеллекта и кибербезопасности
- Инвестируйте в решения для обеспечения безопасности на базе искусственного интеллекта, которые могут продемонстрировать очевидные преимущества
- Постоянная оценка и совершенствование процессов обеспечения безопасности для противодействия возникающим угрозам
- Будьте бдительны в отношении новых направлений атак, использующих технологии искусственного интеллекта
Хотя мы уважаем выводы DBIR, мы считаем, что отсутствие в официальных отчетах обильных данных об атаках с использованием искусственного интеллекта не должно мешать нам готовиться к потенциальным будущим угрозам и смягчать их — особенно с учетом того, что технологии GenAI стали широко доступны только в течение последних двух лет. Представленные нами неофициальные данные подчеркивают необходимость постоянной бдительности и упреждающих мер.