Генеративный ИИ
ChatGPTИскусственный интеллект

Генеративный ИИ — создатель вредоносного ПО или защитник кибербезопасности?

Когда OpenAI в ноябре 2022 года запустила свою модель генеративного ИИ ChatGPT, ее возможности поразили миллионы пользователей. По мере того, как новизна начинает сходить на нет, возникает больше вопросов, чем ответов о возможных опасностях, которые генеративный ИИ представляет для кибербезопасности, как и любая новая технология.

История показала нам, что всякий раз, когда появляется новая технология, которую можно использовать для добрых дел, злоумышленники не отстают, используя ту же технологию с недобрыми намерениями. Возможно, попытки использовать ChatGPT для киберпреступной деятельности уже предпринимаются.

29 декабря 2022 года на популярном подпольном хакерском форуме появилась тема под названием “ChatGPT – преимущества вредоносного ПО”. Издатель темы сообщил, что он экспериментировал с ChatGPT, чтобы воссоздать разновидности вредоносного ПО и методы, описанные в исследовательских публикациях и обзорах распространенных вредоносных программ. Например, он поделился кодом программы-похитителя на основе Python, которая ищет распространенные типы файлов, копирует их в случайную папку внутри папки Temp, архивирует их и загружает на жестко запрограммированный FTP-сервер.

По мере того как киберпреступники совершенствуют свои методы атак с использованием генеративного ИИ, мы также должны задаться вопросом, может ли сообщество безопасности опередить противников и использовать эту технологию для усиления безопасности.

Генеративный ИИ далек от того, чтобы заменить инженеров по безопасности, но он может сократить некоторые трудоемкие и сложные работы. Как и все, что связано с ChatGPT, защитники безопасности начинают находить способы использовать эту технологию для повышения кибербезопасности. Например, исследования в области безопасности – это область, где можно эффективно использовать большие языковые модели (LLM). Вот четыре способа, которыми генеративный ИИ может быть использован защитниками безопасности.

Обратный инжиниринг

Обратный инжиниринг является важнейшим аспектом исследований в области безопасности и требует огромного объема знаний и практики для совершенствования. Генеративный ИИ может уменьшить некоторые сложности, с которыми реверсивные инженеры сталкиваются каждый день.

Давайте рассмотрим Ghidra, любимый инструмент сообщества безопасности. Он автоматизирует задачи обратного проектирования, такие как дизассемблирование двоичного файла в список на языке ассемблера, реконструкция его графика потока управления и декомпиляция его в нечто, напоминающее исходный код на языке программирования C. Ghidra бесценен, но при интеграции с generative AI он может еще больше упростить процесс.

В идеале реверсивный инженер должен был бы тщательно просматривать декомпилированный код, который генерирует Ghirda, и добавлять пояснительные комментарии к тому, что делает код. Генеративный ИИ может добавить еще один уровень автоматизации. Он может добавлять объяснения того, что делает функция, наряду с предложениями по описательным именам переменных, позволяя разработчикам обратного анализа иметь высокоуровневое представление о функциональности кода без необходимости проходить через каждую строку кода.

Эти инструменты не являются надежными, но преимущество заключается в том, что предложения легко сверяются как с выводом декомпилятора, так и со списком сборок, из которых этот вывод был получен.

Отладочный код

Отладочный код – это область обратного инжиниринга, освоение которой требует значительных усилий, и, естественно, генеративный ИИ может уменьшить эту сложность, предоставляя интерактивный инструмент для изучения контекста отладки. Поскольку генеративный ИИ получает информацию о регистрах, значениях стека, обратном отслеживании, сборке и декомпилированном коде, он добавляет соответствующий контекст к запросам обратного разработчика. Если решение поддерживает языковые модели от Anthropic и OpenAI, оно позволяет исследователям безопасности анализировать отладочную информацию и отвечать на вопросы о состоянии среды выполнения или ассемблерном коде.

Например, исследователи могут задавать вопросы, варьирующиеся от общих вопросов типа “Что здесь происходит?” до более конкретных вопросов типа “Видите ли вы какие-либо уязвимости в системе безопасности?”. Если да, то как их можно использовать?” Это предлагает диалоговый подход к отладке в отличие от обратного проектирования, требующего ручной отладки кода.

Безопасность веб-приложений

Веб-приложения представляют собой огромную проблему для исследователей из-за явных сложностей, связанных с выявлением в них уязвимостей. Одним из самых мощных инструментов, используемых для обеспечения безопасности веб-приложений, является Burp Suite. При интеграции с ChatGPT его возможности могут сократить ручное тестирование, автоматизировать тестирование безопасности для разработчиков веб-приложений и помочь выявить новые эксплойты.

Эти возможности generative AI могут оказать существенное влияние на сокращение ручного тестирования и автоматизацию тестирования безопасности для разработчиков веб-приложений.

Повышение доступности облачных инструментов

Когда дело доходит до облачной безопасности, неправильные настройки в управлении идентификацией и доступом (IAM) являются одной из наиболее распространенных проблем организаций и слишком часто упускаются из виду. Только в 2022 году во всем мире 800 миллионов записей были раскрыты из-за неправильных настроек облака. Когда мощные облачные решения для обеспечения безопасности интегрированы с generative AI, их можно использовать для извлечения всех политик IAM, связанных с пользователями или группами.

Генеративный ИИ может помочь определить потенциальные возможности эскалации и любые соответствующие меры по смягчению последствий. Он может определять сложные сценарии повышения привилегий на основе нетривиальных политик с помощью нескольких учетных записей IAM. Это означает, что исследователи безопасности могут определять потенциальные пути атаки, разделять их по степени серьезности и начинать усилия по смягчению последствий.

Поскольку LLM, такие как ChatGPT и GPT-4, продолжают развиваться, мы должны предвидеть, что киберпреступники будут использовать это в своих интересах — от более убедительных и лингвистически точных фишинговых электронных писем до создания вредоносного кода — злоумышленники будут пытаться злоупотреблять технологией, чтобы предоставить зараженные данные или обманом заставить модели раскрыть конфиденциальные данные.

Но в конце туннеля есть свет. Службы безопасности могут использовать технологию для укрепления своей защиты. Генеративный ИИ может использоваться для анализа журналов, обнаружения аномалий, сортировки и реагирования на инциденты.

Специалисты по безопасности также могут использовать его для снижения ручной нагрузки и оказаться критически важными для инженеров обратного анализа, помочь командам разработчиков в статическом анализе кода и выявить потенциально уязвимый код.

В сочетании с усовершенствованным обнаружением угроз и разведданными от обученных моделей искусственного интеллекта защитники могут повысить безопасность и затруднить киберпреступникам проникновение в их сети. Пока варианты его использования только обнаруживаются, генеративный ИИ может улучшить кибербезопасность и стать важнейшим инструментом в арсенале службы безопасности.

Источник

admin
Author: admin