Технология generative pre-trained способна стимулировать достижения в области кибербезопасности, радикально сокращать время реагирования на угрозы, устранять риски идентификации, вытеснять команды безопасности и добавлять так называемых “помощников SOC” для выявления вредоносной активности, по словам докладчиков, открывающих неделю конференций по кибербезопасности здесь.
Выступая перед участниками конференции RSA в Moscone Center во время своего вступительного слова, Рохит Гай, главный исполнительный директор RSA Security, сказал: “каждая новая технологическая волна масштабнее, быстрее и разрушительнее всех предыдущих. Этот раз ничем не отличается.”
Для Ghai ИИ – это элемент кибербезопасности, укрепляющий существующие технологии управления идентификацией, такие как нулевое доверие, управление учетными данными и то, что будет все больше дополнять существующие технологии автоматизации smarts.
“Без хорошего ИИ нулевое доверие имеет нулевые шансы”, – сказал Гхай.
Он указал на появление платформы управления доступом к удостоверениям личности следующего поколения, основанной на ИИ. Эта система идентификации, как ее уже называет Gartner, объединяет возможности нескольких поставщиков, создавая единое решение.
“Платформа управления идентификацией и доступом устарела”, – сказал Гхай. “Управление доступом и идентификацией – это функции, которые делают ставки за столом. … Сегодня основной целью платформы идентификации является безопасность. В эпоху ИИ нам нужна платформа для защиты личных данных ”.
ИИ, по его словам, поддержит огромный объем тяжелой работы, необходимой для сплочения структуры идентичности для борьбы с растущим числом угроз, связанных с ИИ, с которыми сталкиваются предприятия.
ИИ вторгается в RSAC 2023
Гхай сказал, что ИИ здесь, и сообщество кибербезопасности должно использовать его мощь. На этой неделе, по его словам, почти дюжина крупных поставщиков, включая RSA Security, наряду с более чем 50 стартапами, анонсировали продукты кибербезопасности на базе искусственного интеллекта. Он добавил, что отрасль могут ожидать сбои.
“Со временем мы должны ожидать, что многие рабочие места исчезнут, многие изменятся, а некоторые будут созданы”.
По его словам, луч надежды при потере работы заключался в том, что в первую очередь не хватало человеческих талантов в области кибербезопасности. Одна из задач, которую потенциально может решить ИИ, – это иногда тяжелая и отнимающая много времени задача расследования ложных срабатываний.
К большому удовольствию толпы профессионалов в области кибербезопасности, Гхай продолжил: “[гуманоидные специалисты по кибербезопасности] по-прежнему будут играть важную роль в обучении, надзоре, регулировании этики и мониторинге ИИ для [таких задач, как] управление воздушным движением и разработка планов полетов. ИИ учится на вопросах, которые мы задаем. Мы будем обучать ИИ, задавая четко сформулированные, продуманные вопросы. Мы будем изобретать новые модели и алгоритмы искусственного интеллекта ”.
Джиту Пател, исполнительный вице-президент и генеральный директор Cisco по безопасности и сотрудничеству, представлял ИИ своего рода дирижером, объединяющим различные технологии кибербезопасности в единую гармоничную симфонию.
“Мы не можем просто полагаться на изолированные наборы средств защиты, когда нам нужен скоординированный набор средств защиты”, – сказал Патель. Платформа MITRE ATT & CK, которую он привел в качестве примера, не полагается на единственное слабое звено в поверхности атаки на кибербезопасность, а скорее использует цепочку слабых мест из электронной почты, вредоносных веб-сайтов и загрузок вредоносных программ.
“[У нас есть] чрезвычайно способные поставщики на рынке, которые отлично справляются с [защитой] каждой из этих областей. Но чего они не делают, так это создают гармонию ”, – сказал он. “Это просто нескоординированная телеметрия, которая создает больше шума на рынке. Итак, вопрос, который мы должны задать себе, заключается в том, что нужно миру? ”
Он утверждал, что отрасли нужен набор средств защиты, которые были бы полностью скоординированы и синхронизированы. И что может помочь превратить какофонию в гармонию? Вы уже догадались: ИИ.
Подходит ли ИИ для вашей работы по кибербезопасности?
К Пателю на сцене присоединился Том Гиллис, старший вице-президент и генеральный директор бизнес-группы CISCO по безопасности. Он представил концепцию помощника по ИИ SOC, чтобы расширить работу аналитиков SOC.
“Оперативный центр безопасности обнаруживает угрозы и реагирует на них в режиме реального времени. Когда начинается инцидент, время имеет решающее значение, и аналитики SOC часто завалены оперативной информацией и задачами. Чтобы помочь с этим, давайте представим, что наши аналитики SOC могут полагаться на систему безопасности AI, которую мы назовем AMES ”, – сказал Джиллис.
Затем Джиллис представил видео, на котором бот AI SOC пробирается сквозь цунами потенциальной вредоносной сетевой телеметрии и отвечает на запросы компьютерным голосом, устрашающе похожим на HAL 9000.
“Прелесть этой концепции в том, что когда вы используете ИИ для улучшения работы людей, могут произойти удивительные вещи, потому что вы сокращаете время на расследование. И вы убедитесь, что действительно можете реагировать практически в режиме реального времени ”, – сказал он о демонстрации, которая представляет не столь отдаленную реальность.
Патель сказал, что генеративные модели ИИ уже используются для фокусировки на конкретных доменах, чтобы иметь возможность обнаруживать аномалии, предупреждать команды безопасности и устранять атаки или уязвимости автономно, используя правила ИИ.
Он отметил, что ключом к этой революции в области ИИ был дружественный пользовательский интерфейс. Он приписал успех OpenAI ChatGPT его пользовательскому интерфейсу. Он сказал, что платформа разрослась до 100 миллионов пользователей за 60 дней, превзойдя восходящих звезд Facebook и Instagram, которым потребовалось более четырех лет каждому, чтобы достичь этого уровня пользователей.
Оборотной стороной того, что Ghai из RSA назвал ботами с “хорошим ИИ”, является существование ботов с “плохим ИИ”.
“Участники киберугроз будут использовать инструменты ИИ в сложных фишинговых кампаниях и создавать вредоносный GPT для компрометации личности. Специалистам по кибербезопасности необходимо будет использовать ИИ для нейтрализации этих угроз ”, – сказал Гхай.
“Без хорошего ИИ плохой ИИ будут использовать те же участники киберугроз, которые годами использовали автоматизацию”, – сказал он. Искусственный интеллект будет использоваться для запуска очень сложных кампаний социальной инженерии. Их фишинговые кампании эмоционально манипулятивны, убедительны и используют соблазнительный язык — без каких-либо грамматических ошибок. Они побеждают MFA. Нам нужен хороший ИИ на нашей стороне, чтобы вынюхивать эти все более изощренные кампании, запущенные плохим ИИ ”.