Хотя зарождение генеративного искусственного интеллекта приветствовалось как прорыв в основных отраслях промышленности, не секрет, что преимущества, которые он принес, также открыли новые пути угрозы, подобных которым большинство из нас никогда раньше не видели. Недавний отчет по кибербезопасности показал, что целых восемь из 10 считают, что генеративный ИИ будет играть более значительную роль в будущих кибератаках, при этом четверо из 10 также ожидают заметного увеличения числа подобных атак в течение следующих пяти лет.
Линия фронта уже очерчена – одна сторона использует искусственный интеллект для поддержки бизнеса, в то время как другая делает все возможное, чтобы нарушать правила и заниматься преступной деятельностью, – именно риск-менеджеры должны следить за тем, чтобы их предприятия не отставали в этой гонке вооружений с искусственным интеллектом. В беседе с каналом корпоративных рисков Insurance Business два отраслевых эксперта – Эндрю Тейлор из MSIG Asia и Лиэнн Николо из Coalition – поделились своими мыслями об этом новом ландшафте, а также о том, каким может выглядеть будущее, поскольку искусственный интеллект становится все более распространенным элементом во всех аспектах бизнеса.
“Мы видим уровень изощренности злоумышленников, и они просто сообразительнее, чем когда-либо. Мы это видели”, – сказал Николо. “Однако позвольте мне сделать оговорку, сказав, что у нас не будет возможности доказать со 100% уверенностью, что за изменениями, которые мы видим, стоит искусственный интеллект. Тем не менее, мы почти уверены, что то, что мы видим, является результатом ИИ ”.
Николо связал это с несколькими вещами, наиболее распространенной из которых является улучшение общей коммуникации. Всего пару лет назад она сказала, что участники угрозы не очень хорошо говорят по-английски, процесс получения отфильтрованных клиентом данных не очень понятен, и большинство из них на самом деле не понимают, какими рычагами воздействия они располагают.
“Теперь у нас есть участники угрозы, которые общаются предельно четко и очень эффективно”, – сказал Николо. “Часто они создают юридические обязательства, с которыми может столкнуться клиент, и за то время, пока они получают данные, и за то время, которое им потребуется, чтобы прочитать их, усвоить и понять обязательства, становится настолько ясно, насколько это возможно, что существует какой-то инструмент, который они используют для усвоения и выплевывания этой информации ”.
“Итак, да, мы считаем, что искусственный интеллект определенно используется для того, чтобы заглатывать клиентов и угрожать им, особенно с юридической стороны. С учетом сказанного, мы думаем, что во многих случаях искусственный интеллект используется для создания фишинговых электронных писем еще до того, как это произойдет. Фишинговые электронные письма стали лучше; спам, безусловно, стал намного лучше теперь, благодаря возможности создавать индивидуальные кампании с лучшей прозой и специально ориентированные на компании. Мы видели несколько фишинговых писем, которые моя команда просто просматривает, и без проведения какого-либо анализа они даже не похожи на фишинговые письма ”, – сказала она.
Со стороны Тейлора, искусственный интеллект является одной из тех тенденций, которые будут продолжать усиливаться с точки зрения будущих опасностей в киберсекторе. В то время как 5G и телекоммуникации, а также квантовые вычисления в будущем также являются тем, на что следует обратить внимание, способность искусственного интеллекта обеспечивать более быструю доставку вредоносных программ делает его серьезной угрозой кибербезопасности.
“Мы также должны понимать, что, используя ИИ в качестве защитного механизма, мы получаем этот компромисс”, – сказал Тейлор. “Не совсем негативный, но обоюдоострый меч. Есть хорошие парни, использующие его для защиты и уничтожения этих механизмов. Я действительно думаю, что искусственный интеллект – это то, о чем компаниям по всему региону необходимо знать, поскольку он потенциально упрощает или автоматизирует внедрение злоумышленниками своих вредоносных программ или создание фишинговых электронных писем, чтобы обманом заставить нас перейти по вредоносной ссылке. Но в равной степени, с точки зрения защиты, есть компании, использующие искусственный интеллект, чтобы лучше защищать электронные письма, которые являются вредоносными, и лучше предотвращать проникновение вредоносного ПО в систему. ”
“К сожалению, искусственный интеллект – это не просто инструмент для добрых дел, когда преступники могут использовать его как инструмент для обогащения за счет бизнеса. Однако именно здесь кибериндустрия и киберстрахование играют ту роль, помогая им управлять этими расходами, когда они подвержены некоторым из этих атак ”, – сказал он.
Искусственный интеллект по-прежнему заслуживает изучения, несмотря на опасности, которые он представляет
Подобно “Ящику Пандоры”, распространение ИИ в массы и его растущий уровень внедрения нельзя отменить – что бы хорошее или плохое это ни принесло. Оба эксперта согласились с этим мнением, причем Тейлор указал, что прекращение сейчас будет означать ужасные последствия, поскольку субъекты угрозы будут продолжать использовать технологию по своему усмотрению.
“Правда в том, что мы не можем уйти от факта, что искусственный интеллект был выпущен в мир. Он используется сегодня. Если мы не учимся и не понимаем, как мы можем использовать это в своих интересах, я думаю, мы, вероятно, отстаем. Должны ли мы продолжать смотреть на это? Что касается меня, я думаю, мы должны. Мы не можем просто спрятаться, поскольку живем в эпоху цифровых технологий, и забыть об этой новой технологии. Мы должны использовать ее как можно лучше и научиться использовать это эффективно ”, – сказал Тейлор.
“Я знаю, что ведутся некоторые дебаты по поводу этики, связанной с ИИ, но мы должны понимать, что этим моделям присущи предубеждения из-за баз данных, на которых они были построены. Мы все еще пытаемся понять, что это за предубеждения – или галлюцинации, я думаю, они называются, – откуда они берутся, что они делают ”, – сказал он.
Николо, возглавляющая отдел реагирования на инциденты, говорит, что искусственный интеллект невероятно полезен для выявления аномального поведения и моделей атак, которые могут быть использованы клиентами. Тем не менее, она признает, что технологии отрасли “еще не созданы”, и все еще есть много возможностей для агрессивного расширения ИИ, чтобы лучше защищать глобальные сети от кибератак.
Я думаю, что в ближайшие несколько месяцев – может быть, лет – будет разумно больше инвестировать в технологию ”, – сказал Николо. “Есть ИИ, и люди должны перепроверять. Я не думаю, что ИТ когда-либо будет в состоянии, по крайней мере в ближайшей перспективе, установить и забыть, я думаю, что это станет скорее дополнительным инструментом, требующим внимания, а не просто уйти и забыть о его существовании. Вроде как самоуправляемые автомобили, верно? Они у нас есть, и мы их любим, но вам все равно нужно быть в курсе. ”
“Итак, я думаю, что то же самое будет и с киберинструментами с искусственным интеллектом. Мы можем использовать их, включить в наш арсенал, но нам все еще нужно проявить должную осмотрительность, убедиться, что мы исследуем, какие инструменты у нас есть, понимаем, что эти инструменты делают, и следим за тем, чтобы они работали правильно ”, – сказала она.