Почти половина специалистов в области безопасности Согласны с тем, что GenAI Является одним из самых больших рисков для их безопасности
Искусственный интеллектКибербезопасностьОтчеты

Почти половина специалистов в области безопасности согласны с тем, что GenAI является одним из самых больших рисков для их безопасности

Более двух третей считают, что внешний анализ внедрений ИИ – лучший способ выявить проблемы с безопасностью ИИ

HackerOne, компания-лидер в области безопасности, основанной на участии человека, сегодня обнародовала данные, согласно которым 48% специалистов по безопасности считают, что ИИ является наиболее значительным риском для безопасности их организации. В преддверии выпуска своего ежегодного отчета о безопасности, основанного на хакерских разработках, HackerOne обнародовала первые выводы, которые включают данные опроса 500 специалистов в области безопасности. Когда дело доходит до ИИ, респондентов больше всего беспокоит утечка обучающих данных (35%), несанкционированное использование ИИ в их организациях (33%) и взлом моделей ИИ посторонними лицами (32%).

Когда их спросили о решении проблем, связанных с безопасностью искусственного интеллекта, 68% ответили, что внешний и непредвзятый анализ внедрений искусственного интеллекта является наиболее эффективным способом выявления проблем с безопасностью искусственного интеллекта. AI red teaming предлагает этот тип внешней проверки через глобальное сообщество исследователей безопасности, которые помогают защитить модели искусственного интеллекта от рисков, предвзятостей, вредоносных эксплойтов и вредных результатов.

“Хотя мы все еще достигаем консенсуса в отрасли относительно безопасности ИИ и передовых практик обеспечения безопасности, есть несколько четких тактик, благодаря которым организации добились успеха”, – сказал Майкл Принс, соучредитель HackerOne. “Anthropic, Adobe, Snap и другие ведущие организации доверяют мировому сообществу исследователей в области безопасности в том, что они предоставляют стороннюю экспертную оценку своих внедрений искусственного интеллекта”.

Дальнейшее исследование из отчета Института SANS, спонсируемого HackerOne, изучило влияние ИИ на кибербезопасность и показало, что более половины (58%) респондентов прогнозируют, что ИИ может способствовать “гонке вооружений” между тактикой и методами, используемыми командами безопасности, и киберпреступниками. Исследование также выявило оптимизм в отношении использования ИИ для повышения производительности сотрудников службы безопасности: 71% сообщили об удовлетворенности внедрением ИИ для автоматизации утомительных задач. Однако респонденты полагали, что повышение производительности ИИ пошло на пользу злоумышленникам, и больше всего их беспокоили фишинговые кампании с использованием ИИ (79%) и автоматизированное использование уязвимостей (74%).

“Команды безопасности должны находить лучшие приложения для ИИ, чтобы не отставать от противников, а также учитывать существующие ограничения — или рисковать создать больше работы для себя”, – сказал Мэтт Бромили, аналитик Института SANS. “Наше исследование показывает, что ИИ следует рассматривать как инструмент, а не угрозу работе. Автоматизация рутинных задач позволяет командам безопасности сосредоточиться на более стратегических действиях ”.

Второй пилот Hai на базе искусственного интеллекта от HackerOne продолжает освобождать время команд безопасности, автоматизируя задачи и предлагая более глубокое понимание уязвимостей. Эти преимущества стимулируют внедрение Hai, которое выросло на 150% с момента запуска и экономит группам безопасности в среднем пять часов работы в неделю. Продукты, ориентированные на искусственный интеллект, также продолжают стимулировать бизнес HackerOne: во втором квартале количество сотрудников AI Red выросло на 200% по сравнению с предыдущим кварталом, а количество программ безопасности увеличилось на 171%, что расширило сферу применения средств искусственного интеллекта.

admin
Author: admin

Hi, I’m admin

Добавить комментарий