Статья в “Security Magazine”, озаглавленная “AI security risks: Separating hype from reality”, написанная Пэм Нигро, обсуждает риски безопасности, связанные с искусственным интеллектом (ИИ), и как профессионалы в области безопасности могут использовать ИИ для улучшения своих возможностей, одновременно эффективно решая связанные с ним риски.
В статье подчеркивается, что большинство организаций не предоставляют обучение по авторизованному использованию генеративного ИИ, и только три из десяти организаций установили политики, регулирующие использование технологии ИИ. Несмотря на то, что ИИ представляет собой значительные риски для предприятий, включая риски безопасности и конфиденциальности, важно понимать, какие угрозы наиболее серьезны и какие, возможно, преувеличены.
Автор сравнивает текущие опасения, связанные с принятием ИИ в корпоративном мире, с ранними опасениями относительно перехода на облачные платформы в медицинской отрасли. Многие из этих опасений оказались несколько преувеличенными. Так же, как переход от традиционной безопасности на месте к облачной безопасности потребовал от профессионалов в области безопасности адаптации своих навыков, быстрое принятие генеративного ИИ представляет большую возможность для профессионалов в области безопасности изменить свой подход.
Существуют две модели развертывания генеративного ИИ: публичная (например, ChatGPT) и частная. Основное различие заключается в доступности и контроле. Публичный генеративный ИИ доступен широкому кругу пользователей и предлагает ограниченную настройку, в то время как частный генеративный ИИ адаптирован к конкретным потребностям организации, позволяя более тщательно контролировать его использование, обработку данных и поведение.
Для ответственного использования генеративного ИИ важную роль играют команды безопасности, рисков и ИТ. Команды ИТ будут отвечать за ограничение доступа к конкретным моделям генеративного ИИ. Функция рисков включает в себя идентификацию, оценку и смягчение рисков, связанных с генеративным ИИ, для обеспечения ответственного и этичного использования. Команды безопасности должны обеспечивать, чтобы данные, используемые для обучения и настройки моделей генеративного ИИ, обрабатывались с соблюдением строгих мер конфиденциальности и безопасности.