Исследовательская компания в области искусственного интеллекта OpenAI объявила сегодня о запуске новой программы вознаграждений за ошибки, которая позволит зарегистрированным исследователям безопасности обнаруживать уязвимости в линейке продуктов и получать деньги за сообщение о них через платформу безопасности, использующую краудсорсинг Bugcrowd.
Как сообщила сегодня компания, вознаграждение зависит от серьезности и воздействия выявленных проблем и варьируется от 200 долларов за незначительные недостатки безопасности до 20 000 долларов за исключительные открытия.
“Программа вознаграждений за ошибки OpenAI – это способ для нас признать и вознаградить ценные идеи исследователей безопасности, которые вносят вклад в обеспечение безопасности нашей технологии и компании”, – сказали в OpenAI.
“Мы приглашаем вас сообщать об уязвимостях, багах или недостатках безопасности, которые вы обнаружите в наших системах. Делясь своими находками, вы сыграете решающую роль в повышении безопасности нашей технологии для всех “.
Однако, хотя интерфейс прикладного программирования OpenAI (API) и его чат-бот с искусственным интеллектом ChatGPT являются основными целями для охотников за головами, компания попросила исследователей сообщать о проблемах модели через отдельную форму, если они не влияют на безопасность.
“Проблемы безопасности модели плохо вписываются в программу вознаграждений за ошибки, поскольку они не являются отдельными ошибками, которые можно исправить напрямую. Решение этих проблем часто требует тщательного исследования и более широкого подхода “, – сказали в OpenAI.
“Чтобы убедиться, что эти проблемы решены должным образом, пожалуйста, сообщите о них, используя соответствующую форму, а не отправляйте их через программу вознаграждения за ошибки. Сообщение о них в нужном месте позволяет нашим исследователям использовать эти отчеты для улучшения модели “.
Другие проблемы, которые выходят за рамки, включают джейлбрейки и обходы безопасности, которые пользователи ChatGPT использовали, чтобы обмануть чат-бота ChatGPT, игнорируя меры предосторожности, внедренные инженерами OpenAI.
В прошлом месяце OpenAI раскрыла утечку платежных данных ChatGPT, которую компания обвинила в ошибке в библиотеке Redis client с открытым исходным кодом, используемой ее платформой.
Из-за ошибки подписчики ChatGPT Plus начали видеть адреса электронной почты других пользователей на своих страницах подписки. После увеличения потока пользовательских отчетов OpenAI отключила бота ChatGPT от сети для расследования проблемы.
В отчете, опубликованном несколько дней спустя, компания объяснила, что ошибка привела к тому, что служба ChatGPT предоставила запросы в чате и личную информацию примерно 1,2% подписчиков Plus.
Открытая информация включала имена подписчиков, адреса электронной почты, платежные адреса и частичную информацию о кредитной карте.
“Ошибка была обнаружена в клиентской библиотеке Redis с открытым исходным кодом redis-py. Как только мы выявили ошибку, мы обратились к сопровождающим Redis с исправлением для решения проблемы “, – сказал OpenAI.
Хотя компания не связала сегодняшнее объявление с этим недавним инцидентом, проблема потенциально могла быть обнаружена ранее, и утечки данных можно было бы избежать, если бы OpenAI уже запустила программу вознаграждений за ошибки, позволяющую исследователям тестировать свои продукты на наличие недостатков в безопасности.