Искусственный интеллект

OpenAI запускает программу вознаграждения за ошибки с вознаграждением до 20 тысяч долларов

Исследовательская компания в области искусственного интеллекта OpenAI объявила сегодня о запуске новой программы вознаграждений за ошибки, которая позволит зарегистрированным исследователям безопасности обнаруживать уязвимости в линейке продуктов и получать деньги за сообщение о них через платформу безопасности, использующую краудсорсинг Bugcrowd.

Как сообщила сегодня компания, вознаграждение зависит от серьезности и воздействия выявленных проблем и варьируется от 200 долларов за незначительные недостатки безопасности до 20 000 долларов за исключительные открытия.

Программа вознаграждений за ошибки OpenAI – это способ для нас признать и вознаградить ценные идеи исследователей безопасности, которые вносят вклад в обеспечение безопасности нашей технологии и компании”, – сказали в OpenAI.

“Мы приглашаем вас сообщать об уязвимостях, багах или недостатках безопасности, которые вы обнаружите в наших системах. Делясь своими находками, вы сыграете решающую роль в повышении безопасности нашей технологии для всех “.

Однако, хотя интерфейс прикладного программирования OpenAI (API) и его чат-бот с искусственным интеллектом ChatGPT являются основными целями для охотников за головами, компания попросила исследователей сообщать о проблемах модели через отдельную форму, если они не влияют на безопасность.

“Проблемы безопасности модели плохо вписываются в программу вознаграждений за ошибки, поскольку они не являются отдельными ошибками, которые можно исправить напрямую. Решение этих проблем часто требует тщательного исследования и более широкого подхода “, – сказали в OpenAI.

“Чтобы убедиться, что эти проблемы решены должным образом, пожалуйста, сообщите о них, используя соответствующую форму, а не отправляйте их через программу вознаграждения за ошибки. Сообщение о них в нужном месте позволяет нашим исследователям использовать эти отчеты для улучшения модели “.

Другие проблемы, которые выходят за рамки, включают джейлбрейки и обходы безопасности, которые пользователи ChatGPT использовали, чтобы обмануть чат-бота ChatGPT, игнорируя меры предосторожности, внедренные инженерами OpenAI.

​В прошлом месяце OpenAI раскрыла утечку платежных данных ChatGPT, которую компания обвинила в ошибке в библиотеке Redis client с открытым исходным кодом, используемой ее платформой.

Из-за ошибки подписчики ChatGPT Plus начали видеть адреса электронной почты других пользователей на своих страницах подписки. После увеличения потока пользовательских отчетов OpenAI отключила бота ChatGPT от сети для расследования проблемы.

В отчете, опубликованном несколько дней спустя, компания объяснила, что ошибка привела к тому, что служба ChatGPT предоставила запросы в чате и личную информацию примерно 1,2% подписчиков Plus.

Открытая информация включала имена подписчиков, адреса электронной почты, платежные адреса и частичную информацию о кредитной карте.

“Ошибка была обнаружена в клиентской библиотеке Redis с открытым исходным кодом redis-py. Как только мы выявили ошибку, мы обратились к сопровождающим Redis с исправлением для решения проблемы “, – сказал OpenAI.

Хотя компания не связала сегодняшнее объявление с этим недавним инцидентом, проблема потенциально могла быть обнаружена ранее, и утечки данных можно было бы избежать, если бы OpenAI уже запустила программу вознаграждений за ошибки, позволяющую исследователям тестировать свои продукты на наличие недостатков в безопасности.

admin
Author: admin

Hi, I’m admin