Управление указало на перечень вопросов, которые разработчики и пользователи должны задавать при использовании генеративного искусственного интеллекта (ИИ) и больших языковых моделей (LLM), таких как ChatGPT. Организации, разрабатывающие или использующие генеративный ИИ, должны с самого начала учитывать свои обязательства по защите персональных данных, принимая в качестве обязательной практики подход “Защита данных по проекту и по умолчанию”.
Законодательство о защите данных по-прежнему применяется, когда организации обрабатывают личную информацию из общедоступных источников.
Восемь вопросов, которые нужно задать разработчикам и пользователям:
- Какова законная основа для обработки персональных данных?
- Является ли организация контролером, совместным контролером или обработчиком?
- Подготовила ли организация оценку воздействия на защиту данных (“DPIA”) перед обработкой персональных данных?
- Как организация обеспечивает прозрачность?
- Как организация будет снижать риски безопасности, включая риски инверсии модели и вывода о принадлежности, заражения данных и других форм атак со стороны злоумышленников?
- Как организация будет ограничивать излишнюю обработку?
- Как организация будет выполнять запросы на соблюдение прав субъектов данных?
- Будет ли организация использовать генеративный ИИ для принятия исключительно автоматизированных решений?