Мировые

Британское Управление комиссара по информации (ICO) опубликовало пресс-релиз

Управление указало на перечень вопросов, которые разработчики и пользователи должны задавать при использовании генеративного искусственного интеллекта (ИИ) и больших языковых моделей (LLM), таких как ChatGPT. Организации, разрабатывающие или использующие генеративный ИИ, должны с самого начала учитывать свои обязательства по защите персональных данных, принимая в качестве обязательной практики подход “Защита данных по проекту и по умолчанию”.

Законодательство о защите данных по-прежнему применяется, когда организации обрабатывают личную информацию из общедоступных источников.

Восемь вопросов, которые нужно задать разработчикам и пользователям:

  1. Какова законная основа для обработки персональных данных?
  2. Является ли организация контролером, совместным контролером или обработчиком?
  3. Подготовила ли организация оценку воздействия на защиту данных (“DPIA”) перед обработкой персональных данных?
  4. Как организация обеспечивает прозрачность?
  5. Как организация будет снижать риски безопасности, включая риски инверсии модели и вывода о принадлежности, заражения данных и других форм атак со стороны злоумышленников?
  6. Как организация будет ограничивать излишнюю обработку?
  7. Как организация будет выполнять запросы на соблюдение прав субъектов данных?
  8. Будет ли организация использовать генеративный ИИ для принятия исключительно автоматизированных решений?
admin
Author: admin

Hi, I’m admin