Искусственный интеллектМировые

Ключевой китайский орган по стандартизации опубликовал проект стандарта о том, как соблюдать правила Китая по генеративному искусственному интеллекту

Документ рассказывает компаниям, как привлечь своих моделей к борьбе с незаконной или «вредной» информацией.

Ссылка для чтения стандарта онлайн.
Ссылка на официальную страницу.

Вопросы:

1. Это черновик. Будут ли компании сопротивляться этому, или этот документ уже является результатом компромисса?
2. Стандарты – это «мягкий закон», а не юридические требования. Будут ли компании и регулирующие органы использовать его как фактическое требование? Или будет использована ссылка?

Об интересном документе:

1. Китай вводит правила в отношении алгоритмов и искусственного интеллекта в течение примерно двух лет, включая июльское постановление о генеративном искусственном интеллекте.

Все эти регуляторы сосредоточены на роли искусственного интеллекта в создании/распространении информации в Интернете.

2. регуляторы требуют, чтобы провайдеры проводили «самооценку безопасности алгоритма», чтобы предотвратить распространение нежелательной информации.

Но в случае с генеративными моделями ИИ правительство приняло подход «узнай это, когда увижу» при принятии решения о том, что модели «достаточно безопасны» для выпуска. Этот стандарт предоставляет четкие тесты + метрики.

3. Стандарт предъявляет требования к обучающим данным.

Поставщики моделей ИИ должны случайным образом выбрать и проверить 4000 точек данных из каждого обучающего корпуса. По крайней мере 96% из них должны быть признаны приемлемыми, иначе этот корпус попадет в черный список.

4. Даже если учебный корпус проходит планку и считается приемлемым, он также должен пройти процесс фильтрации для удаления плохого/незаконного контента.

Поставщики также должны назначить ответственного за обеспечение того, чтобы обучающие данные не нарушали защиту интеллектуальной собственности.

6. Теперь объединяем выходные данные модели.

Поставщики создают банк из 2000 вопросов и выбирают 1000 для тестирования модели. Требуется 90% проходимости по 5 различным типам контроля контента, включая «основные социалистические ценности», дискриминацию, незаконную деловую практику, личную информацию и т. д.

7. Провайдеры должны создать банк из 1 тыс. вопросов, тестирующих модель отказа отвечать. Он должен отказаться отвечать на ≥95% вопросов, на которые он не должен отвечать, но не может отклонить >5% вопросов, на которые должен ответить.

И эти вопросы должны охватывать сложные и деликатные вопросы, такие как политика, религия и т. д.

Это показывает изощренность цензуры:

Самый простой способ защитить себя для компаний — заставить моделей отказываться отвечать на все, что звучит деликатно. Но если модели отказываются задавать слишком много вопросов, это подвергается повсеместной цензуре. Таким образом, вы устанавливаете пороговые значения как для ответов, так и для неполученных ответов.

8. В проекте стандарта говорится, что если вы строите фундамент на основе модели фундамента, эта модель должна быть зарегистрирована правительством. Поэтому нельзя создавать общедоступные приложения genAI с использованием незарегистрированных базовых моделей.

admin
Author: admin

Hi, I’m admin