Руководство ЕС по запрещённым методам использования ИИ: регулирование и практическое применение
ЗаконодательствоЗаконодательствоИскусственный интеллектРуководства

Руководство ЕС по запрещённым методам использования ИИ: регулирование и практическое применение

4 февраля 2025 года Европейская комиссия опубликовала проект Руководства по запрещённым методам использования искусственного интеллекта (ИИ), определённым в Регламенте ЕС 2024/1689 (Закон об ИИ, AI Act). Этот документ разъясняет, какие технологии ИИ считаются неприемлемыми в ЕС и почему.

Закон об ИИ основывается на подходе, основанном на рисках, классифицируя системы ИИ по четырём категориям:

  1. Недопустимый риск – технологии, представляющие угрозу для прав человека, запрещены (например, социальный скоринг).
  2. Высокий риск – системы, требующие строгого регулирования (например, ИИ в медицине).
  3. Риск, связанный с прозрачностью – требует раскрытия информации о работе ИИ (например, генеративный ИИ).
  4. Минимальный или отсутствующий риск – технологии, не подпадающие под регулирование, но могут соответствовать добровольным стандартам.

Руководство Европейской комиссии служит инструментом для разъяснения положений Закона об ИИ, однако не имеет обязательной юридической силы. Окончательное толкование положений Закона остаётся за Судом Европейского Союза (CJEU).

Обзор запрещённых методов ИИ

Статья 5 Закона об ИИ запрещает использование определённых ИИ-практик, которые нарушают основные права человека и ценности ЕС. Рассмотрим ключевые запреты.

1. Манипулятивные и обманные технологии ИИ (ст. 5(1)(а))

Запрещены системы ИИ, которые:

  • Используют сублиминальные техники (например, скрытые визуальные или аудио-сообщения, незаметные для сознания).
  • Применяют манипулятивные техники, влияющие на поведение пользователей без их осознания.
  • Вводят в заблуждение умышленно или систематически.

Примеры:

  • Чат-бот, убеждающий пользователя купить товар, подменяя его собственное мнение скрытыми сигналами.
  • Система рекомендаций, которая искусственно создаёт ощущение срочности покупки.

Последствия: нарушения могут привести к штрафам до 35 млн евро или 7% годового дохода компании.

2. Эксплуатация уязвимых групп (ст. 5(1)(b))

Запрещено использование ИИ для эксплуатации уязвимых категорий граждан, таких как дети, пожилые люди, люди с инвалидностью или в сложном финансовом положении.

Примеры:

  • ИИ, использующий персональные данные для навязывания финансовых услуг людям с низкими доходами.
  • Алгоритмы, манипулирующие эмоциями детей для увеличения их вовлечённости в соцсети или онлайн-игры.

3. Социальный скоринг (ст. 5(1)(c))

Запрещена оценка граждан на основе их социального поведения и личных характеристик.

Примеры:

  • Правительственная программа, понижающая кредитный рейтинг граждан за участие в протестах.
  • Частные компании, оценивающие клиентов на основе их активности в соцсетях и ограничивающие доступ к услугам.

Исключения: кредитные рейтинги разрешены, если они основываются на объективных финансовых показателях.

4. Предсказание вероятности совершения преступлений (ст. 5(1)(d))

Искусственный интеллект не может оценивать вероятность совершения преступления человеком, если анализ основан только на профилировании личности.

Примеры:

  • Система, которая определяет “потенциальных преступников” по их расе, возрасту или психотипу.
  • ИИ, автоматически отслеживающий “подозрительное” поведение без объективных доказательств преступных намерений.

Разрешены технологии, поддерживающие человеческие решения и анализирующие объективные факты, связанные с преступной деятельностью.

5. Массовый сбор биометрических данных (ст. 5(1)(e))

Запрещена безразборная (untargeted) выгрузка изображений лиц из интернет-ресурсов и камер видеонаблюдения для создания баз данных распознавания лиц.

Примеры:

  • Компании, которые сканируют открытые фото из соцсетей для распознавания лиц без согласия пользователей.
  • Полицейские базы данных, собранные без судебного разрешения.

6. Распознавание эмоций в школах и на рабочем месте (ст. 5(1)(f))

ИИ-системы не могут анализировать эмоции работников и учащихся.

Исключения: использование возможно для медицинских целей и безопасности (например, для диагностики психических расстройств).

Примеры:

  • Работодатель, использующий ИИ для оценки эмоционального состояния сотрудников и принятия кадровых решений.
  • Школьная система ИИ, определяющая концентрацию учеников по выражению лица.

7. Категоризация людей по биометрическим данным (ст. 5(1)(g))

Запрещено классифицировать людей по их лицевым и телесным характеристикам для вывода информации о расе, политических взглядах, религиозных убеждениях, сексуальной ориентации.

Примеры:

  • ИИ, который анализирует лицо человека и определяет его этническую принадлежность.
  • Алгоритмы, которые оценивают политические предпочтения по мимике и стилю речи.

8. Биометрическая идентификация в реальном времени (ст. 5(1)(h))

Запрещено автоматическое распознавание лиц в общественных местах без явного разрешения.

Исключения (разрешено в узких случаях):

  • Поиск пропавших без вести.
  • Предотвращение террористических атак.
  • Розыск преступников (при соблюдении строгих процедур).

Кто несёт ответственность за нарушение Закона об ИИ?

Компании и организации

  • Разработчики ИИ-систем обязаны соблюдать закон до вывода продукта на рынок.
  • Компании-пользователи (например, банки, соцсети) должны следить за корректным использованием технологий.

Национальные регуляторы

Каждая страна ЕС обязана назначить контрольные органы, которые будут следить за соблюдением закона.

Ответственность за нарушение

  • Штрафы до 35 млн евро или 7% оборота компании.
  • Лица, пострадавшие от запрещённых технологий, могут подать иск.

Заключение

Руководство Европейской комиссии по запретам ИИ подчёркивает важность этики, прозрачности и защиты прав человека в сфере технологий. Компании должны учитывать эти требования при разработке и внедрении ИИ, чтобы избежать нарушений и санкций.

ЕС продолжает разрабатывать нормативную базу, и в будущем возможны новые ограничения и уточнения, направленные на минимизацию рисков и создание справедливой и безопасной цифровой среды.

admin
Author: admin