На прошлой неделе Исследовательский центр Pew опубликовал опрос, в ходе которого большинство американцев — 52 процента — заявили, что они скорее обеспокоены, чем взволнованы расширением использования искусственного интеллекта, включая опасения по поводу личной конфиденциальности и контроля человека над новыми технологиями.
Распространение в этом году генеративных моделей ИИ, таких как ChatGPT, Bard и Bing, все из которых доступны широкой публике, вывело искусственный интеллект на передний план. Сейчас правительства от Китая до Бразилии и Израиля также пытаются выяснить, как использовать преобразующую силу ИИ, одновременно обуздывая его худшие проявления и разрабатывая правила для его использования в повседневной жизни.
Некоторые страны, включая Израиль и Японию, отреагировали на его молниеносный рост уточнением существующих данных, защиты конфиденциальности и авторских прав — в обоих случаях расчищая путь для использования защищенного авторским правом контента для обучения ИИ. Другие страны, такие как Объединенные Арабские Эмираты, выпустили расплывчатые и размашистые заявления о стратегии ИИ или создали рабочие группы по передовой практике ИИ и опубликовали проект законодательства для общественного рассмотрения.
Другие по-прежнему занимают выжидательную позицию, даже несмотря на то, что лидеры отрасли, включая OpenAI, создателя вирусного чат-бота ChatGPT, призвали к международному сотрудничеству в области регулирования и инспекций. В заявлении, сделанном в мае, генеральный директор компании и два ее соучредителя предупредили о “возможности экзистенциального риска”, связанного со сверхразумом, гипотетической сущностью, интеллект которой превысит человеческие когнитивные способности.
“Для его прекращения потребуется что-то вроде глобального режима наблюдения, и даже это не гарантированно сработает”, – говорится в заявлении.
Тем не менее, в мире существует несколько конкретных законов, специально направленных на регулирование ИИ. Вот некоторые из способов, которыми законодатели в разных странах пытаются решить вопросы, связанные с его использованием.
Бразилия
В Бразилии есть проект закона об ИИ, который является кульминацией трехлетних предложенных (и зашедших в тупик) законопроектов по этому вопросу. В документе, который был опубликован в конце прошлого года как часть 900-страничного отчета Сенатского комитета по ИИ, подробно излагаются права пользователей, взаимодействующих с системами ИИ, и даются рекомендации по классификации различных типов ИИ на основе риска, который они представляют для общества.
Акцент закона на правах пользователей возлагает на поставщиков ИИ обязанность предоставлять пользователям информацию о своих продуктах ИИ. Пользователи имеют право знать, что они взаимодействуют с ИИ, но также имеют право на объяснение того, как ИИ принял определенное решение или рекомендацию. Пользователи также могут оспаривать решения ИИ или требовать вмешательства человека, особенно если решение ИИ может оказать существенное влияние на пользователя, например, системы, связанные с самоуправляемыми автомобилями, наймом, оценкой кредитоспособности или биометрической идентификацией.
Разработчики ИИ также обязаны проводить оценку рисков, прежде чем выводить продукт ИИ на рынок. Классификация наивысшего риска относится к любым системам ИИ, которые используют “подсознательные” методы или эксплуатируют пользователей способами, наносящими вред их здоровью или безопасности; они полностью запрещены. В проекте закона об ИИ также описываются возможные “высокорисковые” реализации ИИ, включая ИИ, используемый в здравоохранении, биометрической идентификации и кредитном скоринге, среди других приложений. Оценки рисков для продуктов ИИ “высокого риска” должны быть опубликованы в правительственной базе данных.
Все разработчики ИИ несут ответственность за ущерб, причиненный их системами ИИ, хотя к разработчикам продуктов с высоким риском предъявляются еще более высокие стандарты ответственности.
Китай
Китай опубликовал проект правил для генеративного ИИ и ищет мнения общественности о новых правилах. Однако, в отличие от большинства других стран, в проекте Китая отмечается, что генеративный ИИ должен отражать “основные социалистические ценности”.
Предлагаемые правила основаны на существующем законодательстве, касающемся глубоких подделок, алгоритмов рекомендаций и безопасности данных, что дает Китаю преимущество перед другими странами, разрабатывающими новые законы с нуля. В августе интернет-регулятор страны также объявил об ограничениях на технологию распознавания лиц.
Китай поставил впечатляющие цели для своих отраслей технологий и искусственного интеллекта: в “Плане развития искусственного интеллекта следующего поколения”, амбициозном документе 2017 года, опубликованном китайским правительством, авторы пишут, что к 2030 году “теории, технологии и приложения искусственного интеллекта в Китае должны достичь ведущих мировых уровней”.
Европейский союз
В июне Европейский парламент проголосовал за одобрение того, что он назвал “Законом об ИИ”. Подобно бразильскому законопроекту, Закон об ИИ классифицирует ИИ тремя способами: как неприемлемый, высокий и ограниченный риск.
Неприемлемыми считаются системы искусственного интеллекта, которые считаются “угрозой” для общества. (В качестве одного из примеров Европейский парламент предлагает “игрушки с голосовой активацией, которые поощряют опасное поведение детей”.) Такого рода системы запрещены Законом об ИИ. ИИ высокого риска должен быть одобрен европейскими официальными лицами до выхода на рынок, а также на протяжении всего жизненного цикла продукта. К ним относятся продукты искусственного интеллекта, которые, среди прочего, относятся к правоохранительным органам, управлению границами и проверке при приеме на работу.
Системы ИИ, которые считаются представляющими ограниченный риск, должны иметь соответствующую маркировку, позволяющую пользователям принимать обоснованные решения об их взаимодействии с ИИ. В противном случае эти продукты в основном избегают контроля со стороны регулирующих органов.
Закон все еще должен быть одобрен Европейским советом, хотя парламентские законодатели надеются, что процесс завершится позже в этом году.
Израиль
В 2022 году Министерство инноваций, науки и технологий Израиля опубликовало проект политики по регулированию ИИ. Авторы документа описывают его как “моральный и ориентированный на бизнес компас для любой компании, организации или государственного органа, вовлеченного в область искусственного интеллекта”, и подчеркивают его направленность на “ответственные инновации”.
В проекте политики Израиля говорится, что разработка и использование ИИ должны уважать “верховенство закона, основные права и общественные интересы и, в частности, [поддерживать] человеческое достоинство и неприкосновенность частной жизни”. В другом месте, расплывчато, говорится, что “должны быть приняты разумные меры в соответствии с принятыми профессиональными концепциями” для обеспечения безопасности продуктов ИИ в использовании.
В более широком плане проект политики поощряет саморегулирование и “мягкий” подход к вмешательству правительства в развитие ИИ. Вместо того, чтобы предлагать единообразное отраслевое законодательство, документ призывает отраслевые регулирующие органы при необходимости рассматривать индивидуальные меры вмешательства, а правительство стремиться к совместимости с лучшими мировыми практиками в области ИИ.
Италия
В марте Италия на короткое время запретила ChatGPT, сославшись на опасения по поводу того, как — и в каком объеме — чат-бот собирает пользовательские данные.
С тех пор Италия выделила около 33 миллионов долларов на поддержку работников, которым грозит отставание в результате цифровой трансформации, включая ИИ, но не ограничиваясь этим. Около трети этой суммы будет использовано для обучения работников, чьи рабочие места могут устареть из-за автоматизации. Оставшиеся средства будут направлены на обучение безработных или экономически неактивных людей цифровым навыкам в надежде ускорить их выход на рынок труда.
Япония
Япония, как и Израиль, приняла подход “мягкого закона” к регулированию ИИ: в стране нет предписывающих правил, регулирующих конкретные способы использования ИИ, а также запрещающих их. Вместо этого Япония решила подождать и посмотреть, как будет развиваться ИИ, ссылаясь на желание избежать удушения инноваций.
На данный момент разработчикам ИИ в Японии приходится полагаться на смежные законы, например, касающиеся защиты данных, в качестве руководящих принципов. Например, в 2018 году японские законодатели пересмотрели Закон об авторском праве страны, разрешив использовать защищенный авторским правом контент для анализа данных. С тех пор законодатели уточнили, что пересмотр также распространяется на данные обучения ИИ, расчищая компаниям ИИ путь для обучения своих алгоритмов на интеллектуальной собственности других компаний. (Израиль придерживается того же подхода.)
ОАЭ
Остальная часть 46-страничного документа посвящена стимулированию развития ИИ в ОАЭ путем привлечения талантов в области ИИ и интеграции технологии в ключевые секторы, такие как энергетика, туризм и здравоохранение. Эта стратегия, хвастается резюме документа, соответствует усилиям ОАЭ стать “лучшей страной в мире к 2071 году”.