Великобритания опубликовала "Декларацию Блетчли" о безопасности искусственного интеллекта
Искусственный интеллектМеморандум

Великобритания опубликовала “Декларацию Блетчли” о безопасности искусственного интеллекта

ЛОНДОН, 1 ноября (Рейтер) – Великобритания в среду опубликовала “Декларацию Блетчли”, согласованную со странами, включая Соединенные Штаты и Китай, направленную на активизацию глобальных усилий по сотрудничеству в области безопасности искусственного интеллекта (ИИ).

Декларация 28 стран и Европейского союза была опубликована в день открытия Саммита по безопасности искусственного интеллекта, проходившего в Блетчли-парке в центральной Англии.

“Декларация соответствует ключевым целям саммита по установлению общего согласия и ответственности в отношении рисков, возможностей и перспективного процесса международного сотрудничества в области безопасности ИИ и исследований на передовых рубежах, особенно посредством расширения научного сотрудничества”, – говорится в отдельном заявлении Великобритании, сопровождающем декларацию.

Декларация поощряет прозрачность и подотчетность участников, разрабатывающих передовые технологии искусственного интеллекта, в отношении их планов по измерению, мониторингу и смягчению последствий потенциально опасных возможностей.

“Это знаковое достижение, благодаря которому крупнейшие мировые державы в области искусственного интеллекта соглашаются с неотложностью понимания рисков, связанных с искусственным интеллектом, и помогают обеспечить долгосрочное будущее наших детей и внуков”, – сказал премьер-министр Великобритании Риши Сунак.

В ней изложена двусторонняя повестка дня, направленная на выявление рисков, вызывающих общую озабоченность, и формирование их научного понимания, а также на разработку межстрановой политики по их снижению.

“Это включает в себя, наряду с повышением прозрачности со стороны частных субъектов, развитие передовых возможностей искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности и развитие соответствующего потенциала государственного сектора и научных исследований”, – говорится в декларации.

Текст декларации

Искусственный интеллект (ИИ) открывает огромные глобальные возможности: он обладает потенциалом трансформировать и повышать благосостояние людей, мир и процветание. Чтобы осознать это, мы подтверждаем, что для всеобщего блага искусственный интеллект должен проектироваться, разрабатываться, развертываться и использоваться безопасным образом, ориентированным на человека, заслуживающим доверия и ответственным. Мы приветствуем усилия международного сообщества по сотрудничеству в области искусственного интеллекта для содействия инклюзивному экономическому росту, устойчивому развитию и инновациям, защите прав человека и основных свобод, а также укреплению общественного доверия к системам искусственного интеллекта для полной реализации их потенциала.

Системы искусственного интеллекта уже внедрены во многих сферах повседневной жизни, включая жилье, занятость, транспорт, образование, здравоохранение, доступность и правосудие, и их использование, вероятно, будет расширяться. Поэтому мы признаем, что это уникальный момент для того, чтобы действовать и подтвердить необходимость безопасного развития искусственного интеллекта и использования преобразующих возможностей искусственного интеллекта во благо и для всех, инклюзивным образом в наших странах и во всем мире. Это касается общественных услуг, таких как здравоохранение и образование, продовольственная безопасность, наука, чистая энергетика, биоразнообразие и климат, для реализации прав человека и активизации усилий по достижению Целей устойчивого развития Организации Объединенных Наций.

Помимо этих возможностей, ИИ также создает значительные риски, в том числе в тех областях повседневной жизни. С этой целью мы приветствуем соответствующие международные усилия по изучению и устранению потенциального воздействия систем искусственного интеллекта на существующих форумах и других соответствующих инициативах, а также признание необходимости решения вопросов защиты прав человека, прозрачности и объяснимости, справедливости, подотчетности, регулирования, безопасности, надлежащего надзора со стороны человека, этики, смягчения предвзятости, конфиденциальности и защиты данных. Мы также отмечаем потенциальные непредвиденные риски, связанные со способностью манипулировать контентом или генерировать вводящий в заблуждение контент. Все эти проблемы критически важны, и мы подтверждаем необходимость и срочность их решения.

Особые риски безопасности возникают на “границе” искусственного интеллекта, под которым понимаются те высокомощные модели искусственного интеллекта общего назначения, включая базовые модели, которые могут выполнять широкий спектр задач, а также соответствующие специфические узконаправленные ИИ, которые могут демонстрировать возможности, причиняющие вред, которые соответствуют или превосходят возможности, присутствующие в самых передовых моделях сегодняшнего дня. Существенные риски могут возникнуть из-за потенциального преднамеренного неправильного использования или непреднамеренных проблем контроля, связанных с согласованием с намерениями человека. Отчасти эти проблемы связаны с тем, что эти возможности не до конца поняты и поэтому их трудно предсказать. Мы особенно обеспокоены такими рисками в таких областях, как кибербезопасность и биотехнологии, а также там, где передовые системы искусственного интеллекта могут усиливать такие риски, как дезинформация. Существует потенциал для серьезного, даже катастрофического ущерба, преднамеренного или непреднамеренного, вытекающего из наиболее значительных возможностей этих моделей искусственного интеллекта. Учитывая быстрое и неуверенными темпами изменения ИИ, и в контексте роста инвестиций в технологии, мы утверждаем, что углубление нашего понимания этих возможных рисков и мер по их устранению является особенно актуальной.

Многие риски, связанные с ИИ по своей природе интернациональный характер, а поэтому лучше всего решать на основе международного сотрудничества. Мы преисполнены решимости работать сообща всеобъемлющим образом, чтобы обеспечить ориентированный на человека, заслуживающий доверия и ответственный искусственный интеллект, который безопасен и служит всеобщему благу посредством существующих международных форумов и других соответствующих инициатив, развивать сотрудничество для устранения широкого спектра рисков, связанных с искусственным интеллектом. При этом мы признаем, что странам следует учитывать важность ориентированного на инновации и пропорционального подхода к управлению и регулированию, который максимизирует выгоды и учитывает риски, связанные с искусственным интеллектом. Это могло бы включать в себя, где это уместно, классификацию рисков на основе национальных условий и применимых правовых рамок. Мы также отмечаем актуальность сотрудничества, где это уместно, по таким подходам, как общие принципы и кодексы поведения. В отношении конкретных рисков, наиболее вероятных в связи с пограничьем Искусственный интеллект, мы преисполнены решимости активизировать и поддерживать наше сотрудничество и расширять его с другими странами для выявления, понимания и, при необходимости, принятия мер в рамках существующих международных форумов и других соответствующих инициатив, включая будущие международные саммиты по безопасности искусственного интеллекта.

Все участники должны сыграть свою роль в обеспечении безопасности искусственного интеллекта: странам, международным форумам и другим инициативам, компаниям, гражданскому обществу и академическим кругам необходимо будет работать сообща. Отмечая важность инклюзивного искусственного интеллекта и преодоления цифрового разрыва, мы подтверждаем, что международное сотрудничество должно быть направлено на привлечение широкого круга партнеров по мере необходимости, и приветствуем подходы и политику, ориентированные на развитие, которые могли бы помочь развивающимся странам усилить наращивание потенциала в области искусственного интеллекта и использовать стимулирующую роль искусственного интеллекта для поддержки устойчивого роста и устранения разрыва в развитии.

Мы подтверждаем, что, хотя безопасность должна учитываться на протяжении всего жизненного цикла искусственного интеллекта, субъекты, разрабатывающие передовые возможности искусственного интеллекта, в частности те системы искусственного интеллекта, которые являются необычайно мощными и потенциально вредными, несут особенно большую ответственность за обеспечение безопасности этих систем искусственного интеллекта, в том числе посредством систем тестирования безопасности, оценок и других соответствующих мер. Мы призываем все соответствующие стороны обеспечить соответствующую контексту прозрачность и подотчетность в отношении своих планов по измерению, мониторингу и смягчению потенциально опасных возможностей и связанных с ними последствий, которые могут возникнуть, в частности, для предотвращения неправильного использования и проблем с контролем, а также усиления других рисков.

В контексте нашего сотрудничества и для обоснования действий на национальном и международном уровнях наша программа по устранению пограничных рисков ИИ будет сосредоточена на:

  • выявление рисков безопасности искусственного интеллекта, вызывающих общую озабоченность, формирование общего научного и основанного на фактических данных понимания этих рисков и поддержание этого понимания по мере дальнейшего наращивания возможностей в контексте более широкого глобального подхода к пониманию влияния искусственного интеллекта на наши общества.
  • разработка соответствующей политики, основанной на оценке рисков, в наших странах для обеспечения безопасности в свете таких рисков, сотрудничество по мере необходимости при признании того, что наши подходы могут отличаться в зависимости от национальных условий и применимых правовых рамок. Это включает в себя, наряду с повышением прозрачности со стороны частных субъектов, развитие передовых возможностей искусственного интеллекта, соответствующие показатели оценки, инструменты для тестирования безопасности и развитие соответствующего потенциала государственного сектора и научных исследований.

В развитие этой повестки дня мы преисполнены решимости поддерживать международную инклюзивную сеть научных исследований по пограничной безопасности искусственного интеллекта, которая охватывает и дополняет существующее и новое многостороннее, плюрилатеральное и двустороннее сотрудничество, в том числе в рамках существующих международных форумов и других соответствующих инициатив, для содействия предоставлению наилучших доступных научных данных для разработки политики и общественного блага.

В знак признания преобразующего позитивного потенциала искусственного интеллекта и в рамках обеспечения более широкого международного сотрудничества в области искусственного интеллекта, мы преисполнены решимости поддерживать инклюзивный глобальный диалог с участием существующих международных форумов и других соответствующих инициатив и открытым образом вносить вклад в более широкие международные дискуссии, а также продолжать исследования в области пограничной безопасности искусственного интеллекта, чтобы гарантировать, что преимущества технологии могут быть ответственно использованы во благо и для всех. Мы с нетерпением ожидаем новой встречи в 2024 году.

Соглашение

Представленные страны были:

  • Австралия
  • Бразилия
  • Канада
  • Чили
  • Китай
  • Европейский союз
  • Франция
  • Германия
  • Индия
  • Индонезия
  • Ирландия
  • Израиль
  • Италия
  • Япония
  • Кения
  • Королевство Саудовская Аравия
  • Нидерланды
  • Нигерия
  • Филиппины
  • Республика Корея
  • Руанда
  • Сингапур
  • Испания
  • Швейцария
  • Türkiye
  • Украина
  • Объединенные Арабские Эмираты
  • Соединенное Королевство Великобритании и Северной Ирландии
  • Соединенные Штаты Америки

Ссылки на ‘правительства” и “страны’ включают международные организации, действующие в соответствии со своими законодательными или исполнительными полномочиями.

admin
Author: admin