Пять перспективных мер кибербезопасности из Первого в истории Международного договора об искусственном интеллекте
АналитикаИскусственный интеллектКибербезопасность

Пять перспективных мер кибербезопасности из Первого в истории Международного договора об искусственном интеллекте

Международные усилия по созданию системы управления искусственным интеллектом (ИИ) были устойчивыми, но осторожными, а коллективные действия, такие как первый глобальный саммит по безопасности ИИ в 2023 году, заложили основу для ключевых принципов снижения рисков ИИ. 5 сентября 2024 года Соединенные Штаты подписали Рамочную конвенцию об искусственном интеллекте и правах человека, демократии и верховенстве закона, которая вводит риск-ориентированный подход к управлению, который направлен на использование преимуществ искусственного интеллекта при обеспечении защиты прав человека, демократических принципов и верховенства закона.

Это знаковое соглашение является первым в истории обязательным международным договором об искусственном интеллекте, устанавливающим универсальный правовой стандарт, который направляет ответственную разработку и использование систем искусственного интеллекта на протяжении всего их жизненного цикла. Хотя сроки его ратификации остаются неясными, договор предлагает сбалансированный подход, способствующий глобальному консенсусу без навязывания чрезмерно ограничительных правил, которые могут сдерживать инновации. В договоре также признаются как возможности, так и риски исследований и разработок в области искусственного интеллекта. Кроме того, этот договор призван дополнить текущие внутренние усилия по управлению ИИ, позволяя странам поддерживать и развивать свои национальные нормативные акты. Примечательно, что договор освобождает системы искусственного интеллекта, связанные с национальной обороной, от своих обязательств при условии, что такая деятельность соответствует применимому международному праву в области прав человека и уважает демократические институты и процессы.

Среди положений договора пять перспективных мер кибербезопасности, направленных на продвижение ответственного искусственного интеллекта: прозрачность и надзор, защита персональных данных и конфиденциальность, надежность и безопасность, безопасные инновации, а также управление рисками и воздействием.

1. Прозрачность и надзорКак указано в статье 8, договор требует, чтобы контент, созданный искусственным интеллектом, был четко идентифицируемым и чтобы процессы принятия решений в системах искусственного интеллекта были понятны и доступны. Эти требования к прозрачности и надзору имеют решающее значение как для безопасности ИИ, так и для кибербезопасности, поскольку они позволяют ключевым заинтересованным сторонам, таким как разработчики и системные администраторы, тщательно анализировать поведение ИИ на предмет потенциальных уязвимостей, аномалий, предвзятостей и ошибок.

Например, в банковской отрасли искусственный интеллект все чаще используется для обнаружения мошенничества. Без прозрачности и надзора банковские клиенты могли блокировать транзакции, не понимая, почему они были изначально помечены. Прозрачность и надзор гарантируют, что системные администраторы могут объяснить, как принимаются решения ИИ, позволяя им выявлять и исправлять предвзятость или ошибки, которые в противном случае могли бы нанести вред. Более того, требуя маркировки контента, созданного искусственным интеллектом, большая прозрачность и надзор могут помочь снизить риск успешных фишинговых атак, поскольку пользователям и администраторам будет легче идентифицировать и блокировать подозрительный контент, предназначенный для имитации законных сообщений. Подчеркивая прозрачность и надзор, договор продвигает глобальные нормы повышенной открытости и подотчетности, что делает это многообещающим событием для повышения кибербезопасности и доверия к системам искусственного интеллекта.

2. Защита персональных данных и конфиденциальностьСтатья 11 договора призывает подписавшие его стороны внедрить эффективные гарантии защиты персональных данных и обеспечить соответствие систем искусственного интеллекта внутренним и международным законам о защите данных. Эта мера гарантирует соответствие систем искусственного интеллекта существующим рамкам конфиденциальности и направлена на снижение вероятности несанкционированного доступа к личным данным или неправильного использования.

Защита персональных данных и конфиденциальность играют ключевую роль в безопасности искусственного интеллектаЧат-боты на базе искусственного интеллекта, например, полагаются на сотни гигабайт собранных данных для обучения и доработки модели. Без четкой защиты данных и мер конфиденциальности эти данные могут быть уязвимы для кибератак, приводящих к несанкционированному доступу или неправильному использованию.

Хотя это положение подчеркивает важность защиты личных данных и неприкосновенности частной жизни, оно оставляет реализацию гарантий на усмотрение существующих правовых рамок каждой подписавшей стороны. Хотя гибкость договора является сильной стороной, поскольку он позволяет странам адаптировать свой подход, он также может создавать проблемы, если у подписавшей стороны нет действующего внутреннего закона о защите данных. Например, в Соединенных Штатах отсутствие всеобъемлющего федерального закона о конфиденциальности данных может создать пробелы в защите персональных данных и неприкосновенности частной жизни, что подчеркивает необходимость более четкого руководства по устранению таких различий.

По мере того, как чат-боты на базе искусственного интеллекта становятся все более распространенными на различных предприятиях и в отраслях, системы искусственного интеллекта должны соответствовать строгим стандартам защиты данных и конфиденциальности, что не только защищает частную жизнь отдельных лиц, но и предотвращает более масштабные риски безопасности искусственного интеллекта, такие как утечка данных, кража данных или манипулирование моделями. Таким образом, акцент в договоре на защите данных и конфиденциальности отражает прогресс и растущий глобальный консенсус относительно важности обеспечения безопасности личной информации на протяжении всего жизненного цикла искусственного интеллекта.

3. Надежность и безопасность Статья 12 призывает подписавшие стороны принимать меры, повышающие надежность систем искусственного интеллекта и доверие к их результатам. Перспективная разработка в области кибербезопасности, этот фокус отражает четкое и общее понимание взаимосвязанной природы надежности, защищенности и доверия к системам искусственного интеллекта.

Национальный институт стандартов и технологий определяет надежность как обеспечение того, чтобы система работала по назначению. Например, надежный чат-бот на базе искусственного интеллекта должен последовательно и точно обнаруживать запросы, нарушающие его условия предоставления услуг, и соответствующим образом корректировать свои ответы, гарантируя, что все его разговоры соответствуют первоначальному назначению системы. Благодаря постоянному выявлению потенциально опасных входных данных и надлежащему реагированию на них надежность чат-бота на базе искусственного интеллекта помогает снизить риск манипулирования им для создания вредоносного контента или выявления уязвимостей, которыми могут воспользоваться киберпреступники.

Кроме того, это положение играет решающую роль в установлении стандартизированных определений ключевых терминов в исследованиях и разработках ИИ. Способствуя более глубокому международному пониманию и согласию по этим определениям, статья 12 устраняет двусмысленность и помогает обеспечить согласованность в применении мер защиты ИИ в разных странах. Это общее понимание укрепляет общее положение в области кибербезопасности систем ИИ и способствует повышению доверия пользователей за счет поддержания предсказуемых взаимодействий.

4. Безопасные инновацииСтатья 13 договора подчеркивает необходимость поощрения инноваций при одновременной защите прав человека, демократии и верховенства закона. Он устанавливает этот баланс, призывая подписавшие его стороны создать контролируемую среду для разработки, экспериментов и тестирования систем искусственного интеллекта под надзором назначенных органов.

Песочницы”, или контролируемые среды, уже давно играют важную роль в обеспечении кибербезопасности, позволяя организациям тщательно тестировать системы на предмет потенциальных уязвимостей в сфере кибербезопасности перед более широким внедрением. “Песочницы для искусственного интеллекта” позволят организациям моделировать киберугрозы и проводить стресс-тестирование систем искусственного интеллекта в безопасной и контролируемой среде. Этот упреждающий подход позволяет организациям выявлять риски на ранней стадии и устранять их, прежде чем подвергать общественность потенциальному ущербу безопасности и угрозам кибербезопасности. В случае эффективной реализации контролируемая среда, описанная в статье 13, даст организациям возможность свободно внедрять инновации при соблюдении высоких стандартов безопасности, гарантируя, что преимущества искусственного интеллекта реализуются без ущерба для прав человека, демократических принципов или верховенства закона.

Включение безопасных инноваций в договор является значительным достижением в области кибербезопасности, поскольку подчеркивает тот факт, что инновации и безопасность являются не взаимоисключающими целями, а скорее взаимодополняющими приоритетами.

5. Управление рисками и воздействиемНаконец, в статье 16 договора подписавшие стороны поощряются к принятию или поддержанию всеобъемлющих рамок для оценки рисков и управления воздействием на каждом этапе жизненного цикла искусственного интеллекта. Этот целостный подход, требующий постоянного выявления, оценки и снижения рисков, гарантирует развертывание систем искусственного интеллекта с тщательным учетом потенциального ущерба правам человека, демократическим принципам и верховенству закона.

Риск-ориентированный подход этой меры хорошо согласуется как с принципами кибербезопасности, так и с принципами управления искусственным интеллектом. Подчеркивая необходимость итеративного управления рисками, статья 16 поощряет упреждающее управление рисками искусственного интеллекта, поощряя разработчиков и исследователей учитывать серьезность и вероятность потенциальных воздействий до того, как у них появится возможность возникнуть. Более того, корректируя стратегии снижения рисков на основе контекста, серьезности и предполагаемого использования системы искусственного интеллекта, эта мера позволяет организациям адаптировать свою защиту и улучшать свои реакции на возникающие угрозы.

Первоначальное восприятие и перспективы на будущееСоединённые Штаты входят в число первых 10 стран, подписавших договор, присоединившись к другим странам-подписантам, включая Андорру, Грузию, Исландию, Израиль, Молдову, Норвегию, Сан-Марино, Соединённое Королевство и Европейский союз. Первоначальная реакция на договор была в основном положительной, и эксперты высоко оценили его вклад в развитие международного управления ИИ. Многие исследователи высоко оценили его прочную основу в области прав человека и сбалансированный подход к инновациям в сфере ИИ, равенству, индивидуальной автономии и конфиденциальности на протяжении всего жизненного цикла ИИ.

Комплексный и дальновидный подход договора основан на текущих исследованиях и усилиях по выработке политики путем включения ключевых соображений кибербезопасности в многочисленные стандарты управления искусственным интеллектом, которые подписавшим рекомендуется принять. При этом в договоре кибербезопасность признается основополагающей основой ответственного искусственного интеллекта. Однако, несмотря на эти многообещающие разработки в области кибербезопасности, истинная эффективность договора будет зависеть от степени его реализации и правоприменения. Различия в том, как подписавшие его стороны интерпретируют и реализуют ключевые концепции, такие как безопасность, защищенность, демократические принципы и инновации, могут привести к несоответствиям в результатах. Хотя к договору был выпущен сопроводительный пояснительный отчет, который поможет уточнить определения и предоставить дополнительный контекст для целей каждого положения, последующий отчет мог бы расширить эти усилия, определив более четкие ориентиры для реализации. Недавний отчет Организации Объединенных Наций “Управление ИИ для человечества” иллюстрирует, как такие отчеты могут активизировать глобальные усилия по управлению ИИ за счет согласования приоритетов и усиления координации в отношении общих рисков.

В Соединенных Штатах Бюро демократии, прав человека и труда Госдепартамента подчеркнуло, насколько договор согласуется с существующей политикой США, включая руководящие принципы Белого дома по управлению искусственным интеллектом, инновациям и управлению рисками. Продвигаясь вперед, договор должен быть представлен на ратификацию в Сенат США. Хотя администрация Байдена еще не объявила сроки этого процесса, после ратификации договор не только предоставит возможность для глобального сотрудничества в области инноваций, управления рисками и защиты прав человека, но и укрепит лидерство США в продвижении ответственного управления искусственным интеллектом.

admin
Author: admin