безопасности искусственного интеллекта
Искусственный интеллектКибербезопасностьМировые

Google, Microsoft, OpenAI, Anthropic объединяются для решения проблемы безопасности искусственного интеллекта с помощью Frontier Model Forum

Форум Frontier Model Forum – это отраслевой орган с миссией: сосредоточиться на безопасной и тщательной разработке искусственного интеллекта, особенно в контексте моделей frontier

Развитие искусственного интеллекта (ИИ), несомненно, принесло огромные достижения и возможности в различных секторах. Однако не секрет, что этот прогресс также сопряжен со значительными рисками для безопасности. В то время как руководящие органы прилагают усилия к установлению правил для обеспечения безопасности искусственного интеллекта, ответственность в значительной степени ложится на плечи компаний, внедряющих технологию искусственного интеллекта. Отраслевые гиганты Anthropic, Google, Microsoft и OpenAI выступили с инициативой в форме Frontier Model Forum.

Форум Frontier Model Forum – это отраслевой орган с миссией: сосредоточиться на безопасной и тщательной разработке искусственного интеллекта, особенно в контексте моделей frontier. Эти модели frontier охватывают крупномасштабные модели машинного обучения, которые превосходят текущие возможности и обладают широким спектром возможностей, что делает их мощными инструментами с огромным потенциальным воздействием на общество.

Для реализации своих целей Форум намерен учредить консультативный комитет, устав и обеспечить финансирование. Основа их работы будет строиться на четырех основных столпах:

Продвижение исследований в области безопасности искусственного интеллекта: цель Форума – внести значительный вклад в текущие исследования в области безопасности искусственного интеллекта. Способствуя сотрудничеству и обмену знаниями между организациями-членами, они надеются выявить и устранить потенциальные уязвимости безопасности в моделях frontier.

Определение наилучших практик: Разработка стандартизированного набора наилучших практик имеет решающее значение для ответственного внедрения frontier models. Форум будет усердно работать над выработкой рекомендаций, которым могут следовать компании, занимающиеся искусственным интеллектом, для обеспечения безопасного и этичного использования этих мощных инструментов искусственного интеллекта.

Взаимодействие с заинтересованными сторонами: сотрудничество является ключом к созданию безопасного и выгодного ландшафта ИИ. Форум стремится тесно сотрудничать с политиками, учеными, гражданским обществом и другими компаниями, чтобы объединить их усилия и решить многогранные проблемы, связанные с разработкой ИИ.

Решение социальных проблем: Целью Форума является содействие развитию технологий искусственного интеллекта, которые могут эффективно решать самые серьезные проблемы общества. Поощряя ответственный и безопасный ИИ, можно использовать потенциальное положительное влияние на такие области, как здравоохранение, изменение климата и образование, для общего блага.

Участники Форума намерены посвятить следующий год решению первых трех задач. В анонсе инициативы были изложены критерии для членства, подчеркивающие важность наличия опыта производства моделей frontier и твердой приверженности обеспечению их безопасности. Форум твердо убежден, что компаниям, занимающимся искусственным интеллектом, особенно тем, которые работают над самыми мощными моделями, важно объединиться и установить общую основу для вдумчивого и адаптивного продвижения методов обеспечения безопасности.

Анна Маканджу, вице-президент OpenAI по глобальным вопросам, подчеркнула срочность этой работы, подчеркнув, что форум имеет хорошие возможности действовать быстро и эффективно, чтобы расширить границы безопасности ИИ.

Доктор Лесли Кантан, генеральный директор и соучредитель TurinTech, сказал: “Удивительно, что на этом форуме не представлены крупные компании с открытым исходным кодом, такие как HuggingFace и Meta. Крайне важно расширить пул участников этого форума, включив лидеров в области этики ИИ, исследователей, законодателей и регуляторов, чтобы обеспечить сбалансированное представительство. Расширение этого пула могло бы помочь избежать риска того, что крупные технические компании создадут корыстные правила и потенциально исключат стартапы. Основное внимание форума уделяется надвигающимся угрозам, создаваемым более мощным ИИ, который отвлекает внимание от насущных нормативных вопросов, таких как авторское право, защита данных и конфиденциальность “.

Это инновационное сотрудничество лидеров отрасли следует недавнему соглашению о безопасности, заключенному между Белым домом и ведущими компаниями в области искусственного интеллекта, включая тех, кто участвовал в создании Frontier Model Forum. Обязательства, принятые в соглашении о безопасности, включают в себя проведение тестов систем искусственного интеллекта для выявления и предотвращения вредоносного поведения, а также внедрение водяных знаков на контент, созданный искусственным интеллектом, для обеспечения подотчетности и отслеживаемости.

admin
Author: admin