Вопрос безопасности искусственного интеллекта (ИИ) в 2025 году стал одним из центральных в мировой научной, политической и бизнес-повестке. Масштабные инвестиции и технологические прорывы привели к тому, что передовые ИИ-системы всё чаще становятся автономными и используются в критически важных сферах. На этом фоне независимые эксперты и организации обращают внимание на то, насколько ведущие разработчики ИИ готовы управлять не только текущими, но и потенциально катастрофическими рисками.
В июле 2025 года Future of Life Institute (FLI) опубликовал ежегодный «Индекс безопасности ИИ» (AI Safety Index), где эксперты оценили семь ведущих мировых компаний — Anthropic, OpenAI, Google DeepMind, Meta, x.AI, Zhipu AI и DeepSeek — по целому спектру критериев, связанных с безопасностью и ответственностью в разработке и внедрении ИИ.
Ключевые выводы отчёта
- Ни одна компания не получила оценку выше “C+” (по американской системе это ниже среднего уровня). Anthropic лидирует с “C+”, за ней следуют OpenAI (“C”) и Google DeepMind (“C-”). x.AI и Meta получили “D”, а китайские Zhipu AI и DeepSeek — неудовлетворительные (“F”) оценки.
- Эксперты отмечают глубокий разрыв между темпом развития ИИ и уровнем готовности к управлению рисками. Компании заявляют о возможности достичь искусственного общего интеллекта (AGI) в течение ближайших 10 лет, но никто не продемонстрировал реальный, комплексный план по обеспечению его контролируемости и безопасности. В области “Existential Safety” (экзистенциальная безопасность) все компании получили оценки “D” или “F” — это фактически провал.
- Прозрачность процедур и внутреннего контроля недостаточна. Только три компании (Anthropic, OpenAI и Google DeepMind) проводят осмысленные тесты опасных способностей (например, кибер- или биотерроризм), однако даже у них независимые проверки ограничены, а методологическая прозрачность слабая. Эксперты отмечают: «Я испытываю крайне низкую уверенность в том, что опасные способности выявляются вовремя для предотвращения существенного вреда».
- Регулирование и самоорганизация отрасли недостаточны. В отличие от ядерной сферы, где есть международные обязательства, строгие стандарты и проверяемость, индустрия ИИ пока полагается в основном на добровольные обещания компаний, которые часто не подкрепляются реальными мерами. Особенно явно это проявляется в сфере защиты информации, политики информирования о инцидентах и раскрытии данных о реальных инцидентах.
Сравнение с ядерной безопасностью
Если провести параллель с ядерной сферой (как предлагает исходный тезис), где от качества регулирования зависит судьба человечества, то картина становится пугающей. Представьте, если бы США, Россия и Китай получили бы “тройки” по безопасности ядерных объектов, Франция и Великобритания — “двойки”, а Индия и Пакистан — “единицы”. Мир в такой ситуации был бы крайне нестабилен, вероятность крупной аварии или намеренного нарушения резко возросла бы.
В сфере ИИ сегодня ситуация, по мнению независимых экспертов, не менее тревожна: уровень прозрачности и зрелости контроля сопоставим с “оценками” в ядерной сфере, которых мировое сообщество давно считает неприемлемыми.
Причины и детали оценки
- Методология. Эксперты анализировали 33 индикатора в шести областях: оценка рисков, текущие вреды, рамочные документы по безопасности, экзистенциальная безопасность, управление и подотчётность, информационная открытость.
- Критические пробелы:
- Слабые механизмы независимого аудита (недостаточно вовлечены внешние эксперты).
- Отсутствие планов или чётких триггеров для приостановки развития/развёртывания опасных моделей.
- Недостаточная проработка политики whistleblowing (кроме OpenAI, никто не публикует полный регламент).
- Плохо реализованы протоколы выявления и расследования инцидентов.
- Позитивные примеры:
- Anthropic выделяется как единственная компания, не использующая пользовательские данные для обучения моделей и проводящая уникальные биориск-эксперименты.
- OpenAI — единственная опубликовала свою политику whistleblowing (но после давления общественности).
- Google DeepMind и Anthropic инвестируют в собственные внутренние команды по безопасности и участвуют в международных дискуссиях.
- Проблемы в Китае: Китайские компании, несмотря на наличие национального регулирования, набрали наихудшие баллы — что отчасти объясняется иной культурой открытости и отсутствием внутренней мотивации к саморегулированию.
Тенденции и международный опыт
- Мировое сообщество формирует новые стандарты: Сингапурский консенсус, отчёты международных саммитов по безопасности ИИ, требования G7 к прозрачности. Но пока это больше декларации, чем обязательные нормы.
- Лучшие практики в смежных отраслях (авиация, ядерная энергетика, фармацевтика) показывают: необходимы независимые аудиторы, обязательная публикация инцидентов и развитая культура ответственности. В ИИ этого пока нет.
Заключени
2025 год стал годом «тревожного сигнала» для отрасли искусственного интеллекта. На фоне эскалации технических возможностей ИИ выяснилось, что даже лидеры рынка, получившие наилучшие оценки, не демонстрируют приемлемого уровня зрелости и открытости в области безопасности.
Экспертное сообщество и международные организации призывают срочно вводить обязательные стандарты, усиливать внешнюю проверку и аудит, разрабатывать протоколы реагирования на крупные инциденты, развивать культуру информирования и открытости.
Без этого риск повторения «ядерного сценария» — когда трагедия или катастрофа становится двигателем прогресса регулирования — остаётся крайне высоким.
Рекомендации
- Внедрение обязательных международных стандартов безопасности для разработчиков ИИ.
- Расширение практики независимого аудита и внешних тестов опасных способностей моделей.
- Публичная политика whistleblowing и механизмы защиты сотрудников, сообщающих о рисках.
- Регулярная публикация инцидентов и открытая работа с государственными и общественными структурами.
- Создание протоколов приостановки и анализа критически опасных проектов.
Список источников
Future of Life Institute. AI Safety Index Summer 2025. PDF, futureoflife.org
- International AI Safety Report 2025. gov.uk link
- SaferAI. Safety Frameworks Rating safer-ai.org
- Zach Stein-Perlman, AILabWatch.org, AISafetyClaims.org
- Документы и отчёты G7 Hiroshima AI Process, Сингапурский консенсус по безопасности ИИ
- Официальные документы компаний: OpenAI, Anthropic, Google DeepMind, Meta, x.AI, Zhipu AI, DeepSeek (модель-карты, публикации на arXiv, сайты компаний)