Искусственный интеллектМировые

Ядерный апокалипсис по вине ИИ? Как показало новое исследование, это вполне реальная угроза

Ядерный апокалипсис по вине ИИ? Как показало новое исследование, это вполне реальная угроза

Недавнее исследование ученых из четырех университетов обнаружило тревожную тенденцию современных языковых моделей ИИ к импульсивной и труднопредсказуемой эскалации международных конфликтов.

В ходе моделирования геополитических сценариев пять различных ИИ, выступавших в роли лидеров вымышленных государств, неоднократно прибегали к применению ядерного оружия – порой абсолютно необоснованно и без предупреждения.

Особенно агрессивно вела себя модель GPT-3.5 от OpenAI. За время нейтрального сценария, не предусматривавшего изначальных конфликтов, ее “эскалационный счет” вырос с 10 до 26 баллов – на 256%.

При этом все модели демонстрировали тенденцию к гонке вооружений, наращивая военные расходы вопреки призывам к демилитаризации. Логика ИИ была проста: чем больше оружия, тем больше власти и безопасности.

Объясняя свои решения о применении ядерного оружия, ИИ ссылались на стремление к миру или желание “обострить конфликт”. Временами их речь содержала отсылки к фантастическим фильмам вроде “Звездных войн”.

По мнению исследователей, на агрессивное поведение ИИ могли повлиять предвзятости в данных, на которых модели обучались. В частности, акцент в литературе по международным отношениям часто делается на анализе эскалации конфликтов, а не на поиске путей деэскалации.

В целом результаты ставят под сомнение целесообразность использования подобных языковых моделей ИИ для принятия решений в военной и дипломатической сферах. Иначе в случае реального международного конфликта мы можем столкнуться с виртуальным Скайнетом, жаждущим ядерного апокалипсиса.

admin
Author: admin

Hi, I’m admin