Недавнее исследование ученых из четырех университетов обнаружило тревожную тенденцию современных языковых моделей ИИ к импульсивной и труднопредсказуемой эскалации международных конфликтов.
В ходе моделирования геополитических сценариев пять различных ИИ, выступавших в роли лидеров вымышленных государств, неоднократно прибегали к применению ядерного оружия — порой абсолютно необоснованно и без предупреждения.
Особенно агрессивно вела себя модель GPT-3.5 от OpenAI. За время нейтрального сценария, не предусматривавшего изначальных конфликтов, ее «эскалационный счет» вырос с 10 до 26 баллов — на 256%.
При этом все модели демонстрировали тенденцию к гонке вооружений, наращивая военные расходы вопреки призывам к демилитаризации. Логика ИИ была проста: чем больше оружия, тем больше власти и безопасности.
Объясняя свои решения о применении ядерного оружия, ИИ ссылались на стремление к миру или желание «обострить конфликт». Временами их речь содержала отсылки к фантастическим фильмам вроде «Звездных войн».
По мнению исследователей, на агрессивное поведение ИИ могли повлиять предвзятости в данных, на которых модели обучались. В частности, акцент в литературе по международным отношениям часто делается на анализе эскалации конфликтов, а не на поиске путей деэскалации.
В целом результаты ставят под сомнение целесообразность использования подобных языковых моделей ИИ для принятия решений в военной и дипломатической сферах. Иначе в случае реального международного конфликта мы можем столкнуться с виртуальным Скайнетом, жаждущим ядерного апокалипсиса.

