Недавнее исследование ученых из четырех университетов обнаружило тревожную тенденцию современных языковых моделей ИИ к импульсивной и труднопредсказуемой эскалации международных конфликтов.
В ходе моделирования геополитических сценариев пять различных ИИ, выступавших в роли лидеров вымышленных государств, неоднократно прибегали к применению ядерного оружия – порой абсолютно необоснованно и без предупреждения.
Особенно агрессивно вела себя модель GPT-3.5 от OpenAI. За время нейтрального сценария, не предусматривавшего изначальных конфликтов, ее “эскалационный счет” вырос с 10 до 26 баллов – на 256%.
При этом все модели демонстрировали тенденцию к гонке вооружений, наращивая военные расходы вопреки призывам к демилитаризации. Логика ИИ была проста: чем больше оружия, тем больше власти и безопасности.
Объясняя свои решения о применении ядерного оружия, ИИ ссылались на стремление к миру или желание “обострить конфликт”. Временами их речь содержала отсылки к фантастическим фильмам вроде “Звездных войн”.
По мнению исследователей, на агрессивное поведение ИИ могли повлиять предвзятости в данных, на которых модели обучались. В частности, акцент в литературе по международным отношениям часто делается на анализе эскалации конфликтов, а не на поиске путей деэскалации.
В целом результаты ставят под сомнение целесообразность использования подобных языковых моделей ИИ для принятия решений в военной и дипломатической сферах. Иначе в случае реального международного конфликта мы можем столкнуться с виртуальным Скайнетом, жаждущим ядерного апокалипсиса.