Искусственный интеллект

Project Force: искусственный интеллект и военные – друг или враг?

Искусственный интеллект уже является частью нашей жизни, и по мере развития технологий он будет играть ключевую роль в будущих войнах. Но безопасно ли это?

Alex Gatopoulos

Точность современного оружия неуклонно приводит к тому, что на современных полях сражений не остается людей-комбатантов.

По мере того, как все больше и больше датчиков заполняют поле боя, отправляя аналитикам огромные объемы данных, люди пытаются разобраться в огромном количестве собранной информации.

Именно здесь на помощь приходит искусственный интеллект (ИИ) – обучающие алгоритмы, которые работают на основе больших данных; фактически, чем больше данных анализируют эти системы, тем более точными они могут быть.

Короче говоря, ИИ – это способность системы “мыслить” ограниченным образом, работая конкретно над проблемами, обычно связанными с человеческим интеллектом, такими как распознавание образов и речи, перевод и принятие решений.

Искусственный интеллект и машинное обучение были частью гражданской жизни в течение многих лет. Такие мегакорпорации, как Amazon и Google, использовали эти инструменты для создания огромных коммерческих империй, частично основанных на прогнозировании желаний и потребностей людей, которые ими пользуются.

Вооруженные силы Соединенных Штатов также давно инвестируют в гражданский ИИ при содействии Агентства перспективных оборонных исследовательских проектов Пентагона (DARPA), направляя деньги в ключевые области исследований ИИ.

Однако, решая конкретные военные проблемы, оборонное ведомство вскоре осознало, что его потребности в ИИ не удовлетворяются. Поэтому они обратились в Силиконовую долину с просьбой о помощи в предоставлении Пентагону инструментов, необходимых для обработки постоянно растущего объема информации.

Сотрудники нескольких корпораций были крайне недовольны тем, что их исследования используются военными, и убедили компании – одной из них является Google – отказаться от сотрудничества с оборонным ведомством или, по крайней мере, сократить его.

Активисты кампании “Остановить роботов-убийц”, коалиции неправительственных организаций, выступающих против смертоносного автономного оружия, проводят акцию протеста в Берлине в 2019 году [Файл: Reuters]

Роботы-убийцы или верные ведомые?

В то время как широко разрекламированная идея “Роботов-убийц” – безжалостных машин, выслеживающих людей и “уничтожающих” их по какой–то известной им самим причине, – захватила воображение публики, нынешний фокус на ИИ не может быть дальше от этого.

Как отмечается в недавнем отчете о применении ИИ в военных целях, технология занимает центральное место “в оказании роботизированной помощи на поле боя, что позволит войскам поддерживать или расширять боевые возможности без увеличения численности личного состава”.

 

Подпишитесь на Al Jazeera

Информационный бюллетень по Северной и Южной Америке

 

Политика США, мультикультурализм Канады, геополитический подъем Южной Америки — мы представляем вам истории, которые имеют значение.

Что это значит? По сути, роботизированные системы будут выполнять задачи, которые считаются слишком простыми или слишком опасными для людей, такие как беспилотные конвои снабжения, разминирование или дозаправка самолетов в воздухе. Это также “множитель силы”, что означает, что он позволяет тому же количеству людей делать и достигать большего.

Идея, которая иллюстрирует это, – концепция робота “Верный ведомый”, разрабатываемого для ВВС США. Разработанный для полета бок о бок с реактивным самолетом, управляемым пилотом-человеком, этот беспилотный самолет будет отбиваться от врага, сможет выполнить свою миссию или помочь пилоту-человеку сделать это. Он будет действовать как телохранитель искусственного интеллекта, защищающий пилотируемый самолет, а также предназначен для самопожертвования, если возникнет необходимость сделать это для спасения пилота-человека.

Дрон военно-морских сил X-47B, беспилотный боевой летательный аппарат [Файл: AP]

По мере развития мощи искусственного интеллекта стремление к тому, чтобы системы становились автономными, будет только усиливаться. В настоящее время военные заинтересованы в участии человека в процессе принятия решений. Но в военное время эти каналы связи являются потенциальными целями – отрежьте голову, и тело не сможет думать. Большинство беспилотных летательных аппаратов, развернутых в настоящее время по всему миру, утратили бы свои основные функции, если бы был прерван канал передачи данных, соединяющий их с человеком-оператором.

Это не относится к высококлассному невооруженному беспилотнику Global Hawk для сбора разведданных, который после получения “приказов” способен выполнять их независимо без необходимости в уязвимом канале передачи данных, что позволяет отправлять его в крайне спорные воздушные пространства для сбора жизненно важной информации. Это делает его гораздо более живучим в будущем конфликте, и сейчас деньги льются на эти новые системы, которые могут летать сами по себе, такие как французский Dassault Neuron или российский Sukhoi S70 – оба проекта являются полускрытыми автономными боевыми беспилотниками.

Алгоритмы искусственного интеллекта: больше, чем вы

Программы и системы искусственного интеллекта постоянно совершенствуются, поскольку их быстрая реакция и обработка данных позволяют им точно оттачивать задачи, для выполнения которых они предназначены.

Роботизированные самолеты-дозаправщики “воздух-воздух” имеют лучшие летные показатели и способны сохранять устойчивость в погодных условиях, которые поставили бы пилота-человека в затруднительное положение. В военных играх и симуляторах воздушных боев “пилоты” искусственного интеллекта уже начинают одерживать значительные победы над своими коллегами-людьми.

Хотя алгоритмы ИИ отлично справляются с обработкой данных, они также начали удивлять наблюдателей выбором, который они делают.

В 2016 году, когда программа искусственного интеллекта AlphaGo сразилась с гроссмейстером-человеком и чемпионом мира по знаменитой сложной игре Го, ожидалось, что она будет действовать методично, как машина. Что удивляло всех зрителей, так это неожиданно смелые ходы, которые он иногда совершал, заставая своего противника Ли Се-Дола врасплох. Алгоритм продолжал побеждать, к шоку наблюдателей турнира. Такого прорыва в развитии искусственного интеллекта не ожидали годами, и все же он произошел.

Машинный интеллект все чаще внедряется и будет внедряться в пилотируемые платформы. На кораблях теперь будет меньше членов экипажа, поскольку программы искусственного интеллекта смогут делать больше. Пилоты-одиночки смогут управлять эскадрильями беспилотных летательных аппаратов, которые будут летать сами, но подчиняться приказам этого человека.

Камеры слежения с распознаванием лиц отслеживают пешеходную торговую улицу в Пекине [Файл: AP]

Главная сила ИИ заключается в сфере наблюдения и борьбы с повстанцами: он способен сканировать изображения, поступающие с миллионов камер видеонаблюдения; способен следить за множеством потенциальных целей; использует большие данные для более точного прогнозирования поведения цели. Все это уже доступно системам искусственного интеллекта, которые были созданы для этой цели – немигающим глазам, которые наблюдают, записывают и контролируют 24 часа в сутки.

Сам объем материала, который можно собрать, ошеломляет и был бы за пределами возможностей человеческих аналитиков наблюдать, усваивать и приводить к любым сделанным ими выводам.

Искусственный интеллект идеально подходит для этого, и одним из испытательных полигонов такого рода аналитического программного обеспечения для обнаружения являются специальные операции, где был достигнут значительный успех. Темп операций спецподразделений по борьбе с повстанцами и терроризмом резко возрос, поскольку информацию из рейда теперь можно быстро проанализировать и принять меры, что приведет к проведению других рейдов той же ночью, что приведет к сбору большего объема информации.

Такая скорость способна вывести из равновесия любую вооруженную группу, поскольку рейды настолько часты и безжалостны, что им остается только передвигаться и прятаться, подавляя их организацию и делая ее неэффективной.

Мужчина использует консоль в стиле PlayStation для управления ‘самолетом’, демонстрируя систему управления беспилотными летательными аппаратами [Файл: AP]

По мере развития военных систем с искусственным интеллектом их успехи будут улучшаться, и это поможет преодолеть еще одну ключевую проблему в принятии информационных систем человеческими операторами: доверие.

Солдаты-люди научатся все больше полагаться на умные системы, которые могут думать быстрее, чем они, обнаруживая угрозы раньше, чем они это сделают. Система ИИ хороша настолько, насколько хороша информация, которую она получает и обрабатывает об окружающей среде, другими словами, то, что она “воспринимает”. Чем больше у него информации, тем точнее он будет в своем восприятии, оценке и последующих действиях.

Наименее сложная среда для понимания машиной – это полет. Простые правила, небольшая вероятность столкновения и относительно прямые маршруты в район операций и из него означают, что именно здесь были сделаны первые попытки внедрения искусственного интеллекта и относительно интеллектуальных систем. Бродячие боеприпасы, предназначенные для поиска и уничтожения радарных установок, уже действуют и использовались в таких конфликтах, как война между Арменией и Азербайджаном.

Инвестиции и исследования также направлены на морские платформы. Работая в более сложных условиях, когда морская флора и фауна и наземное движение потенциально скрывают показания датчиков, крупным достижением являются беспилотные подводные аппараты (БПЛА). Скрытые, почти бесшумные системы, их практически невозможно обнаружить, и они могут оставаться под водой почти бесконечно.

Опасности

Наряду с достижениями растет обеспокоенность тем, насколько смертоносными могут быть эти воображаемые системы искусственного интеллекта.

Люди доказали, что они чрезвычайно искусны в способах убийства, но растет беспокойство, что эти мифические роботы взбесятся и люди потеряют контроль. Это главная проблема среди комментаторов, исследователей и потенциальных производителей.

Но система искусственного интеллекта не пришла бы в ярость, не почувствовала бы ненависти к своему врагу и не решила бы выместить это на местном населении, если бы ее товарищи по искусственному интеллекту были уничтожены. В ее программное обеспечение могли бы быть встроены законы вооруженного конфликта.

Наиболее сложной и требовательной средой являются городские бои, где все чаще будут вестись войны ближайшего будущего. Конфликты в городах могут подавить большинство людей, и весьма сомнительно, что машина с очень узким взглядом на мир сможет в них ориентироваться, не говоря уже о том, чтобы сражаться и побеждать, не совершая серьезных ошибок в суждениях.

Мужчина смотрит на демонстрацию программного обеспечения для анализа движений человека в киоске производителя решений для искусственного интеллекта на выставке в Китае [Файл: Reuters]

Хотя сейчас их не существует, “роботы-убийцы” продолжают вызывать беспокойство у многих, и уже ведется работа над этическими кодексами. Может ли робот-комбатант действительно понимать законы вооруженного конфликта и уметь их применять? Может ли он отличить друга от врага, и если да, то какой будет его реакция? Особенно это относится к ополченцам, солдатам противоборствующих сторон, использующим схожее снаряжение, бойцам, которые обычно не носят отличительную форму, и некомбатантам.

Обеспокоенность настолько велика, что Хьюман Райтс Вотч призвала запретить полностью автономные ИИ, способные принимать смертоносные решения, призывая ввести запрет, очень похожий на тот, который действует в отношении мин, химического и биологического оружия.

Еще одна главная проблема заключается в том, что машину можно взломать так, как не под силу человеку. В одну минуту она может сражаться бок о бок с вами, а в следующую ополчиться на вас. Человеческие подразделения и раньше бунтовали и меняли лояльность, но обратить против них всю свою армию или флот одним нажатием клавиши – ужасающая возможность для военных планировщиков. И программное обеспечение может пойти не так. Распространенная фраза в современной гражданской жизни – “извините, система не работает”; представьте, что это применимо к вооруженным машинам, участвующим в бою.

Возможно, наиболее тревожным из всех является агрессивное использование вредоносного ПО искусственного интеллекта. Более 10 лет назад самое известное в мире кибероружие Stuxnet попыталось внедриться в программное обеспечение, управляющее вращением центрифуг, перерабатывающих уран в Иране. Способный скрываться, он заметал свои следы, выискивая определенный фрагмент кода для атаки, который заставил бы центрифуги выйти из-под контроля и быть уничтоженными. Несмотря на то, что тогда он был очень сложным, это ничто по сравнению с тем, что доступно сейчас и что могло быть использовано во время конфликта.

Аэрофотоснимок Пентагона в Вашингтоне, округ Колумбия; американские военные хотят расширить использование искусственного интеллекта в военных действиях [Файл: AP]

Конкуренция: равные условия игры

Желание спроектировать и создать это новое оружие, которое, как ожидается, изменит баланс сил в будущих конфликтах, вызвало гонку вооружений между США и их ближайшими конкурентами Россией и Китаем.

ИИ может не только расширять возможности, он асимметричен в своих рычагах, что означает, что небольшая страна может разработать эффективное программное обеспечение для ИИ без промышленной мощи, необходимой для исследования, разработки и тестирования новой системы вооружений. Для страны это мощный способ обойти конкурентов, создавая мощные разработки, которые дадут ей преимущество, необходимое для победы в войне.

Россия объявила это новым рубежом для военных исследований. Президент Владимир Путин в своем обращении в 2017 году сказал, что тот, кто станет лидером в сфере ИИ, “станет правителем мира”. В подтверждение этого в том же году Военно-промышленный комитет России одобрил внедрение искусственного интеллекта в 30 процентах вооруженных сил страны к 2030 году.

Нынешние реалии иные, и пока российские начинания в этой области оказались неоднородными. Беспилотная боевая машина Uran-9 плохо зарекомендовала себя на городских полях сражений в Сирии в 2018 году, часто не понимая своего окружения или будучи способной обнаруживать потенциальные цели. Несмотря на эти неудачи, он был принят на службу в российские вооруженные силы в 2019 году, что является явным признаком стремления высших российских военных кругов использовать роботизированные подразделения с возрастающей автономией по мере их усложнения.

Китай также четко заявил, что основным направлением исследований и разработок является то, как победить в “интеллектуальной войне”. В отчете о внедрении и использовании ИИ в Китае в военных целях Институт Брукингса написал, что он “будет включать в себя принятие командованием решений, военные выводы … которые могут изменить сами механизмы победы в будущих войнах”. В настоящее время в центре внимания находятся радары с поддержкой искусственного интеллекта, роботизированные корабли и более умные крылатые и гиперзвуковые ракеты – все области исследований, на которых сосредоточены другие страны.

Американский военный пилот управляет беспилотником Predator с наземного командного пункта во время ночной пограничной миссии [Файл: AP]

Развитие военного искусственного интеллекта, дающего системам повышенную автономность, дает военным планировщикам заманчивый проблеск победы на поле боя, но само оружие и контрмеры, которые были бы направлены против него в войне ближайшего будущего, остаются в значительной степени непроверенными.

Такие страны, как Россия и Китай, с их модернизированными вооруженными силами больше не стремятся достичь паритета с США; они стремятся превзойти их, проводя интенсивные исследования в области оружия будущего.

Ключевое значение имеет доктрина: как это новое оружие будет интегрировано в планы будущих войн и как его можно использовать для максимального воздействия на противника.

Любой количественный скачок в разработке вооружений всегда вызывает беспокойство, поскольку он вселяет в страну веру в то, что она может одержать победу в битве, тем самым снижая порог конфликта.

По мере дальнейшего ускорения войны борьба с ними, предоставление рекомендаций и, в конечном счете, принятие решений все чаще будут оставаться в руках этих систем.

Видеосъемка и дополнительный репортаж Адама Адады.

admin
Author: admin