ЗаконодательствоИскусственный интеллектМировыеОбзор

Обзор надежного ИИ и автономии Министерства обороны, в котором приняли участие сотни экспертов

Более 200 участников — представителей правительства, военных и примерно 60 компаний, университетов и исследовательских центров, финансируемых из федерального бюджета, — приняли участие в трехдневной конференции 20-22 июня, которую организовала и провела Канцелярия заместителя министра обороны по исследованиям и технике для обсуждения ключевых достижений и проблем в области искусственного интеллекта и автономии в оборонном секторе США. сектор обороны.

“События развивались так, что промышленность и научные круги узнали о наших проблемах, о том, где нам нужна помощь и какие технические пробелы нам нужно устранить, а затем мы услышали от промышленности и научных кругов об их исследованиях применительно к этим пробелам. Затем мы предприняли действия по устранению этих пробелов ”, – сказал DefenseScoop на условиях анонимности высокопоставленный представитель Министерства обороны, который помогал руководить конференцией.

В целом автономные платформы и компьютерное программное обеспечение с поддержкой искусственного интеллекта могут функционировать в рамках ограничений для выполнения действий или решения проблем, которые обычно требуют человеческого интеллекта, практически без контроля со стороны людей. Некоторые компоненты Министерства обороны разрабатывали и внедряли AI в течение многих лет, но на данный момент такие активы не были масштабированы в масштабах предприятия или армии, и некоторые соответствующие рекомендации все еще отсутствуют.

И поскольку они быстро становятся все более сложными, появляющиеся и быстро развивающиеся большие языковые модели и связанные с ними возможности генеративного ИИ также создают новый потенциал для помощи и нанесения вреда всем компонентам Пентагона.

На этой неделе DefenseScoop получил официальное резюме недавней конференции Министерства обороны, посвященной непосредственному обсуждению некоторых из этих угроз и возможностей с экспертами из разных секторов, получившее название Обзор оборонных технологий Trusted AI and Autonomy (TAIA) (DTR). Документ был написан руководством R & E, но не был опубликован публично.

Мероприятие предоставило правительству платформу для информирования о своих целях и задачах в области искусственного интеллекта и автономии, а “экспертам – для углубленного обсуждения конкретных проблемных областей и устремлений” в этих новых технологических сферах, говорится в нем.

Среди присутствующих известных отраслевых организаций были Amazon, IBM, NVIDIA, Boeing, BAE, Boston Dynamics, Dynetics, Applied Intuition, Skydio и TwoSix.

В первый день мероприятия (которое проводилось на объекте MITRE при поддержке технического директора и команды этой фирмы) технический директор Министерства обороны и заместитель министра по исследованиям и разработкам Хайди Шью выступила с основным докладом, в котором были освещены критические технологии и области инвестирования в надежный ИИ и автономию, включая новую инициативу по созданию новых стратегических центров ИИ.

Среди других известных докладчиков, выступавших с докладами в течение трех дней, был генерал-лейтенант Дж. Дагвин Андерсон (Объединенный штаб, J7), технический директор Управления цифровых технологий и искусственного интеллекта Уильям Стрейлейн, Джон Камп из DARPA и представители Индо-Тихоокеанского командования, Центрального командования, Европейского командования и военных служб.

После выступления Шью главный директор Министерства обороны по надежному ИИ и автономии Кимберли Саблон представила стратегическое видение своей команды, “с акцентом на развитие когнитивной автономии в рамках системы систем”, согласно резюме. Саблон подчеркнула важность непрерывного состязательного тестирования и объединения в команды для обеспечения устойчивых операций или операций машинного обучения (MLOps). Она также анонсировала две новые инициативы в области искусственного интеллекта.

Одна из этих инициатив охватывает новое “сообщество действий, которое объединяет разработку миссий, системную инженерию и исследования с помощью интегрированных групп разработчиков продуктов и с акцентом на быстрое экспериментирование с партнерами по миссиям для решения проблемы совместимости ранее”, – написали официальные лица в резюме.

Другой – пилотный центр калиброванного измерения и оценки доверия (CaTE), который объединит сообщества по тестированию, оценке, верификации и валидации, приобретению и исследованиям и разработкам “для разработки стандартных методов и процессов предоставления доказательств для обеспечения уверенности и калибровки доверия в разнородных и распределенных человеко-машинных командах”, – поясняется в резюме. Возглавляемый Институтом разработки программного обеспечения Университета Карнеги-Меллон в сотрудничестве со службами и другими FFRDCs, этот экспериментальный центр будет заниматься внедрением ответственного ИИ, применяя подход “боец в цикле проектирования, разработки и обучения”.

Во второй и третий дни конференции участники участвовали в различных секционных заседаниях, посвященных конкретным направлениям, охватывающим широкий спектр важнейших для министерства обороны тем, связанных с ИИ и автономией.

Эти треки включали: большие языковые модели; автономное объединение нескольких агентов; обман в ИИ; усовершенствованная обработка ИИ; объединение человеко-машин; разработка военного плана действий с поддержкой ИИ; инициатива R & E AI hubs; интеллектуальная переподготовка на переднем крае; ответственный ИИ и автономия со смертельным исходом; MLOps / платформы разработки; синтетические данные для возникающих угроз; и выверенное доверие к автономным системам.

“Конференция способствовала обмену знаниями и идеями, предоставив ценный вклад в формирование направления правительственных исследований в важнейших областях искусственного интеллекта и автономии. Кроме того, он заложил основу для специализированных семинаров по AI-хабам, пробудил интерес к будущему сообществу R & E Action и CaTE и проложил путь к гораздо более масштабному последующему мероприятию, запланированному на январь 2024 года ”, – написали официальные лица в резюме.

Высокопоставленному чиновнику министерства обороны, который проинформировал DefenseScoop о том, что произошло, это событие демонстрирует один из способов, с помощью которого Министерство обороны намеренно работает над “решением проблем безопасности”, разрабатывая и развертывая возможности, имеющие соответствующие ограждения, связанные с “конституционным ИИ”.

“Конституционный ИИ – это новый подход к безопасности ИИ, который формирует результаты систем ИИ в соответствии с набором принципов”, – сказал чиновник.

Благодаря такому подходу система искусственного интеллекта имеет набор принципов, или “конституцию”, в соответствии с которой она может оценивать свои собственные результаты.

“CAI позволяет системам искусственного интеллекта генерировать полезные реакции, одновременно минимизируя вред. Это важно, потому что существующие методы обучения моделей, отражающих человеческие предпочтения, сталкиваются с компромиссами между безвредностью и полезностью”, – сказал высокопоставленный представитель министерства обороны.

admin
Author: admin

Hi, I’m admin