Белая книга - Обещание и опасность революции в области искусственного интеллекта: управление рисками
Искусственный интеллектКибербезопасность

Белая книга – Обещание и опасность революции в области искусственного интеллекта: управление рисками

Аннотация: Это предпосылка многих научно-фантастических фильмов: технология превосходит человеческий интеллект, сеет хаос и в конечном итоге захватывает человечество. Хотя этот фильм еще не появился в реальной жизни, недавний выпуск ChatGPT ощущался как вступительные титры – и это всего лишь один из многих инструментов генеративного искусственного интеллекта (ИИ). Теперь известные технологические лидеры, такие как соучредитель Apple Стив Возняк и генеральный директор Tesla Илон Маск, входят в число тех, кто просит компании воздержаться от “гигантских экспериментов в области искусственного интеллекта”, пока отрасль проводит оценку рисков. В их открытом письме говорится, что крупномасштабные проекты в области искусственного интеллекта “могут представлять серьезные риски для общества и человечества” без надзора и разумного управления, и содержится просьба о временной паузе в дальнейшей разработке. В письме также подчеркивалась необходимость в системах управления и новом регулирующем органе, посвященном искусственному интеллекту.

Тем не менее, другие лидеры отрасли считают, что как преимущества, так и риски генеративного искусственного интеллекта были преувеличены – что мы имеем дело с ограниченными технологиями, которые далеко не так полезны, как наши самые большие надежды, или не так эффективны, как наши худшие опасения. Но один вывод напрашивается сам собой: искусственный интеллект уже пронизывает наш бизнес и наш мир, и необходимость в CISO, ИТ-риск-менеджерах, исполнительных директорах и ИТ-старшем руководстве, чтобы идти в ногу с быстро меняющимся ландшафтом рисков, является неотложной.

Когда корпоративная мудрость встречается с искусственным интеллектом

Всего несколько месяцев назад трудно было представить, что профессионалы из всех отраслей обратятся к одному приложению для генерации юридических аргументов и советов, компьютерного кода, сонетов в стиле Шекспира и планов клинического лечения. Тем не менее, миллионы пользователей быстро привыкли к новому удобному миру инструментов для генерации искусственного интеллекта, таких как ChatGPT  от OpenAI и Bard от Google. Несмотря на огромный успех и множество применений, большинство пользователей не знакомы с опасностями генеративного искусственного интеллекта. Следовательно, по мере того, как компании вступают в яростную гонку за разработкой и использованием инструментов искусственного интеллекта, многие усилия по управлению рисками отстают.

Усилия по созданию и использованию новых технологий не должны осуществляться в ущерб управлению рисками. К сожалению, это общая схема для большинства новых технологий. Те, кто помнит появление смартфонов, 3D-печати или Интернета вещей (IoT), могут предположить, что появление искусственного интеллекта сравнимо с этими прорывами. Но это больше похоже на создание автомобиля или Интернета: вспышка инноваций, которая охватит все отрасли.

Усилия по созданию и использованию новых технологий не должны осуществляться в ущерб управлению рисками.

Искусственный интеллект знаменует собой фундаментальный сдвиг в том, как мы взаимодействуем с технологиями. Традиционные ограждения и протоколы безопасности, которые служили нам до этого момента, теперь в определенной степени неадекватны, поскольку генеративный ИИ только набирает популярность и влияние. Новая территория включает в себя новые риски, и, в отличие от предыдущих квантовых скачков в технологиях, компании, ищущие голоса власти, вместо этого сталкиваются с неуверенностью в том, как продуманно максимизировать ценность искусственного интеллекта при искусной минимизации риска.

Текущее состояние искусственного интеллекта

Несмотря на способность ИИ имитировать человеческие модели мышления и речи, ничто из этого не является разумным. Большая часть того, что обычно называют ИИ, на самом деле состоит из методов машинного обучения или больших языковых моделей (LLM). Например, после получения набора данных из 300 миллиардов слов, пользователей ChatGPT использовали книги, веб-сайты, Википедию и другие источники и были обучены с использованием подкрепляющего обучения на основе обратной связи с человеком (RLHF), причем обратная связь улучшала их реакцию. Bard обучалась аналогичным методам, но также черпала информацию из Интернета. Megatron, совместное предприятие Microsoft и Nvidia, прошла обучение с использованием новых методов “параллелизма” и вскоре может превзойти ChatGPT за счет радикального расширения возможностей. Методы, использованные для разработки этих инструментов, вызывают вопросы о том, откуда берутся данные, используемые в LLMS, и можно ли доверять использованию этих данных для обучения инструментам с поддержкой искусственного интеллекта.

В то время как частная компания, такая как ChatGPT, захватила львиную долю внимания СМИ, стартапы, такие как ChatSonic, Jasper, Wordtune и другие, помогают пользователям воспринимать искусственный интеллект не как один инструмент, а как новый тип функциональной технологии. Частично это достигается за счет предобучения генеративному искусственному интеллекту, в котором используются информационные материалы частного и государственного секторов. Эти компании вносят революцию в то, как мы взаимодействуем с искусственным интеллектом, предоставляя широкий спектр инструментов и услуг, удовлетворяющих разнообразные потребности пользователей. В ответ на отзывы пользователей создатели добавляют средства контроля безопасности, текстовые классификаторы и другие функции, чтобы стать более конкурентоспособными и полезными.

Например, Bard предназначен также для работы в качестве личного ассистента и может выполнять различные задачи – от бронирования отпуска до составления плана питания. ChatGPT интегрируется в Microsoft Office 365 в качестве Microsoft 365 Copilot. Вскоре любой, кто использует Microsoft Word, Excel или PowerPoint, сможет использовать Copilot для создания новой презентации, разработки стратегий выхода на рынок или преобразования даже самых сложных финансовых данных в отчет.

Скорость эволюции ИИ поразила даже самых опытных ветеранов технологий. Почти каждую неделю появляются новые заявления о преимуществах, опасностях, ограничениях или потенциале ИИ, зачастую с противоречивыми выводами. Неудивительно, что многие бизнес-лидеры решили подождать, пока уляжется пыль вокруг искусственного интеллекта, прежде чем разрабатывать официальную бизнес-стратегию. Но, хотя это может показаться самым безопасным путем, задержка сопряжена с собственным риском.

По этой причине, какую бы форму ни приняла революция в области искусственного интеллекта, мы знаем, что искусственный интеллект никуда не денется и что самый безопасный и разумный путь к безопасности – начать адаптацию сейчас. Бизнес-лидерам следует исходить из того, что искусственный интеллект уже используется на предприятии, поскольку за последние пару лет его популярность только выросла в геометрической прогрессии. Пример взрывного роста использования ChatGPT показан на рисунке 1.

Рисунок 1: Использование искусственного интеллекта снижает скорость звука

К ИИ или не к ИИ

Лошадь никуда не денется, но автомобиль — всего лишь новинка, дань моде.

— Совет от Мичиганского сберегательного банка адвокату Генри Форда Хорасу Рэкхему.

Некоторые организации, напуганные неизвестностью, стали игнорировать растущее влияние ИИ. Другие, опасаясь очередного технологического трюка, отвергают обещания ИИ как простую шумиху. Но при правильном использовании инструменты искусственного интеллекта могут дополнять человеческие идеи, дополнять бизнес-процессы и преобразовывать сложную информацию в удобоваримый контент, что может привести к повышению прибыли и производительности.

История показывает, что любая технология, позволяющая нам делать больше с меньшими усилиями, от руля до автомобиля, пользуется огромной популярностью – как доказал генеративный искусственный интеллект. От автоматизации рутинных задач до создания креативного контента генеративный ИИ продемонстрировал свой потенциал повышения производительности и раскрытия творческого потенциала человека. Некоторые работники уже считают использование ИИ таким же обычным делом, как проверка электронной почты или покупка товаров онлайн. Это только вопрос времени, когда искусственный интеллект войдет в нашу личную и профессиональную жизнь.

Несмотря на его проникновение практически во все сферы общества и культуры, некоторые компании запретили или ограничили использование искусственного интеллекта. Stack Overflow, который предлагает форум для вопросов и ответов по кодированию, временно запретил ChatGPT из-за его склонности давать неправильные ответы, которые звучат уверенно и легитимно, что приводит пользователей в замешательство или вводит в заблуждение при поиске релевантных ответов на их вопросы. Samsung Electronics, Apple, JPMorgan Chase и Verizon Communications сильно ограничили использование генеративного искусственного интеллекта на рабочих местах из соображений безопасности.

Хотя эти ограничения имеют смысл, учитывая нынешнюю неоднозначность возможностей ИИ и их последствий, большинство бизнес-лидеров понимают, что решения, касающиеся долгосрочного развития искусственного интеллекта, будут гораздо более сложными, чем простое “да” или “нет”. Если предприятие полностью запретит искусственный интеллект, оно может минимально рисковать своим конкурентным преимуществом, поскольку некоторые сотрудники, партнеры, дистрибьюторы и конкуренты могут извлечь из этого выгоду. Даже если инструменты с поддержкой искусственного интеллекта на предприятии не используются, игнорирование этой технологии может сделать предприятие более уязвимым к рискам (например, устареванию, снижению доступа к лучшим специалистам и т.д.).

История показывает, что любая технология, позволяющая нам делать больше с меньшими усилиями, от руля до автомобиля, пользуется огромной популярностью – как доказал генеративный искусственный интеллект.

По этой причине высшим руководителям, если они хотят использовать технологии искусственного интеллекта, необходимо обеспечить наличие в их организациях надлежащей инфраструктуры и процессов управления. Чтобы точно понять уязвимости и преимущества, которые несет в себе искусственный интеллект, руководители должны провести тщательный анализ влияния рисков, учитывающий текущую неопределенность ландшафта искусственного интеллекта и его будущую мощь.

Определение риска и вознаграждения в области искусственного интеллекта

Искусственный интеллект готов проникнуть в бизнес в любой отрасли. От предоставления студентам готовых академических эссе до написания сценариев для голливудских студий и анализа недостатков в проектировании производственных цехов, искусственный интеллект предлагает преимущества практически для каждой команды, сферы деятельности и организации. На коллективном отраслевом уровне (и на уровне отдельного бизнеса) лидеры должны предпринять четыре важных шага для максимизации ценности искусственного интеллекта при установке соответствующих и эффективных ограждений:

  1. Определите преимущества искусственного интеллекта.
  2. Определите риски в области искусственного интеллекта.
  3. Применяйте непрерывный подход к управлению рисками.
  4. Внедрите соответствующие протоколы безопасности искусственного интеллекта.

Если бизнес-лидеры смогут выполнить эти шаги, у них гораздо больше шансов достичь хорошего баланса риска и вознаграждения, поскольку инструменты и процессы с поддержкой искусственного интеллекта используются на их предприятиях.

Проведение анализа преимуществ искусственного интеллекта

Лидеры и филантропы, такие как Билл Гейтс, предвидят, что преимущества искусственного интеллекта принесут множество преимуществ – от предоставления здравоохранения и образования недостаточно обеспеченным слоям населения до устранения последствий изменения климата. Для предприятий потенциальные преимущества включают лучшие инновации, эффективность, продуктивность и оптимизацию рабочей силы. Компании уже стремятся автоматизировать задачи с помощью искусственного интеллекта и перераспределить персонал на более полезную работу, где они могут, например, сосредоточиться на разработке замечательной новой линейки услуг или развитии более внимательных отношений с клиентами.

Компании, которые захотят отказаться от использования искусственного интеллекта, скорее всего, окажутся на пути к устареванию. Точно так же, как программы искусственного интеллекта покорили миллиарды пользователей всего за несколько недель, скорость, с которой эти программы изменят рынки и возможности продуктов, может быть ошеломляющей.

Корпоративные титаны могут обнаружить, что их конкуренты с поддержкой искусственного интеллекта стали умнее, быстрее и смертоноснее, чем когда-либо прежде. На рисунке 2 приведены некоторые примеры использования.

Рисунок 2: Комплекс незащищенности ИИ – является ли ИИ умнее нас?

Использование искусственного интеллекта ужесточает конкуренцию Компания A – лидер отрасли, которая доминирует на своем рынке в течение 10 лет благодаря одному флагманскому продукту. Генеральный директор чувствует себя в безопасности в положении компании, поскольку конкурентная разведка заверяет его, что исследования и разработки ни одной другой компании не приближаются к функциональности продукта компании A.

Затем выскочка по имени Company B использует искусственный интеллект для проведения исследований, разработки новаторского продукта, создания моделей ценообразования и маркетинговых планов, запуска нового веб-сайта и заполнения онлайн-каналов продаж – и все это в течение двух недель с минимальными затратами рабочей силы.

Всего за два совещания сотрудников продукт компании A становится устаревшим, клиентская база переходит к компании B, а прибыль начинает падать. Другие выскочки начинают использовать искусственный интеллект, чтобы свергнуть компанию B. Рынок радикально меняется в течение нескольких месяцев, когда компания А борется и не может оставаться актуальной.

Чтобы провести исчерпывающий анализ преимуществ любой технологии, руководители должны выйти за рамки упрощенных преимуществ и пересмотреть основополагающий дух своих компаний. Некоторые соображения включают:

  • Что делает компания и почему они это делают?
  • Как они это делают?
  • Как конкуренты компании используют инструменты искусственного интеллекта?
  • На какие инструменты и таланты они полагаются и каковы их показатели успеха?
  • Сколько будут стоить инвестиции в искусственный интеллект и какую окупаемость они обеспечат?
  • Насколько компания уверена в том, что ее протоколы и механизмы безопасности помогут обеспечить качество, целостность и конфиденциальность данных (например, IP, PII и т.д.)?
  • Как могут измениться текущая стратегия и цели компании, когда искусственный интеллект устранит значительные барьеры, связанные с затратами и талантами?
  • Что сотрудники и партнеры могли бы привнести в процесс внедрения инноваций в области искусственного интеллекта?

Ответы на эти вопросы составят дорожную карту, которая свяжет варианты использования искусственного интеллекта с миссией и целями компании.

Выявление рисков в области искусственного интеллекта

Потенциальный риск, связанный с ИИ, в основном характеризовался как проблема будущего. Однако активное устранение этого риска может помочь обеспечить безопасную и ответственную разработку технологии ИИ для использования в бизнесе.

Доктор Джеффри Хинтон, которого обычно называют “крестным отцом” искусственного интеллекта, недавно уволился из Google, официально признав, что сожалеет о своей работе, назвав некоторые опасности “довольно пугающими”. Его работа над нейронными сетями и глубоким обучением заложила основу для того, что мы сейчас называем программированием искусственного интеллекта; он наметил пути, по которым будущие возможности искусственного интеллекта могут превысить наше понимание и, следовательно, ограничить нашу способность мобилизовывать или устанавливать эффективные меры предосторожности.

Несмотря на важность признания будущих рисков, нынешнее состояние технологий искусственного интеллекта и наши модели использования представляют собой непосредственный риск, который необходимо устранить. Этот риск можно обобщить следующим образом: искусственный интеллект может усугубить любые существующие проблемы, такие как отсутствие контроля качества или плохая целостность данных, а системы станут уязвимыми для кибератак и могут привести к возникновению новых. От утечки данных до мошенничества генерального директора, искусственный интеллект может быстро усилить “контролируемый” риск до хаотичного уровня, потенциально сведя под откос неподготовленный бизнес. Некоторые примечательные примеры того, как искусственный интеллект меняет бизнес-функции, можно найти на рисунке 3.

Рисунок 3: Сбои, вытеснения и открытия — насколько искусственный интеллект изменит бизнес?

Каким бы полезным ни был искусственный интеллект, он не лишен неотъемлемого риска. Некоторые распространенные риски рассматриваются в следующих разделах.

Социальные риски

Поскольку ИИ продолжает влиять на общество, мы должны критически относиться к его целям и потенциальному ущербу. ИИ может использоваться для создания дезинформации и манипулирования населением и политической демографией убедительным и разрушительным способом. Искусственный интеллект уже использовался при совершении новых видов киберпреступлений (например, глубоких подделок, сложных фишинговых электронных писем, генераторов голоса с помощью искусственного интеллекта и т.д.). Например, поддельное изображение взрыва в Пентагоне было широко распространено в Twitter, что вызвало реакцию фондового рынка. Этот инцидент иллюстрирует, как дезинформация, генерируемая искусственным интеллектом, может иметь далеко идущие последствия, подрывая стабильность финансовых рынков и подрывая доверие к институтам. Именно по этой причине необходимо будет разработать механизмы, позволяющие компаниям и пользователям отсеивать дезинформацию. Пользователи инструментов искусственного интеллекта также должны оценивать представленную им информацию, чтобы смягчить ее потенциальные негативные последствия. Кроме того, потенциал экономических потрясений напрямую связан с перемещением рабочих мест; прогнозируется, что модели ChatGPT затронут более 300 миллионов рабочих мест, а безработица затронет многие отрасли и профессии.

Утечка IP-адресов и признание их недействительными

Многие пользователи искусственного интеллекта бездумно внедряют интеллектуальную собственность (ИС), коммерческие секреты, контент конкурентов и другие данные в модели искусственного интеллекта, что создает ряд рисков для конфиденциальности. Недавно, например, сотрудники Samsung случайно слили конфиденциальную информацию о компании, используя ChatGPT. Другим примером может служить компания, занимающаяся ценообразованием и поставками товаров, которая хочет сохранить конфиденциальность своих оптовых цен.

Однако, если они позволят сотрудникам использовать инструменты искусственного интеллекта, эта конфиденциальная информация может стать общедоступной, если сотрудник скопирует и вставит ее в программу искусственного интеллекта. Кроме того, вышеупомянутый Microsoft Copilot будет просматривать внутренние данные компании в SharePoint, электронных таблицах Excel, Slack, электронной почте, сообщениях Teams и OneDrive, потенциально предоставляя доступ к частным и конфиденциальным данным.

По этой причине некоторые компании, такие как Amazon, предупредили сотрудников не делиться конфиденциальной информацией с ChatGPT. Тем не менее, у многих других компаний нет таких политик или предупреждений, которые должны включать четкое определение того, что компания считает конфиденциальной информацией. Политика также должна обеспечивать согласованность с сотрудниками, которые в противном случае могут не знать об авторских правах, товарных знаках и конфиденциальной информации, которой они делятся с огромным цифровым хранилищем, которое может делиться ею с другими.

Следует также упомянуть, что недовольные сотрудники, осознающие скрытый вред от обмена этой информацией, могут целенаправленно передавать данные инструменту искусственного интеллекта, чтобы потенциально нанести ущерб репутации компании. Сотрудники, вводящие информацию в приложения искусственного интеллекта, могут аннулировать патенты и другие объекты интеллектуальной собственности, поскольку защита интеллектуальной собственности контролируется сложными законами. Например, если компания не в состоянии должным образом защитить свои коммерческие секреты из-за халатности сотрудников, она может лишиться правовой защиты, предоставляемой конфиденциальной информации.

Недействительное право собственности

Любая компания, использующая искусственный интеллект для создания результатов, таких как маркетинговый слоган, должна гарантировать, что это действительно оригинальная интеллектуальная собственность, а не производная от работы другого человека. В противном случае эти компании могут обнаружить, что их право собственности на новые активы недействительно. Кроме того, Бюро по авторским правам США отказалось от авторских прав на некоторые изображения, созданные искусственным интеллектом, в зависимости от того, были ли они созданы на основе текстовых подсказок или отражают “собственную ментальную концепцию” создателя.

Незаконное право собственности также может возникнуть, если, например, автор копирует и вставляет ссылку на замечательный фрагмент контента конкурента в качестве вдохновения в инструмент искусственного интеллекта и получает обратно наполовину плагиатированный контент. Недействительные заявления о праве собственности на искусственный интеллект в конечном итоге могут привести к судебным спорам и негативно сказаться на репутации предприятия.

Влияние кибербезопасности и отказоустойчивости

От интеграции API до создания все более убедительных фишинговых электронных писем искусственный интеллект открывает двери в гораздо более сложный мир киберпреступности. Злоумышленники уже используют искусственный интеллект для более быстрого написания вредоносных программ, генерации сценариев взлома, запуска атак с использованием программ-вымогателей и убедительной имитации голоса генерального директора.

Доступность искусственного интеллекта, пожалуй, является его наибольшим риском, поскольку все, что нужно сделать злоумышленнику, это вставить простую подсказку в инструмент искусственного интеллекта. Для запуска эксплойта практически не требуется программирования или специальных знаний. Это демократизировало использование искусственного интеллекта, позволив практически любому человеку использовать его мощь во вред.

Искусственный интеллект открывает дверь в гораздо более сложный мир киберпреступности.

Искусственный интеллект открывает потенциальным злоумышленникам, которым не хватает технических навыков, путь к киберпреступности, поскольку они могут просто использовать инструмент предварительного тестирования на проникновение на базе искусственного интеллекта, такой как PentestGPT, и подсказку типа “Найдите мне уязвимость безопасности для определенной технологии, такой как Windows, AWS или industrial control systems, и напишите код для ее использования”. Затем злоумышленник может вставить код с сервера электронной почты, и искусственный интеллект напишет сценарий для использования уязвимости.

Резервное копирование и аварийное восстановление – еще одна проблема, которую не следует упускать из виду. Искусственный интеллект должен учитываться в планах реагирования на инциденты и обеспечения непрерывности бизнеса, как с точки зрения инцидента, связанного с искусственным интеллектом, так и с точки зрения плана реагирования на основе искусственного интеллекта.

PentestGPT

  • ChatGPT использовался для создания программы для кражи информации, инструментов шифрования и вредоносных скриптов dark web.
  • Darktrace сообщила о 135-процентном росте  спам-писем клиентам в период с января по февраль, в которых значительно улучшились грамматика и синтаксис английского языка. Компания заявила, что, по их мнению, хакеры использовали генеративные приложения искусственного интеллекта для разработки своих кампаний и придания им более убедительного американского звучания.
  • Видеоролики с голосом генерального директора Zscaler Джея Чодри были превращены в удивительно эффективную попытку  случаев мошенничества с помощью инструментов искусственного интеллекта. Компания также заявила, что искусственный интеллект стал фактором 47-процентного роста числа фишинговых атак, зафиксированного Zscaler в 2022 году.
  • Пятьдесят один процент ИТ-специалистов прогнозируют, что мы станем свидетелями успешной кибератаки, проведенной с помощью ChatGPT к концу этого года, согласно Blackberry Research.

Слабые внутренние структуры разрешений

Одной из первых возможностей, которые многие бизнес-лидеры определили в области искусственного интеллекта, была оптимизация внутренних систем, таких как планирование ресурсов предприятия или модели ценообразования и системы инвентаризации. Они не предвидели, что после ввода информации для этих систем сотрудники смогут запросить у того же инструмента информацию о зарплатах своих коллег и другую конфиденциальную информацию. Хотя этот риск может показаться не характерным для искусственного интеллекта, подумайте о том, как использование таких инструментов, как PassGPT (LLM, используемый для подбора и генерации паролей), значительно увеличивает вероятность взломов доступа и других нарушений безопасности.

Пробелы в навыках

В марте 2023 года администрация Байдена-Харриса объявила о новой Национальной стратегии кибербезопасности. Некоторые из ее наиболее значимых изменений включают перераспределение ответственности органов безопасности и требование к поставщикам программного обеспечения большей подотчетности. Для реальной реализации этих мер ИТ-персоналу потребуются передовые навыки, которыми они, возможно, в настоящее время не обладают, чтобы защитить предприятие от атак высококвалифицированного искусственного интеллекта. Это также означает потенциально значительное влияние на бюджеты переподготовки существующих сотрудников и / или приобретения необходимых талантов.

Киберэксперты также призвали к созданию общенациональной системы цифровой идентификации, которая будет отслеживать активность граждан. Внедрение этих изменений и контроль за ними требуют передовых технических навыков, выходящих за рамки навыков среднестатистического ИТ-отдела.

Чрезмерная реакция

ИТ-специалисты уже давно наблюдают закономерность после атак программ-вымогателей. Предприятия, которые игнорируют свои программы кибербезопасности, подвергаются атакам, после чего они впадают в панику и перерасходуют средства безопасности, которые не всегда дополняют друг друга, что может повысить их уязвимость ко второй атаке.

Та же динамика, вероятно, проявится, когда компании осознают масштабы пробелов в безопасности искусственного интеллекта – или сами столкнутся с катастрофой – и будут действовать чересчур рьяно в ответ.

В то время как некоторые предприятия будут реагировать таким образом, чтобы исключить искусственный интеллект из бизнес-процессов, другие могут двигаться в другом направлении, чрезмерно благосклонно относясь к ИИ и слишком доверяя непроверенным результатам ИИ. Сотрудники могут столкнуться с невыполнимой рабочей нагрузкой и прибегнуть к обходным путям, не протестировав результаты своего искусственного интеллекта. Эти непроверенные предположения усугубят проблемы с контролем качества и создадут репутационный риск для организации.

Преднамеренное и непреднамеренное использование

В настоящее время большинство приложений с искусственным интеллектом имеют этические ограничения, заложенные в их конструкцию, чтобы предотвратить неправильное использование их знаний. Например, из-за ограничений, встроенных в такой инструмент, как ChatGPT, тому, кто спрашивает искусственный интеллект, как совершить акт насилия, могут посоветовать обратиться к психотерапевту. К сожалению, пользователи нашли способ использовать подсказки для “джейлбрейка” или использовать такие инструменты, как WormGPT, чтобы обойти эти ограничения, что приводит к усложнению атак по компрометации деловой электронной почты (BEC) для получения информации по различным темам – от изготовления оружия до совершения широкомасштабного насилия.

Целостность данных

ChatGPT, Bard и другие программы, как правило, создают глубоко ошибочный контент, который выглядит легитимно и звучит уверенно. Это заставляет пользователей слишком сильно доверять получаемым результатам. Когда ИИ генерирует дезинформацию или информацию, не подкрепленную реальными данными, это называется “галлюцинацией”. Пользователи также заметили, что разные программы искусственного интеллекта будут предлагать разные ответы на исторические вопросы и предоставлять информацию без цитат.

Чат создан и открыт.Генеральный директор ИИ Сэм Альтман признал в Twitter, что “сейчас ошибочно полагаться на [инструменты ИИ] в чем-либо важном”, добавив: “Нам предстоит много работы над надежностью и правдивостью”.

Таким образом, предприятиям следует позаботиться о том, чтобы люди в конечном итоге принимали решения, внедряя двойной контроль над результатами, используемыми для принятия решений, влияющих на жизнь, таких как медицинское лечение, уголовное правосудие, надзор, тюремное заключение и многое другое. В этом сценарии инструмент с поддержкой искусственного интеллекта может давать рекомендации, но не несет ответственности за окончательное решение.

Некоторые пользователи не знают, как правильно использовать подсказки ChatGPT, что приводит к неполному или неправильному выводу данных из некачественных источников. Кроме того, пользователи могут не доверять корпусу (т.е. данным), используемому для обучения модели искусственного интеллекта, из-за отсутствия прозрачности и прослеживаемости. С этой целью, как компании могут обнаружить плагиат, оценить авторитетность и источник данных или выявить системную предвзятость, встроенную в данные или алгоритм искусственного интеллекта? Это будет трудно доказать (и почти невозможно обнаружить), когда имеешь дело с объемом информации, слишком большим, чтобы любой человек мог ее рассортировать.

Надежность данных зависит от их источника. На данный момент инструменты с поддержкой искусственного интеллекта не могут гарантировать целостность данных. Эта неопределенность затрудняет пользователям определение того, какая информация заслуживает доверия, а какая должна быть проверена или проигнорирована. Например, юрист, работающий над юридической справкой, которая, как ожидается, займет от 50 до 55 часов, может обнаружить, что генеративный инструмент искусственного интеллекта завершает работу над справкой менее чем за пять минут. Однако, не имея времени на просмотр и оценку качества работы, юрист больше не может проверить ее подлинность, поскольку объем информации просто слишком велик. Эта ситуация предстала перед федеральным судом Манхэттена в мае 2023 года.

Без принятия надлежащих мер по обеспечению целостности данных сотрудники, использующие инструменты искусственного интеллекта, могут выдавать неверные или вводящие в заблуждение результаты, что может иметь серьезные последствия как для предприятия, так и для качества его данных.

Ответственность

Когда человек совершает преступление или просто совершает катастрофическую ошибку на работе, не возникает вопроса об ответственности и возмещении ущерба. Но если, например, чат-бот с искусственным интеллектом делает неуместные замечания несовершеннолетним, кто несет ответственность? На кого будут направлены судебные иски? Является ли инженер, участвовавший в разработке искусственного интеллекта, соучастником преступления? Кто несет ответственность за принятие решений относительно использования искусственного интеллекта и подотчетности? Важно задать эти вопросы и обсудить их последствия, поскольку компании, использующие искусственный интеллект для создания жизнеспособного коммерческого рынка, могут оказаться ответственными за непреднамеренные последствия без каких-либо оснований для возмещения ущерба.

Это станет первоочередной задачей при автоматизации работы. Любому сотруднику-человеку доверяют и подотчетны, но когда этого человека заменяет машина, кто несет ответственность за то, что что-то пойдет не так? Проблема личной ответственности, вызванная сотрудником, становится проблемой ответственности компании, когда искусственный интеллект делает что-то не так. В прошлом, возможно, было возможно устранить нарушения, исправив поведение сотрудника. Однако, когда ни один человек не может быть привлечен к ответственности, кто несет ответственность?

Любому сотруднику-человеку доверяют и подотчетны, но когда этого человека заменяет машина, кто несет ответственность за то, что все выходит из строя?

К тому времени, когда информация о рисках искусственного интеллекта попадет в прессу или станет общеизвестной, скорее всего, будет обнаружен новый риск. Специалистам-практикам рекомендуется внимательно следить за последними разработками в области искусственного интеллекта, следуя последним научным достижениям и нормативным актам.

Внедрение подхода к непрерывному управлению рисками

Внедрение системы может помочь командам, которые являются новичками в разработке подхода к непрерывной оценке рисков. Например, новые платформы, такие как Система управления рисками в области искусственного интеллекта (AI RMF 1.0) от Национального института стандартов и технологий (NIST), призваны вести бизнес по неизведанной территории искусственного интеллекта.

Важно помнить, что принятие некоторого риска полезно, в то время как полное неприятие риска – особенно когда речь идет о получении выгоды от новых технологий – может привести к чрезмерным затратам. Чтобы найти правильный баланс, переход к подходу, основанному на непрерывном риске, включает в себя три этапа:

  1. Определите общий риск компании в области искусственного интеллекта.
  2. Определите склонность компании к риску.
  3. Мониторинг рисков и управление ими.

Шаг первый: Идентификация риска

Чтобы наметить индивидуальный ландшафт рисков, высшее руководство и персонал должны проработать возможные сценарии возникновения убытков и их влияние на цели организации. Используйте опросы, интервью, фокус-группы и мозговые штурмы для получения полной информации. Пример процесса идентификации рисков показан на рисунке 4.

Рисунок 4: Методология идентификации рисков

Шаг второй: Определите склонность к риску

Каждый риск должен быть оценен и расставлен по приоритетам исходя из серьезности его потенциального воздействия и вероятности его возникновения. Для содействия этому может быть создан подкомитет по исследованию искусственного интеллекта, ответственный за представление результатов и рекомендаций управлению рисками предприятия. Этому комитету, состоящему из ключевых заинтересованных сторон, будет поручено руководить работой, необходимой для определения того, какой риск будет соответствовать параметрам риска предприятия, а какой потребует дополнительных средств контроля, которые будут интегрированы в культуру и цели предприятия. Некоторые риски будут оцениваться как сопряженные со слишком высокими потенциальными издержками.

Как только склонность к риску установлена, ее следует задокументировать и распространить, чтобы каждый член команды понимал свою роль в соблюдении этих ограничений.

Шаг третий: мониторинг рисков и управление ими

Для мониторинга рисков и управления ими руководство должно осознавать потенциальное влияние рисков, связанных с искусственным интеллектом, на свой бизнес, определять приоритетность этого риска в соответствии с бизнес-целями и принимать необходимые меры для его снижения при максимизации ценности. На этом третьем этапе междисциплинарная группа по надзору за бизнесом и технологическими заинтересованными сторонами (включая юридические аспекты, риски и комплаенс) должна запустить процесс управления рисками. Этот процесс включает следующее:

  • Доведение видения рисков до всех сотрудников
  • Определение приоритетов в деятельности по управлению рисками
  • Устранение всех рисков, требующих принятия мер (таких как новые средства контроля безопасности), и инструктирование членов команды по устранению их зоны риска
  • Распределение ответственности и персональная подотчетность
  • Определение частоты мониторинга рисков

Как только процесс управления рисками пройдет гладко, группа по надзору за рисками должна оценить успешность своих новых средств контроля безопасности, отследить отклонения от программы управления рисками и продолжить оценку новых рисков.

Точно так же, как искусственный интеллект постоянно развивается, управление рисками всегда продолжается. По этой причине предприятия должны внедрить систему непрерывного риск-подхода, которая часто и точно проверяет допущения, чтобы гарантировать качество результатов их искусственного интеллекта.

Создание программ безопасности в области искусственного интеллекта: восемь протоколов и практик

Эффективная кибербезопасность всегда требовала упреждающего подхода – и это особенно верно в отношении ИИ. После создания основы управления рисками предприятия должны внедрить политики безопасности и средства контроля, чтобы снизить вероятность утечки данных и других злоупотреблений ИИ.

Небольшие предприятия могут счесть, что некоторые из этих мер контроля и практик выходят за рамки их компетенции. Но на самом деле искусственный интеллект может стать огромным преимуществом в области безопасности для небольших организаций, в штате которых может не быть CISO или специальной киберкоманды, поскольку он автоматизирует проверки процессов или некритичные решения, которыми эти человеческие ресурсы занимались бы изо дня в день. В качестве альтернативы, привлекая партнера по управляемому обслуживанию, обладающего специализированными знаниями в области искусственного интеллекта, эти компании могут укрепить свою систему безопасности, не увеличивая численность персонала и не превышая бюджет.

Восемь практик, обсуждаемых в этом разделе, могут не учитывать будущие разработки в области искусственного интеллекта и уязвимости, но они могут обеспечить надежную основу защиты любому бизнесу, начинающему свой путь в области искусственного интеллекта.

Первое: доверяй, но проверяй

В эти первые дни революции искусственного интеллекта команды правоохранительных органов уже используют инструменты искусственного интеллекта для прогнозирования преступлений, а финансовые учреждения используют программы искусственного интеллекта для прогнозирования дефолтов по кредитам. Очевидно, что искусственный интеллект обладает потенциалом для повышения эффективности, расширения практики, основанной на данных, и расширения возможностей для решения конкретных задач и принятия решений, что позволяет принимать более обоснованные и эффективные решения в правоохранительных органах, финансах и многих других секторах бизнеса. Организации, использующие искусственный интеллект, скорее всего, проверяют первые результаты, созданные с помощью искусственного интеллекта, и слепо следуют им. Именно здесь у организаций может развиться неуместное доверие к точности искусственного интеллекта, точно так же, как мы верим, что расчеты калькулятора верны, и больше не утруждаем себя проверкой.

Однако важно помнить, что искусственный интеллект – это не калькулятор; это постоянно развивающийся и сложный инструмент, опирающийся на море малоизвестных источников данных. Из-за ее итеративного характера платформы искусственного интеллекта будут модернизироваться, а также взламываться и внедряться. Это то, что мы уже видели, когда в мае 2023 года OpenAI подтвердила утечку данных в своей системе. Исследователи безопасности, технологи и любители взялись за создание “джейлбрейков”, которые работают в обход правил искусственного интеллекта, либо создавая нежелательный контент, либо даже внедряя вредоносное ПО в саму модель искусственного интеллекта. Из-за этого все результаты должны постоянно проверяться. Эта потенциально обременительная задача требует от команд разработки механизмов оценки и утверждения всей работы, созданной с помощью искусственного интеллекта.

Второе: разработка политики приемлемого использования

Прямо сейчас большинство сотрудников могут использовать искусственный интеллект для разработки рекламного баннера, написания годового отчета или проверки конкурентоспособности модели продаж. Такое использование искусственного интеллекта вызывает ряд проблем, включая совместное использование личных данных компании и доступ к информации, несоизмеримой с их должностными обязанностями. Политические лидеры должны разработать процедуры и правила для обеспечения безопасного и этичного использования искусственного интеллекта. Они также должны сотрудничать с различными заинтересованными сторонами и профильными экспертами для разработки и проверки этих политик на предмет непреднамеренной предвзятости и дискриминации. Политики должны быть дополнены или изменены, чтобы обеспечить их соответствие меняющимся внешним требованиям в юрисдикциях, в которых они действуют (например, Закон Европейского союза об искусственном интеллекте). Кроме того, сотрудники должны пройти обучение по надлежащему и ненадлежащему использованию этих инструментов для снижения риска. Еще одним способом снижения риска является внедрение цепочек утверждений и процессов проверки, которые могут помочь предотвратить угрозы изнутри.

Третье: Назначьте ведущего специалиста в области искусственного интеллекта

Во многих корпоративных C-пакетах, скорее всего, однажды появится руководитель отдела искусственного интеллекта. Сейчас это может быть преждевременным, но организациям следует рассмотреть возможность назначения аналитика или руководителя проекта для отслеживания эволюции искусственного интеллекта и создания специального плана, который документирует развивающиеся отношения компании с инструментами искусственного интеллекта. Важно, чтобы руководитель отдела искусственного интеллекта сотрудничал с многофункциональной и разнообразной группой заинтересованных сторон, которая минимально включает представителей отделов кибербезопасности, защиты данных, конфиденциальности, юридического отдела, отдела закупок, управления рисками и аудита.

Как мы видели, корпоративное использование искусственного интеллекта развивалось с молниеносной скоростью всего за несколько месяцев. Чтобы лучше ориентироваться на пути к интеллектуальному использованию искусственного интеллекта, предприятиям следует начать документировать свою историю использования искусственного интеллекта для отслеживания ошибок, нерастраченных усилий и упущенных возможностей. Отслеживание этой истории также поможет обеспечить возможность объяснения решений, основанных на искусственном интеллекте, поскольку шаги по реализации будут повторяемыми, тем самым способствуя прозрачности.

Четвертое: проведите анализ затрат

Подобно внедрению мер кибербезопасности, использование искусственного интеллекта может стать финансовым бременем для организации. Проведение тщательного анализа затрат и выгод для искусственного интеллекта (например, оценка того, стоит ли создавать или покупать инструменты искусственного интеллекта) станет важнейшим первым шагом – и эти решения будут меняться по мере снижения уровня запрета затрат. Недавно команда студентов Стэнфорда создала платформу искусственного интеллекта Alpaca всего за 600 долларов, доказав, что экономически эффективные решения в области искусственного интеллекта могут быть внедрены.

Восемьдесят два процента ИТ-специалистов рассмотрели бы возможность инвестирования в кибербезопасность для защиты своих организаций от кибератак с использованием искусственного интеллекта в ближайшие два года, а 48 процентов рассматривают это в этом году.

Девяносто пять процентов участвующих специалистов считают, что правительства несут определенную ответственность за регулирование подобных технологий, причем 85 процентов оценивают этот уровень ответственности либо как “умеренный”, либо как “значительный”.

Организациям необходимо будет рассчитать не только экономическую эффективность искусственного интеллекта как инструмента, но и стоимость средств контроля безопасности, а также возможный прирост производительности и оптимизацию рабочей силы.

Пятое: Адаптировать и создавать программы кибербезопасности

У CISO и их команд безопасности есть два императива, которым необходимо следовать при защите предприятия: адаптация их текущих киберпрограмм и создание новых методов обеспечения безопасности, ориентированных на искусственный интеллект, во всей организации (например, безопасность по замыслу). Этот процесс должен начаться как можно скорее, до любых инвестиций в стратегии в области искусственного интеллекта.

Используя предыдущую работу по оценке рисков, предприятия могут внедрить средства контроля в отношении использования искусственного интеллекта. Это поможет защитить их от неизбежных событий в области безопасности, которые происходят в других, менее подготовленных организациях.

Обеспечение того, чтобы соображения о рисках, связанных с искусственным интеллектом, и решения по обеспечению безопасности не были отложены на потом, может сократить дорогостоящую доработку или редизайн технологических решений.

Практика обеспечения безопасности, ориентированная на искусственный интеллект Восемьдесят два процента ИТ-специалистов рассмотрели бы возможность инвестирования в кибербезопасность для защиты своих организаций от кибератак с использованием искусственного интеллекта в ближайшие два года, а 48 процентов рассматривают это в этом году.

Девяносто пять процентов участвующих специалистов считают, что правительства несут определенную ответственность за регулирование подобных технологий, причем 85 процентов оценивают этот уровень ответственности либо как “умеренный”, либо как “значительный”.

При создании программы кибербезопасности искусственного интеллекта следует учитывать следующие несколько областей:

  • Утечка IP-адресов: команды по обеспечению безопасности и конфиденциальности должны обладать надлежащими навыками и средствами контроля для предотвращения утечки IP-адресов. Организации могут использовать доступ на основе разрешений, инструменты видимости, брандмауэр и средства управления приложениями, чтобы определять, где и как сотрудники используют инструменты искусственного интеллекта. Эти меры могут предотвратить несанкционированную передачу ценных данных компании и ограничить потенциальный ущерб. Например, когда установлены соответствующие ролевые средства контроля доступа к данным, менеджер по персоналу может запросить инструмент искусственного интеллекта о заработной плате у LLM, но только юрист компании может запросить о открытых делах по кадрам. Кроме того, цифровые фильтры могут блокировать доступ пользователей к частным внутренним хранилищам. Обучение и политические обязательства также могут заставить сотрудников понять серьезные последствия обмена конфиденциальной информацией с помощью инструментов искусственного интеллекта.
  • Аварийное восстановление и реагирование на инциденты: искусственный интеллект может помочь в обеспечении непрерывности бизнеса и планировании реагирования на инциденты несколькими способами. Анализируя оперативные данные, инструменты искусственного интеллекта могут выявлять угрозы непрерывности бизнеса, помогать разрабатывать стратегии реагирования и тестировать их в моделируемых сценариях. При возникновении непредвиденных сбоев искусственный интеллект может автоматизировать определенные этапы плана восстановления бизнеса, такие как оптимизация распределения ресурсов для поддержания работы критически важных операций.
  • Непрерывность: использование искусственного интеллекта в организации создает уникальные проблемы для обеспечения непрерывности бизнеса. Организации, которые в значительной степени полагаются на искусственный интеллект в бизнес-процессах и функциях, могут оказаться неспособными работать, если инструменты искусственного интеллекта перестанут функционировать. По этой причине особое внимание необходимо уделять обеспечению непрерывности бизнеса при разработке планов и стратегий в области искусственного интеллекта.
  • Анализ угроз: В то время как многие инструменты анализа угроз и кибермониторинга, представленные на рынке, уже так или иначе включают машинное обучение, новейшие инструменты генеративного искусственного интеллекта могут предоставлять новую информацию о результатах и даже обнаруживать предупреждения об угрозах, которые ранее были пропущены. В апреле Google выпустила Google Cloud Security AI Workbench, который может анализировать код, защиту периметра и сети на предмет уязвимостей. Платформа создает персонализированный профиль угроз, чтобы помочь командам проактивно ужесточать свою защиту с помощью оперативной информации и прозрачности во всех источниках данных. Организации, внедряющие подобные инструменты, могут выиграть от повышения эффективности в отношении осведомленности об угрозах и их устранения.

Шесть: обязательные аудиты и прослеживаемость

Предприятиям понадобятся лучшие возможности аудита и отслеживания модели искусственного интеллекта, чтобы понять, откуда инструмент искусственного интеллекта извлекает свои данные и как он принимает решения. Откуда взялись исходные данные? Манипулировал ли этими данными искусственный интеллект или человек, взаимодействующий с ними? Является ли системная предвзятость фактором? Эти вопросы являются неотъемлемой частью оценки надежности инструментов искусственного интеллекта. Потребность в более надежных инструментах искусственного интеллекта может стать фактором конкуренции между моделями искусственного интеллекта, поскольку платформы предлагают прозрачность в отношении того, как их модель принимает решения.

Седьмое: разработайте свод правил этики в области искусственного интеллекта

Многие профессионалы обнаружили, что искусственный интеллект может помочь им предоставить услугу или продукт за меньшую долю времени, чем потребовалось бы без него. Однако, если они выставляют почасовые счета, им следует пересмотреть свои модели ценообразования и контракты с клиентами. Им также необходимо будет учитывать требование Microsoft раскрывать информацию о взаимодействии с искусственным интеллектом (например, о работе, созданной в ChatGPT).

Многие люди, скорее всего, проигнорируют эту директиву. Если графический дизайнер выставляет счет своему клиенту по часам и оценивает проект в 15 часов работы, они обязаны раскрыть информацию об использовании искусственного интеллекта. Но это может показать, что они потратили на проект один час, а не 15. Таким образом, использование ИИ создает ряд потенциальных проблем с точки зрения этичности использования инструментов ИИ. Новое программное обеспечение может выявлять креативность ИИ – точно так же, как программное обеспечение для обеспечения академической честности выявляет обман и плагиат, – но оно может выявлять не все. Этика ИИ должна учитываться в каждой организации и отрасли как серьезный стандарт ведения бизнеса.

Уже ведется работа по привлечению внимания к этическим аспектам искусственного интеллекта в нашей повседневной жизни. Организация Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО), которая работала над созданием и обеспечением соблюдения этических норм во многих областях науки и техники, опубликовала свою рекомендацию по этике искусственного интеллекта в ноябре 2021 года. Такие организации, как IBM и Министерство обороны США, приняли этические принципы в области искусственного интеллекта, но нам необходимо работать сообща, чтобы согласовать руководящие принципы и обеспечить их последовательное соблюдение.

“Ни в какой другой области этический компас не является более актуальным, чем в области искусственного интеллекта….Технология искусственного интеллекта приносит значительные выгоды во многих областях, но без соблюдения этических норм она рискует воспроизвести предубеждения и дискриминацию в реальном мире, разжигая разногласия и угрожая основным правам и свободам человека “.

– Габриэла Рамос, помощник Генерального директора ЮНЕСКО по социальным и гуманитарным наукам

Восьмое: социальная адаптация

Решения многих организаций окажут значительное влияние на влияние искусственного интеллекта на экономику. Организация, столкнувшаяся с масштабной сменой персонала в связи с внедрением инструментов с поддержкой искусственного интеллекта, может помочь своим сотрудникам в обучении и переходе на другие рабочие места, которые предлагают новые источники дохода.

Ученым, от учителей средних школ до студентов медицинских вузов, возможно, придется изменить свои методологии оценки, в то время как рабочим местам, возможно, потребуется пересмотреть свои критерии оценки эффективности. Как детей, так и взрослых необходимо ознакомить с реальностью глубоких подделок, ошибок в области искусственного интеллекта и кампаний по дезинформации, точно так же, как в настоящее время мы стремимся информировать граждан об интернет-мошенничестве.

Кроме того, инструменты оценки на основе искусственного интеллекта, используемые в процессе отбора и расстановки кадров, могут привести к приему в организацию неквалифицированных кандидатов. В результате эти процессы необходимо будет пересмотреть, чтобы снизить риски, связанные с использованием искусственного интеллекта.

Процветание в будущем, основанном на искусственном интеллекте

В Республике Платон сказал: “Начало – самая важная часть работы”. От того, как мы начнем нашу организационную реакцию на искусственный интеллект, будет зависеть наш долгосрочный успех в использовании его преимуществ и преодолении его штормов. Для общества настало время сделать шаг назад, обдумать и наметить риски и последствия революции в области искусственного интеллекта. Головокружительные темпы развития рынка – и призывы к регулированию – могут убедить лидеров сделать паузу перед официальным внедрением искусственного интеллекта или разработкой стратегии. Но, как и во многих технологиях, пользователи уже вырвались вперед, создав движение, требующее действий уже сейчас. Анализ и действия не могут ждать, и организации, которые действуют быстро, создадут самый прочный фундамент и больше всего выиграют в эту новую эру искусственного интеллекта.

admin
Author: admin

Hi, I’m admin