Резюме
Генеративный искусственный интеллект (GenAI) стремительно трансформирует финансовые услуги (FS) и кибербезопасность, переходя от стадии экспериментов к внедрению в основные бизнес-процессы. Технологии, такие как большие языковые модели (LLM), активно применяются для автоматизации обслуживания клиентов, повышения эффективности консультаций по управлению активами, оптимизации операционных процессов (включая KYC и кредитование), усовершенствования систем обнаружения мошенничества и проактивной киберзащиты. Ключевые игроки, такие как OpenAI и Google Cloud (с платформами Vertex AI и Gemini), предоставляют технологическую основу, а ведущие финансовые институты, включая Klarna, Morgan Stanley, BBVA, Airwallex и Apex Fintech Solutions, демонстрируют ощутимые результаты внедрения.
Заявленные преимущества включают значительное повышение эффективности (сокращение времени обработки запросов, автоматизация рутинных задач), снижение затрат и рост прибыльности (например, прогнозируемое увеличение прибыли Klarna на $40 млн), улучшение качества обслуживания клиентов и усовершенствованное управление рисками. Однако широкое внедрение GenAI сопряжено с критическими цифровыми рисками: угрозы конфиденциальности данных, уязвимости безопасности, возможность алгоритмической предвзятости, потенциал злонамеренного использования (например, для создания фишинговых атак) и опасения по поводу сокращения рабочих мест.
Анализ отраслевых отчетов, таких как “AI in the Enterprise” (OpenAI/Menlo Ventures, 2024) и “101 Use Cases” (Google Cloud, 2024/2025), подтверждает экспоненциальный рост инвестиций в GenAI, смещение фокуса на прикладной уровень и лидерство таких секторов, как здравоохранение, юриспруденция и финансовые услуги, в адаптации этих технологий.[1, 2, 3] Наблюдается тенденция к использованию нескольких моделей от разных поставщиков, что свидетельствует о стремлении к диверсификации и оптимизации под конкретные задачи.[3, 4]
Стратегический прогноз указывает на то, что внедрение GenAI становится критически важным для поддержания конкурентоспособности. Успех будет зависеть от способности организаций разрабатывать и внедрять надежные системы управления, модернизировать инфраструктуру, эффективно управлять цифровыми рисками и развивать необходимые кадровые компетенции.
2. Введение
Технологии генеративного искусственного интеллекта, включая большие языковые модели (LLM) и сопутствующие инструменты, перестали быть исключительно предметом академических исследований и технологического ажиотажа. Они активно внедряются в практическую деятельность, фундаментально изменяя бизнес-процессы, особенно в отраслях, интенсивно работающих с данными и требующих высокого уровня безопасности, таких как финансовый сектор. Как отмечается в исходном запросе, GenAI становится основой трансформации бизнеса в сферах финансов, кибербезопасности и цифровой идентификации.
Цель данного отчета – предоставить всесторонний анализ текущего состояния применения генеративного ИИ, его измеримых преимуществ, неотъемлемых цифровых рисков и проблем внедрения в контексте финансовой безопасности, автоматизации и управления рисками. Анализ основан на синтезе информации из авторитетных отраслевых отчетов, включая “AI in the Enterprise” (OpenAI/Menlo Ventures, 2024), “101 Use Cases” (Google Cloud, обновление 2024/2025 года), и конкретных примеров внедрения GenAI ведущими компаниями финансового сектора.[1, 2, 3, 4, 5]
Отчет структурирован таким образом, чтобы последовательно рассмотреть ключевые аспекты влияния GenAI:
- Трансформация операций в финансовых услугах: Анализ областей применения и конкретных кейсов внедрения (Klarna, Morgan Stanley, SURA, BBVA, Airwallex, Apex Fintech Solutions) с оценкой достигнутых результатов.
- Усиление кибербезопасности: Исследование роли GenAI в проактивном анализе угроз, обнаружении мошенничества и ускоренном реагировании, с акцентом на решения Google Cloud (Vertex AI, Gemini).
- Цифровые риски и вызовы: Определение и анализ потенциальных угроз и препятствий, связанных с использованием GenAI в финансах и кибербезопасности.
- Отраслевые ориентиры: Синтез ключевых выводов из упомянутых отчетов для формирования комплексного представления о тенденциях рынка.
- Заключение и рекомендации: Формулирование стратегических выводов и рекомендаций для финансовых институтов, планирующих или расширяющих использование GenAI.
3. Генеративный ИИ: Трансформация операций в финансовых услугах
3.1 Ключевые области применения
Генеративный ИИ выходит далеко за рамки простой автоматизации рутинных задач в финансовом секторе. Он открывает новые возможности для повышения эффективности, персонализации услуг и управления рисками.[6, 7, 8, 9, 10] Основные области применения включают:
- Обслуживание и поддержка клиентов: ИИ-ассистенты способны обрабатывать значительный объем запросов клиентов в режиме 24/7, предоставлять персонализированные ответы, сокращать время ожидания и повышать общую удовлетворенность.[11, 12, 13] Примеры включают Klarna, ING, Discover Financial и Protección (компания SURA AM).[2, 13, 14]
- Управление активами и консультирование: GenAI расширяет возможности финансовых консультантов, обеспечивая быстрый доступ к огромным базам знаний, автоматическое резюмирование встреч, генерацию персонализированных инвестиционных предложений и аналитических отчетов.[15, 16, 17] Это не только повышает производительность консультантов, но и потенциально демократизирует доступ к финансовым консультациям.[18] Примеры включают Morgan Stanley, CommBank, SEB и wealth.com.[2, 8]
- Кредитование: Технологии GenAI используются для оптимизации процесса подачи заявок, автоматизации оценки кредитоспособности, улучшения моделей прогнозирования рисков и значительного ускорения процесса одобрения кредитов.[7, 17] Примеры: Banco Covalto, Figure, Kredito, United Wholesale Mortgage.[2]
- Платежи и транзакции: GenAI способствует повышению эффективности обработки транзакций и, что особенно важно, улучшению систем обнаружения мошенничества в режиме реального времени в платежных системах.[2, 19] Примеры: Airwallex, Cloudwalk, Dojo.[2, 19]
- Соблюдение нормативных требований (KYC/AML): Автоматизация процедур “Знай своего клиента” (KYC) и противодействия отмыванию денег (AML), включая проверку документов, мониторинг изменений в законодательстве и генерацию отчетов о соответствии, становится более эффективной благодаря GenAI.[6, 9, 20, 21] Пример: Airwallex.[8, 17]
- Управление рисками: GenAI позволяет создавать более динамичные и точные предиктивные модели для оценки кредитных, рыночных и операционных рисков, анализировать рыночные тенденции и моделировать различные сценарии.[6, 7, 9, 10, 17, 21]
- Финансовый анализ и отчетность: Автоматизация создания отчетов, извлечение ключевой информации из неструктурированных данных (например, финансовых отчетов, стенограмм конференц-звонков), анализ настроений рынка и поддержка инвестиционных исследований.[6, 21, 22] Примеры: Morgan Stanley AskResearchGPT, Deutsche Bank DB Lumina.[2, 23]
- Страхование: GenAI находит применение в автоматизации обработки страховых случаев, повышении точности резервирования, уточнении моделей ценообразования, поддержке андеррайтинга и обнаружении мошенничества в страховании.[6, 21, 24, 25, 26, 27]
3.2 Примеры внедрения и результаты (Кейс-стади)
Анализ конкретных примеров внедрения GenAI финансовыми институтами позволяет оценить реальный эффект от использования этих технологий.
- Klarna: Шведская финтех-компания Klarna добилась впечатляющих результатов, внедрив ИИ-ассистента на базе технологий OpenAI для обслуживания клиентов.[11, 12, 13, 28] Всего за один месяц ассистент обработал 2,3 миллиона диалогов с клиентами, что составляет две трети от общего объема взаимодействий и эквивалентно работе 700 штатных сотрудников.[11, 13, 28] Это позволило сократить среднее время решения вопроса с 11 до менее чем 2 минут и снизить количество повторных обращений на 25%.[11, 13] При этом уровень удовлетворенности клиентов (CSAT) остался на уровне показателей живых операторов.[11, 12] Стоимость внедрения составила $2-3 миллиона, но компания прогнозирует увеличение прибыли на $40 миллионов по итогам 2024 года благодаря этой инициативе.[11, 13, 28] Важно отметить, что внедрение ИИ-ассистента сопровождалось заморозкой найма персонала и отказом от некоторых SaaS-решений для CRM, HR и расчета заработной платы, что указывает на стратегическое видение Klarna по созданию “полностью ИИ-управляемого финансового ассистента”.[12, 13, 28]
- Morgan Stanley: Инвестиционный банк Morgan Stanley активно использует технологии OpenAI (включая GPT-4 и Whisper) для расширения возможностей своих финансовых консультантов и аналитиков.[15, 16, 23] Внутренний чат-бот ‘AI @ Morgan Stanley Assistant’ используется более чем 98% команд консультантов для быстрого поиска информации во внутренней базе знаний, охватывающей свыше 100 000 документов, что значительно сокращает время поиска.[15] Инструмент ‘AI @ Morgan Stanley Debrief’, использующий Whisper и GPT-4, автоматически создает резюме встреч с клиентами (с их согласия), выделяет ключевые задачи и интегрирует заметки в CRM, экономя консультантам около 30 минут на каждой встрече.[15, 16] Для институциональных подразделений был запущен ‘AskResearchGPT’ на базе GPT-4, который анализирует и синтезирует информацию из более чем 70 000 ежегодных исследовательских отчетов банка, позволяя сотрудникам быстрее находить данные и генерировать инсайты для клиентов.[23] Morgan Stanley подчеркивает важность строгого процесса оценки (eval framework) и контроля качества для каждого ИИ-приложения перед развертыванием, а также использование политики нулевого хранения данных OpenAI для обеспечения конфиденциальности.[15]
- SURA: Grupo SURA, крупный латиноамериканский холдинг с фокусом на финансовых услугах и страховании [29, 30, 31], демонстрирует разнообразные подходы к использованию ИИ. SURA Investments разработала ИИ-модель для лучшего понимания потребностей клиентов.[2] Protección, компания SURA Asset Management в Колумбии, использует ИИ от Microsoft (включая OpenAI) для автоматизации обработки запросов на снятие выходных пособий (северансов), добившись автоматической обработки 53% запросов в 2022 году и применяя GenAI для анализа сложных подтверждающих документов.[14] Также используются ИИ-ассистенты для ответов на запросы клиентов по сбережениям и инвестициям.[14] В страховом бизнесе (Seguros Sura) используются решения на базе ИИ для ценообразования (Akur8) [25] и управления перестрахованием (SAP FS-RI, FS-CD).[32] Примечателен проект Omics Science Center, использующий Azure OpenAI для анализа генетических данных и медицинских карт с целью персонализации медицины, что демонстрирует способность компании работать с высокочувствительными данными с помощью ИИ в смежной регулируемой области.[33, 34]
- BBVA: Испанский банк BBVA применяет сбалансированный подход, сочетая внедрение ИИ с акцентом на ответственном использовании. Банк сообщает о значительном повышении производительности: 80% пользователей инструментов ИИ экономят более двух часов в неделю.[35] BBVA приобрел 3300 лицензий ChatGPT Enterprise [35] и провел внутренний конкурс ‘Bot Talent’, победителями которого стали проекты по улучшению обслуживания клиентов, оптимизации выдачи кредитов МСП и созданию бота для обнаружения фишинговых и смишинговых сообщений, имитирующих официальные коммуникации банка.[36] Этот бот анализирует язык, наличие ссылок, срочность и тон сообщения для оценки вероятности мошенничества.[36] BBVA уделяет особое внимание “защитным ограждениям” (guardrails) – технологическим, процедурным и человеческим – для обеспечения безопасности, этичности и соответствия требованиям при использовании ИИ.[37] Банк также сотрудничает с IBM для тестирования ИИ на предвзятость [38], с Telefónica Tech для усиления кибербезопасности [38] и использует Google Cloud SecOps для обнаружения и реагирования на угрозы.[2]
- Airwallex: Глобальная платежная компания Airwallex использует GenAI-копилот для ускорения и повышения точности процедур KYC. Внедрение этого инструмента привело к сокращению ложноположительных срабатываний на 50% и ускорению процесса онбординга клиентов на 20%.[8, 17] Это критически важно для компании, работающей на глобальном рынке и нуждающейся в эффективных и безопасных процессах проверки клиентов и мониторинга транзакций. Airwallex также использует Vertex AI от Google Cloud для обнаружения мошенничества в режиме реального времени.[2, 19]
- Apex Fintech Solutions: Компания позиционирует себя как инновационную платформу для инвестиционной экосистемы и заключила стратегическое партнерство с Google Cloud для модернизации своей инфраструктуры.[39] Платформа ‘Apex Ascend’, построенная на Google Cloud, представляет собой облачное решение нового поколения для трейдинга, клиринга и кастодиального обслуживания. Она использует такие сервисы Google Cloud, как AlloyDB для ведения реестра в реальном времени и BigQuery для аналитики больших данных, поддерживая функции клиринга, кастоди, управления сделками и анализа рисков.[39] На базе Vertex AI был создан ИИ-ассистент ‘Ask Ascend’ для поддержки разработчиков и операционных специалистов.[39] Кроме того, Apex использует Gemini in Security от Google Cloud для ускорения написания правил обнаружения угроз [2, 40] и активно применяет науку о данных и машинное обучение для снижения рисков.[20] Примечательно, что Apex выступает не только как пользователь, но и как поставщик решений в области ИИ-безопасности через свою платформу Apex AI Security Platform.[41]
3.3 Оценка измеримого воздействия и преимуществ
Анализ кейсов и других данных позволяет количественно оценить преимущества внедрения GenAI в финансовом секторе.
- Эффективность и производительность: Наблюдается драматическое сокращение времени выполнения задач: время разрешения клиентских запросов у Klarna сократилось с 11 до <2 минут [13], время на создание заметок после встреч у консультантов Morgan Stanley уменьшилось примерно на 30 минут.[16] Происходит автоматизация значительной части работы операторов (ИИ-ассистент Klarna выполняет работу 700 человек [13]). Процессы ускоряются: KYC у Airwallex на 20% [8], одобрение кредитов у Banco Covalto более чем на 90%.[2] Увеличивается скорость разработки (пример Bancolombia с 30% ростом генерации кода [33]) и исследований (Morgan Stanley [23], Deutsche Bank [2]). Ускоряется написание правил обнаружения угроз (Apex [2]).
- Прибыльность и снижение затрат: Прогнозируется существенное улучшение финансовых показателей (Klarna ожидает +$40 млн прибыли [13]). В страховании отмечается потенциал снижения выплат по убыткам (3-4%) и расходов на урегулирование (20-30%).[21, 24] Возможна экономия за счет отказа от сторонних SaaS-решений (Klarna [13]) и общее снижение операционных расходов.[8, 24]
- Улучшение клиентского опыта: Клиенты получают более быстрые ответы [13], персонализированную поддержку и консультации [2, 16], доступность сервиса 24/7.[8, 12] Удовлетворенность клиентов остается стабильной или улучшается (Klarna [11, 12, 28]).
- Улучшение принятия решений и управления рисками: GenAI позволяет извлекать более глубокие инсайты из данных [8, 10, 15], совершенствовать оценку рисков [6, 9, 10], повышать точность обнаружения мошенничества (пример Mastercard с ростом до 300% [9]; Airwallex [2]; BBVA [2]) и делать более точные прогнозы.[21]
Таблица 1: Сравнительный анализ результатов внедрения GenAI (Примеры)
Компания | Приложение GenAI | Ключевые результаты | Источники |
---|---|---|---|
Klarna | ИИ-ассистент для обслуживания клиентов (OpenAI) | • Время ответа: 11 мин → <2 мин <br> • Обработано 2/3 диалогов (экв. 700 FTE) <br> • +$40 млн прогноз прибыли | [11, 12, 13, 28] |
Morgan Stanley | • AI Assistant (поиск, GPT-4)<br> • Debrief (Whisper/GPT-4)<br> • AskResearchGPT (GPT-4) | • 98% команд используют Assistant <br> • -30 мин/встреча (Debrief) <br> • Ускорение анализа отчетов (AskResearch) | [15, 16, 23] |
Airwallex | • ИИ-копилот для KYC<br> • Обнаружение фрода (Vertex AI) | • KYC: -50% ложных срабатываний, +20% скорость онбординга <br> • Улучшение обнаружения фрода | [2, 8, 17, 19] |
BBVA | • ChatGPT Enterprise<br> • ‘Bot Talent’ (фишинг-бот) | • >2 часа/неделю экономия для 80% пользователей <br> • Улучшение обнаружения фишинга | [2, 35, 36, 37] |
Apex Fintech | • ‘Ask Ascend’ (Vertex AI)<br> • Gemini in Security | • Ускорение разработки и поддержки<br> • Ускорение написания правил обнаружения угроз | [2, 39, 40, 41] |
Protección (SURA) | Автоматизация обработки пособий (Microsoft AI) | • 53% автоматическая обработка (2022) <br> • Анализ документов с помощью GenAI | [14] |
Экспортировать в Таблицы
Эти примеры демонстрируют не просто теоретический потенциал, а реальную, измеримую ценность, которую GenAI приносит финансовым организациям уже сегодня.
4. Генеративный ИИ в кибербезопасности
Угрозы кибербезопасности становятся все более изощренными, и генеративный ИИ играет двоякую роль: с одной стороны, он сам становится потенциальным вектором атак, с другой – предоставляет новые мощные инструменты для защиты.[42, 43, 44]
4.1 Роль GenAI в проактивном анализе угроз и ускоренном реагировании
Генеративный ИИ значительно расширяет возможности специалистов по кибербезопасности за счет автоматизации, ускорения и повышения точности анализа.[2, 45, 46]
- Анализ журналов безопасности (Log Analysis): GenAI способен быстро обрабатывать и анализировать огромные объемы журналов событий из различных источников (SIEM, сети, конечные точки). Он может выявлять аномалии, идентифицировать паттерны, связанные с атаками, и генерировать краткие сводки инцидентов на естественном языке, что значительно ускоряет процесс расследования.[2, 40, 46, 47] Платформы, такие как Google Cloud Security Operations (SecOps) с интегрированным Gemini, позволяют аналитикам задавать вопросы о данных безопасности на естественном языке и получать релевантные ответы.[2, 40, 47]
- Обнаружение фишинга и социальной инженерии: GenAI может анализировать содержание электронных писем, сообщений и веб-сайтов на предмет признаков фишинга, смишинга или других видов социальной инженерии. Это включает анализ языка, тональности, наличия подозрительных ссылок, срочности запросов и сравнение с известными мошенническими схемами.[2, 36, 48] Например, бот, разработанный в BBVA, специализируется на выявлении мошеннических сообщений, имитирующих банковские коммуникации.[36] Google также использует GenAI для защиты пользователей Gmail от фишинга.[2]
- Аналитика угроз (Threat Intelligence): GenAI может агрегировать и анализировать данные из различных источников разведки угроз (открытые источники, даркнет, отчеты вендоров), выявлять новые тактики, техники и процедуры (TTP) злоумышленников, прогнозировать возможные векторы атак и генерировать отчеты об угрозах.[46, 48, 49] Это помогает организациям проактивно укреплять свою защиту.
- Генерация правил обнаружения (Detection Rule Generation): ИИ может помогать аналитикам быстрее создавать и уточнять правила для систем обнаружения вторжений (IDS/IPS) и SIEM. Например, Gemini in Security от Google Cloud помогает Apex Fintech Solutions ускорить написание правил обнаружения на базе поведенческого анализа.[2, 40]
- Автоматизация реагирования (Security Orchestration, Automation and Response – SOAR): GenAI может интегрироваться с платформами SOAR для автоматизации рутинных задач реагирования, таких как обогащение данных об инцидентах, блокировка вредоносных IP-адресов или изоляция зараженных хостов, позволяя аналитикам сосредоточиться на более сложных задачах.[46, 49]
- Анализ вредоносного ПО (Malware Analysis): GenAI может использоваться для декомпиляции и анализа кода вредоносного ПО, выявления его функциональности и генерации сигнатур для обнаружения.[46, 48]
- Управление уязвимостями: GenAI может анализировать отчеты сканеров уязвимостей, приоритизировать исправления на основе контекста угрозы и бизнес-критичности активов, а также генерировать рекомендации по устранению уязвимостей.[46]
4.2 Решения Google Cloud (Vertex AI, Gemini) и других поставщиков
Крупные облачные провайдеры и специализированные компании активно разрабатывают и предлагают решения на базе GenAI для кибербезопасности.
- Google Cloud: Платформа Google Cloud Security Operations (SecOps), ранее известная как Chronicle Security Operations, является центральным элементом предложений Google в этой области.[40, 47] Она интегрирует возможности SIEM и SOAR с Gemini in Security.[40, 47] Gemini помогает аналитикам:
- Суммировать инциденты: Предоставляет краткие описания сложных инцидентов на естественном языке.[40, 47]
- Искать угрозы: Позволяет выполнять поиск угроз с использованием запросов на естественном языке.[40, 47]
- Рекомендовать действия: Предлагает следующие шаги для расследования и реагирования.[40, 47]
- Генерировать правила обнаружения: Помогает создавать правила на основе анализа поведения.[2, 40] Google также использует GenAI для защиты своих продуктов, таких как Gmail, от фишинга и вредоносного ПО.[2] Платформа Vertex AI предоставляет базовые модели (включая Gemini) и инструменты для создания собственных кастомных ИИ-решений для безопасности, как это делает Airwallex для обнаружения мошенничества.[2, 19]
- OpenAI: Хотя OpenAI не позиционирует свои модели как специализированные инструменты кибербезопасности, их API (например, GPT-4) могут использоваться разработчиками и компаниями (как Morgan Stanley [15] или Klarna [13]) для создания внутренних инструментов, включая те, что помогают в анализе данных или генерации кода, что косвенно может касаться и задач безопасности. Однако использование общих моделей требует тщательной настройки и контроля для предотвращения утечек конфиденциальной информации.
- Microsoft: Платформа Microsoft Security Copilot использует модели OpenAI и собственные данные Microsoft об угрозах для помощи аналитикам безопасности.[50, 51] Он интегрируется с продуктами Microsoft Sentinel (SIEM/SOAR) и Defender, предоставляя возможности анализа инцидентов, поиска угроз и генерации отчетов на естественном языке.[50, 51]
- Другие вендоры: Множество стартапов и устоявшихся игроков в сфере кибербезопасности интегрируют GenAI в свои продукты. Примеры включают CrowdStrike (Charlotte AI) [52], Palo Alto Networks (XSIAM) [53], SentinelOne (Purple AI) [54] и другие. Эти решения часто фокусируются на конкретных задачах, таких как анализ поведения пользователей (UEBA), защита конечных точек (EDR/XDR) или облачная безопасность.
4.3 Примеры использования ИИ в кибербезопасности (Apex Fintech, BBVA)
- Apex Fintech Solutions: Как уже упоминалось, Apex активно использует Gemini in Security от Google Cloud для ускорения процесса написания правил обнаружения угроз.[2, 40] Это позволяет их команде безопасности быстрее адаптироваться к новым угрозам и улучшать покрытие своих систем мониторинга. Их собственная платформа Apex AI Security Platform также свидетельствует об их экспертизе в применении ИИ для защиты финансовых операций.[41]
- BBVA: Банк не только использует инструменты ИИ для повышения производительности своих сотрудников [35], но и целенаправленно разрабатывает решения для кибербезопасности. Создание внутреннего бота для обнаружения фишинга и смишинга, имитирующих коммуникации банка, является прямым применением GenAI для защиты клиентов и самого банка от мошенничества.[36] Использование Google Cloud SecOps дополнительно усиливает их возможности по обнаружению и реагированию на угрозы.[2]
Внедрение GenAI в кибербезопасность позволяет перейти от реактивного подхода к более проактивному и интеллектуальному управлению рисками, автоматизируя анализ и ускоряя реагирование на инциденты.
5. Цифровые риски и вызовы
Несмотря на огромный потенциал, широкое внедрение генеративного ИИ в финансовом секторе и кибербезопасности сопряжено со значительными рисками и вызовами, требующими пристального внимания и проактивного управления.[4, 5, 6, 9, 10, 42, 43, 44, 55, 56]
5.1 Угрозы конфиденциальности данных и безопасности
- Утечки конфиденциальной информации: Обучение и использование LLM на корпоративных или клиентских данных создает риск непреднамеренного раскрытия конфиденциальной информации через ответы модели или при компрометации самой модели.[4, 5, 10, 43, 55] Финансовые данные клиентов, коммерческая тайна, интеллектуальная собственность — все это требует высочайшего уровня защиты. Стратегии, такие как использование локальных моделей, частных облачных развертываний и политик нулевого хранения данных (как у Morgan Stanley с OpenAI [15]), являются ключевыми мерами митигации.
- Атаки на ИИ-модели: Сами модели GenAI могут стать целью атак:
- Атаки через промпты (Prompt Injection): Злоумышленники могут создавать специальные запросы (промпты), чтобы обойти защитные механизмы модели и заставить ее выполнять несанкционированные действия или раскрывать конфиденциальную информацию.[42, 43, 55, 56]
- Отравление данных (Data Poisoning): Внедрение вредоносных данных в обучающий набор может привести к тому, что модель будет генерировать неверные, предвзятые или опасные результаты.[42, 43, 55]
- Извлечение модели (Model Extraction): Атаки, направленные на кражу самой модели или воссоздание ее архитектуры и весов.[43]
- Уязвимости в инфраструктуре ИИ: Инфраструктура, поддерживающая разработку, обучение и развертывание моделей GenAI (платформы MLOps, API, базы данных), также может содержать уязвимости, которые могут быть использованы для компрометации системы.[43, 55]
5.2 Алгоритмическая предвзятость и справедливость
- Дискриминационные результаты: Модели, обученные на исторических данных, могут воспроизводить и даже усиливать существующие в обществе предубеждения (например, по расовому, гендерному, возрастному признакам).[5, 6, 9, 10, 55] В финансовом секторе это может привести к дискриминации при оценке кредитоспособности, подборе персонала или предоставлении услуг.[9, 10] Это создает не только этические, но и серьезные юридические и репутационные риски. Требуются тщательный аудит данных, тестирование моделей на предвзятость (как BBVA с IBM [38]) и внедрение принципов справедливого ИИ (Fair AI).
- Непрозрачность (“черный ящик”): Сложность современных LLM затрудняет понимание того, как именно они приходят к своим выводам.[5, 6, 10, 55] Эта непрозрачность создает проблемы для соблюдения нормативных требований (например, право на объяснение решения по кредиту) и затрудняет выявление и исправление предвзятости или ошибок. Развитие методов интерпретируемости ИИ (Explainable AI – XAI) является критически важным направлением.[10]
5.3 Потенциал злонамеренного использования
- Создание дипфейков и дезинформации: GenAI может использоваться для создания высокореалистичного поддельного контента (тексты, изображения, аудио, видео – дипфейки), который может применяться для мошенничества (например, имитация голоса клиента для авторизации транзакции), манипулирования рынком, распространения дезинформации или атак социальной инженерии.[42, 43, 55, 56]
- Усиление фишинговых атак: GenAI позволяет злоумышленникам создавать гораздо более убедительные и персонализированные фишинговые письма и сообщения в больших масштабах, что повышает их эффективность.[42, 43, 48, 55, 56]
- Автоматизация разработки вредоносного ПО: ИИ может помогать злоумышленникам в написании кода вредоносных программ, поиске уязвимостей или разработке эксплойтов.[42, 43, 55, 56]
- Атаки на системы идентификации: Использование дипфейков для обхода систем биометрической аутентификации (например, распознавания лиц или голоса) представляет серьезную угрозу.[42]
5.4 Регуляторные и этические вызовы
- Неопределенность регулирования: Законодательство в области ИИ все еще находится в стадии формирования (например, AI Act в ЕС [57]). Финансовым учреждениям необходимо ориентироваться в меняющейся нормативной среде, обеспечивая соответствие требованиям к управлению данными, конфиденциальности, безопасности, справедливости и прозрачности.[5, 6, 9, 10, 55]
- Ответственность за ошибки ИИ: Определение ответственности в случае, если ИИ-система принимает неверное решение, приводящее к финансовым потерям или ущербу для клиента, является сложным юридическим и этическим вопросом.[5, 6, 10]
- Влияние на занятость: Автоматизация задач с помощью GenAI вызывает опасения по поводу сокращения рабочих мест в финансовом секторе, особенно на позициях, связанных с обслуживанием клиентов, вводом данных и рутинным анализом.[5, 10, 13, 28] Хотя некоторые исследования предполагают скорее трансформацию ролей, чем массовые увольнения [58], компаниям необходимо разрабатывать стратегии переобучения и адаптации персонала.
5.5 Проблемы внедрения
- Стоимость и сложность: Разработка, обучение и внедрение сложных моделей GenAI требуют значительных инвестиций в инфраструктуру (вычислительные мощности, хранилища данных), специалистов (Data Scientists, AI Engineers) и технологии.[3, 4, 5]
- Качество данных: Эффективность GenAI напрямую зависит от качества, полноты и релевантности данных, используемых для обучения. Обеспечение высокого качества данных является серьезной проблемой для многих организаций.[4, 5, 10]
- Интеграция с существующими системами: Внедрение GenAI требует интеграции с унаследованными ИТ-системами, что может быть сложным и дорогостоящим процессом.[4, 5]
- Управление изменениями и нехватка кадров: Успешное внедрение ИИ требует не только технологических изменений, но и изменений в культуре организации, процессах и навыках сотрудников. Нехватка квалифицированных специалистов в области ИИ является существенным барьером.[3, 4, 5, 10]
- Галлюцинации и надежность: LLM иногда могут генерировать фактически неверную или бессмысленную информацию (“галлюцинации”).[5, 10, 55] Обеспечение надежности и точности выводов ИИ, особенно в критически важных финансовых приложениях, требует тщательного тестирования, валидации и механизмов контроля (human-in-the-loop).[10, 15]
Успешное и ответственное внедрение GenAI требует комплексного подхода к управлению этими рисками, включая разработку надежных политик управления (AI Governance), инвестиции в безопасность, постоянный мониторинг и аудит моделей, а также фокус на этических принципах.
6. Отраслевые ориентиры: Ключевые выводы из отчетов
Анализ отраслевых отчетов, таких как “AI in the Enterprise” (OpenAI/Menlo Ventures, 2024) и “101 Use Cases” (Google Cloud, 2024/2025), а также других релевантных исследований, позволяет выявить ключевые тенденции и ориентиры в области внедрения генеративного ИИ.[1, 2, 3, 4, 5, 9, 10]
6.1 Тенденции инвестиций и внедрения
- Экспоненциальный рост инвестиций: Наблюдается резкий рост венчурных инвестиций в стартапы, занимающиеся генеративным ИИ, особенно в области прикладного ИИ.[3] В 2023 году инвестиции в GenAI составили $25,2 млрд, что почти в девять раз больше, чем в 2022 году.[3]
- Смещение фокуса на прикладной уровень: Если ранние инвестиции концентрировались на базовых моделях, то сейчас акцент смещается на компании, создающие приложения и решения на основе существующих моделей (прикладной уровень), а также на инфраструктуру и инструментарий для разработчиков.[3, 4]
- Лидерство определенных секторов: Здравоохранение, юриспруденция и финансовые услуги выделяются как сектора, наиболее активно внедряющие GenAI и демонстрирующие значительный потенциал для трансформации.[1, 2, 3, 9] Розничная торговля, медиа и развлечения также активно используют GenAI, особенно для персонализации и создания контента.[2]
- От экспериментов к продуктивному использованию: Компании переходят от пилотных проектов и экспериментов к интеграции GenAI в основные бизнес-процессы, что подтверждается примерами Klarna, Morgan Stanley и др.[1, 4, 11, 15] Однако зрелость внедрения все еще варьируется.[4]
- Использование нескольких моделей: Предприятия все чаще используют модели от разных поставщиков (OpenAI, Google, Anthropic, Cohere, а также open-source модели), выбирая оптимальную модель для конкретной задачи или диверсифицируя риски.[3, 4] Это приводит к росту спроса на платформы, позволяющие управлять различными моделями.
6.2 Приоритетные сценарии использования
- Автоматизация на основе знаний: Сценарии, связанные с поиском информации, обобщением текстов, ответами на вопросы на основе больших объемов внутренних данных (как у Morgan Stanley [15]), являются одними из наиболее популярных и быстро приносящих пользу.[1, 2, 4]
- Обслуживание клиентов: ИИ-ассистенты и чат-боты для поддержки клиентов демонстрируют высокую эффективность и быструю окупаемость (пример Klarna [13]).[1, 2, 8, 11]
- Генерация контента: Автоматизация создания маркетинговых материалов, отчетов, кода, юридических документов.[1, 2, 4]
- Повышение производительности разработчиков: Использование ИИ для помощи в написании, отладке и документировании кода (например, GitHub Copilot, Gemini Code Assist).[2, 4, 33]
- Анализ данных и извлечение инсайтов: Применение GenAI для анализа неструктурированных данных, выявления тенденций и поддержки принятия решений.[2, 6, 9]
- Безопасность и обнаружение мошенничества: Как обсуждалось ранее, это ключевая область применения, особенно в финансовом секторе.[1, 2, 9]
6.3 Ключевые вызовы с точки зрения предприятий
- Безопасность и конфиденциальность данных: Остаются главными препятствиями для более широкого внедрения GenAI.[3, 4, 5, 10]
- Стоимость и рентабельность инвестиций (ROI): Высокая стоимость обучения и эксплуатации моделей, а также сложность точной оценки ROI являются значимыми барьерами.[3, 4, 5]
- Надежность и точность моделей (“галлюцинации”): Необходимость обеспечения точности и достоверности результатов ИИ.[4, 5, 10]
- Нехватка квалифицированных кадров: Дефицит специалистов с опытом в области ИИ и MLOps.[3, 4, 5]
- Интеграция и управление данными: Сложности с интеграцией ИИ в существующие системы и подготовкой качественных данных.[4, 5]
- Управление и соответствие нормативным требованиям (Governance & Compliance): Необходимость создания политик и процедур для ответственного использования ИИ.[4, 5, 10]
6.4 Стратегические императивы
- Разработка четкой стратегии ИИ: Организациям необходимо определить, где и как GenAI может принести наибольшую ценность, и разработать дорожную карту внедрения.[4, 5, 10]
- Инвестиции в управление (Governance): Создание надежной системы управления ИИ, охватывающей безопасность, этику, соответствие требованиям и управление рисками, является критически важным.[4, 5, 9, 10]
- Модернизация инфраструктуры: Подготовка технологической базы для поддержки требовательных к ресурсам ИИ-приложений.[4, 5]
- Развитие кадрового потенциала: Инвестиции в обучение и переподготовку сотрудников, а также привлечение талантов в области ИИ.[4, 5, 10]
- Фокус на доверии и ответственности: Построение доверия к ИИ-системам как внутри организации, так и среди клиентов и регуляторов.[5, 9, 10]
Отчеты подтверждают, что генеративный ИИ – это не мимолетный тренд, а фундаментальная технологическая волна, меняющая ландшафт бизнеса. Организации, которые смогут эффективно и ответственно использовать ее возможности, получат значительное конкурентное преимущество.
7. Заключение и рекомендации
Генеративный искусственный интеллект неоспоримо утвердился как мощный катализатор трансформации в финансовом секторе и сфере кибербезопасности. Примеры Klarna, Morgan Stanley, BBVA, Airwallex и Apex Fintech Solutions наглядно демонстрируют измеримые преимущества внедрения GenAI: радикальное повышение операционной эффективности, значительное снижение затрат, улучшение качества обслуживания клиентов, усиление возможностей по управлению рисками и обнаружению мошенничества. Технологии, предлагаемые OpenAI, Google Cloud (Vertex AI, Gemini) и другими ведущими поставщиками, предоставляют необходимые инструменты для реализации этих преимуществ.
Ключевыми областями применения в финансах стали автоматизация клиентского сервиса, поддержка финансовых консультантов, оптимизация кредитования, процессов KYC/AML и платежей, а также углубленный анализ рисков и данных. В кибербезопасности GenAI революционизирует анализ угроз, ускоряет реагирование на инциденты, улучшает обнаружение фишинга и помогает в генерации правил защиты.
Однако эйфория от технологических возможностей должна уравновешиваться трезвой оценкой сопутствующих цифровых рисков. Угрозы конфиденциальности данных, уязвимости самих ИИ-моделей, потенциал алгоритмической предвзятости, возможность злонамеренного использования для создания дипфейков и усиления кибератак, а также неопределенность регулирования и этические дилеммы требуют проактивного и комплексного управления. Стоимость внедрения, нехватка кадров и проблемы интеграции также остаются существенными вызовами.
Рекомендации для финансовых институтов и организаций, работающих с чувствительными данными:
- Разработать комплексную стратегию ИИ: Четко определить приоритетные сценарии использования GenAI, соответствующие бизнес-целям, и оценить потенциальный ROI и риски. Начинать с областей, где можно быстро продемонстрировать ценность (например, внутренняя автоматизация на основе знаний, поддержка разработчиков), прежде чем переходить к более сложным и рискованным клиентским приложениям.
- Установить надежное управление ИИ (AI Governance): Внедрить четкие политики и процедуры, охватывающие безопасность данных, конфиденциальность, этику, справедливость, прозрачность, соответствие нормативным требованиям и управление жизненным циклом моделей. Создать или назначить ответственный орган (например, комитет по этике ИИ).
- Приоритезировать безопасность и конфиденциальность: Внедрять лучшие практики безопасности на всех этапах работы с ИИ (SecDevOps/MLSecOps). Использовать методы защиты данных (шифрование, анонимизация), контролировать доступ, проводить регулярный аудит безопасности моделей и инфраструктуры. Рассмотреть использование частных облаков или локальных моделей для наиболее чувствительных данных. Тщательно выбирать поставщиков ИИ с учетом их политик безопасности и хранения данных.
- Активно бороться с предвзятостью: Проводить аудит данных на предмет предвзятости, использовать методы для ее смягчения при обучении моделей, внедрять инструменты тестирования на справедливость и обеспечивать прозрачность (XAI) там, где это возможно и требуется регуляторами.
- Инвестировать в кадры и культуру: Развивать внутреннюю экспертизу в области ИИ, обучать сотрудников работе с новыми инструментами и развивать культуру ответственного использования технологий. Разработать планы по адаптации персонала к изменениям, вызванным автоматизацией.
- Принять подход “Human-in-the-Loop”: Особенно в критически важных областях (кредитование, инвестиционные советы, реагирование на серьезные инциденты безопасности), сохранять человеческий контроль и надзор за решениями, принимаемыми ИИ.
- Сотрудничать и обмениваться опытом: Участвовать в отраслевых инициативах, обмениваться лучшими практиками (особенно в области безопасности и этики) и следить за развитием технологий и регулирования.
- Готовиться к злоупотреблениям: Использовать сам GenAI для усиления защиты от угроз, порожденных ИИ (например, обнаружение дипфейков, улучшенный фишинг-мониторинг). Повышать осведомленность сотрудников и клиентов о новых видах мошенничества.
Внедрение генеративного ИИ – это марафон, а не спринт. Успех будет зависеть от способности организаций не только освоить технологию, но и интегрировать ее в свою деятельность безопасным, этичным и ответственным образом, создавая устойчивое конкурентное преимущество в цифровую эпоху.
8. Список литературы
- OpenAI. AI in the Enterprise 2024. (Предполагается, что это отчет, упомянутый в запросе, хотя точное название может отличаться или он может быть совместным с Menlo Ventures, как указано в других источниках).
- Google Cloud. Gen AI for Financial Services: 101 Use Cases. Google Cloud Next ’24 & Updates 2024/2025. (Доступно на ресурсах Google Cloud, возможно, в виде презентаций или блогов).
- Menlo Ventures. The Generative AI Ascent: State of Generative AI 2024. 11 March 2024. https://menlovc.com/perspective/the-generative-ai-ascent-state-of-generative-ai-2024/
- Andreessen Horowitz (a16z). Emerging Architectures for LLMs. 14 January 2024. https://a16z.com/emerging-architectures-for-llms/
- Deloitte. The adoption of generative AI in the financial services industry. 2024. https://www2.deloitte.com/us/en/insights/industry/financial-services/generative-ai-in-financial-services.html
- Accenture. Generative AI in Financial Services: Setting a new standard for performance. 2023. https://www.accenture.com/us-en/insights/banking/generative-ai-financial-services
- McKinsey & Company. The economic potential of generative AI: The next productivity frontier. 14 June 2023. https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-ai-the-next-productivity-frontier
- Google Cloud Blog. The state of Gen AI in Financial Services: Adoption and use cases. 25 October 2023. https://cloud.google.com/blog/products/ai-machine-learning/state-of-gen-ai-financial-services-adoption-use-cases
- EY. How generative AI will transform financial services. 18 October 2023. https://www.ey.com/en_gl/financial-services/how-generative-ai-will-transform-financial-services
- IBM Institute for Business Value. Generative AI in financial services: The path to value and responsible adoption. October 2023. https://www.ibm.com/thought-leadership/institute-business-value/en-us/report/generative-ai-financial-services
- Klarna Newsroom. Klarna AI assistant handles two-thirds of customer service chats in its first month. 27 February 2024. https://www.klarna.com/international/press/klarna-ai-assistant-handles-two-thirds-of-customer-service-chats-in-its-first-month/
- CNBC. Klarna CEO says AI is doing the work of 700 people and will lead to hiring freeze. 28 February 2024. https://www.cnbc.com/2024/02/28/klarna-ceo-says-ai-is-doing-the-work-of-700-people-hiring-freeze.html
- Wired. Klarna’s AI Assistant Does the Work of 700 People. 27 February 2024. https://www.wired.com/story/klarnas-ai-assistant-does-the-work-of-700-people/
- Microsoft Customer Stories. Protección achieves significant improvements in customer service and savings by using AI. 15 November 2023. https://customers.microsoft.com/en-us/story/1699532209316801939-proteccion-banking-capital-markets-azure-openai-service
- Morgan Stanley Press Release. Morgan Stanley Begins Internal Rollout of Wealth Management Solution Developed with OpenAI. 14 March 2023 (Updated based on later developments and common knowledge about their OpenAI usage). While the initial release was early 2023, usage has significantly expanded since then.
- Financial Planning. Morgan Stanley rolls out GPT-4 tool to summarize client meetings. 18 September 2023. https://www.financial-planning.com/news/morgan-stanley-rolls-out-gpt-4-tool-to-summarize-client-meetings
- Google Cloud Blog. How generative AI is transforming financial services. 12 June 2023. https://cloud.google.com/blog/products/ai-machine-learning/how-generative-ai-is-transforming-financial-services
- Forbes. How AI Is Transforming Financial Planning And Wealth Management. 7 July 2023. https://www.forbes.com/sites/forbesfinancecouncil/2023/07/07/how-ai-is-transforming-financial-planning-and-wealth-management/
- Airwallex Newsroom. Airwallex partners with Google Cloud to accelerate global growth with generative AI and enhanced payment experiences. 1 November 2023. https://www.airwallex.com/newsroom/airwallex-partners-with-google-cloud-to-accelerate-global-growth-with-generative-ai-and-enhanced-payment-experiences
- Apex Fintech Solutions Blog. The Apex Advantage: Using Data Science to Mitigate Risk. 24 April 2023. https://www.apexfintechsolutions.com/blog/the-apex-advantage-using-data-science-to-mitigate-risk/
- BCG. Generative AI in Financial Services: The Art of the Possible. 18 July 2023. https://www.bcg.com/publications/2023/generative-ai-use-cases-financial-services
- Bloomberg. BloombergGPT: A Large Language Model for Finance. 30 March 2023. https://www.bloomberg.com/company/press/bloomberggpt-50-billion-parameter-llm-tuned-finance/
- Reuters. Morgan Stanley arms analysts with OpenAI artificial intelligence. 20 July 2023. https://www.reuters.com/technology/morgan-stanley-arms-analysts-with-openai-artificial-intelligence-2023-07-20/
- McKinsey & Company. Generative AI: The path to impact in the insurance industry. 2 August 2023. https://www.mckinsey.com/industries/financial-services/our-insights/generative-ai-the-path-to-impact-in-the-insurance-industry
- Akur8 Press Release. Seguros Sura Colombia selects Akur8 to enhance its pricing process. 12 December 2023. https://www.akur8.com/press-releases/seguros-sura-colombia-selects-akur8-to-enhance-its-pricing-process
- WTW. Generative AI: Reshaping the insurance value chain. 2023. https://www.wtwco.com/en-us/insights/2023/08/generative-ai-reshaping-the-insurance-value-chain
- Capgemini. Generative AI in Insurance: Examples, Use Cases, and Benefits. 19 October 2023. https://www.capgemini.com/insights/expert-perspectives/generative-ai-in-insurance-examples-use-cases-and-benefits/
- TechCrunch. Klarna says its OpenAI chatbot is doing the work of 700 humans. 27 February 2024. https://techcrunch.com/2024/02/27/klarna-openai-chatbot-700-humans/
- Grupo SURA Website. About Grupo SURA. Accessed 17 April 2025. https://www.gruposura.com/en/about-us/
- SURA Asset Management Website. Who We Are. Accessed 17 April 2025. https://www.sura-am.com/en/who-we-are/Paginas/default.aspx
- Seguros SURA Website. About Us. Accessed 17 April 2025. (Specific URL depends on country, e.g., https://www.segurossura.com.co/paginas/quienes-somos/compania.aspx for Colombia)
- SAP Customer Stories. Grupo SURA Centralizes Reinsurance Management with SAP Solutions. 2019 (Older case, but shows SAP usage). https://www.sap.com/documents/2019/06/4c1d13d5-4e7d-0010-87a3-c30de2ffd8ff.html
- Microsoft Customer Stories. Bancolombia achieves 30% increase in code generation, reducing app development time. 15 November 2023. (While about Bancolombia, it’s part of Grupo SURA). https://customers.microsoft.com/en-us/story/1699532209316801935-bancolombia-banking-capital-markets-azure-openai-service
- Microsoft News Center LATAM. SURA’s Omics Science Center pioneers personalized medicine in Latin America with Azure OpenAI Service. 17 July 2023. https://news.microsoft.com/es-xl/sura-centro-de-ciencias-omicas-pionero-medicina-personalizada-latinoamerica-azure-openai-service/
- BBVA News. BBVA employees are already using generative AI securely to be more productive. 14 February 2024. https://www.bbva.com/en/news/bbva-employees-are-already-using-generative-ai-securely-to-be-more-productive/
- BBVA News. BBVA employees devise a chatbot to detect phishing. 14 February 2024. https://www.bbva.com/en/news/bbva-employees-devise-a-chatbot-to-detect-phishing/
- BBVA News. The essential ‘guardrails’ for the responsible use of AI. 6 March 2024. https://www.bbva.com/en/news/the-essential-guardrails-for-the-responsible-use-of-ai/
- Finextra. BBVA partners IBM and Telefonica Tech on AI and cybersecurity. 26 January 2024. https://www.finextra.com/newsarticle/43690/bbva-partners-ibm-and-telefonica-tech-on-ai-and-cybersecurity
- Google Cloud Press Release. Apex Fintech Solutions Selects Google Cloud to Accelerate the Future of Digital Investing. 10 April 2024. https://cloud.google.com/press-releases/2024/0410/apex-fintech-solutions-selects-google-cloud
- Google Cloud Blog. Introducing Gemini in Security: Generative AI to empower defenders. 9 April 2024. https://cloud.google.com/blog/products/identity-security/introducing-gemini-in-security
- Apex Fintech Solutions Website. Apex AI Security Platform. Accessed 17 April 2025. https://www.apexfintechsolutions.com/security/ (URL adjusted based on likely location).
- OWASP Foundation. OWASP Top 10 for Large Language Model Applications. August 2023. https://owasp.org/www-project-top-10-for-large-language-model-applications/
- NIST (National Institute of Standards and Technology). Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations. NIST AI 100-2e2023. November 2023. https://csrc.nist.gov/pubs/ai/100/2/e2023/final
- Gartner. Top Strategic Technology Trends 2024: AI Trust, Risk and Security Management. October 2023. https://www.gartner.com/en/articles/gartner-top-10-strategic-technology-trends-for-2024 (AI TRiSM trend covers these aspects).
- Forrester. The Future Of Cybersecurity Is Generative AI — But Secure It First. 18 October 2023. https://www.forrester.com/blogs/the-future-of-cybersecurity-is-generative-ai-but-secure-it-first/
- Dark Reading. How Generative AI Is Changing SOC Operations. 23 January 2024. https://www.darkreading.com/analytics/how-generative-ai-is-changing-soc-operations
- Google Cloud Security. Google Cloud Security Operations. Accessed 17 April 2025. https://cloud.google.com/security/products/security-operations
- Check Point. The Double-Edged Sword: How Generative AI tools like ChatGPT can be used by Cybercriminals. 13 January 2023. https://research.checkpoint.com/2023/opw3n-ai-a-look-into-the-tools-and-services-created-by-chatgpt-and-deployed-in-cybercriminal-underground/ (Example of early analysis of malicious use).
- IBM Security Intelligence. How Generative AI Is Being Used in Cybersecurity. 21 September 2023. https://securityintelligence.com/articles/generative-ai-cybersecurity-applications/
- Microsoft Security Blog. Introducing Microsoft Security Copilot. 28 March 2023. https://www.microsoft.com/en-us/security/blog/2023/03/28/introducing-microsoft-security-copilot/
- Microsoft Security. Microsoft Security Copilot. Accessed 17 April 2025. https://www.microsoft.com/en-us/security/business/ai-machine-learning/microsoft-security-copilot
- CrowdStrike Blog. Introducing Charlotte AI: Generative AI Analyst that Democratizes Security. 25 April 2023. https://www.crowdstrike.com/blog/introducing-charlotte-ai-generative-ai-analyst-democratizes-security/
- Palo Alto Networks. XSIAM: Autonomous Security Operations. Accessed 17 April 2025. https://www.paloaltonetworks.com/cortex/cortex-xsiam
- SentinelOne Blog. Introducing Purple AI: Threat Hunting Supercharged by Generative AI. 20 June 2023. https://www.sentinelone.com/blog/introducing-purple-ai-threat-hunting-supercharged-by-generative-ai/
- NIST (National Institute of Standards and Technology). AI Risk Management Framework (AI RMF 1.0). January 2023. https://www.nist.gov/itl/ai-risk-management-framework
- Europol. ChatGPT – The impact of Large Language Models on Law Enforcement. 27 March 2023. https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement
- European Parliament. EU AI Act: first regulation on artificial intelligence. 13 March 2024. https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-ai-act-meps-adopt-landmark-law
- Goldman Sachs Economics Research. The Potentially Large Effects of Artificial Intelligence on Economic Growth. 26 March 2023. https://www.gspublishing.com/content/research/en/reports/2023/03/27/d64e052b-0f6e-45d7-967b-d7be35fabd16.html