08.10.2025
Источник:
Frank Media
Алгоритмы способны систематически дискриминировать компании и клиентов, а сложные модели — оставлять надзорные органы в неведении, как именно они приходят к выводу
Искусственный интеллект, активно внедряемый финансовыми регуляторами по всему миру, способен кардинально повысить эффективность надзора, но вместе с тем несет системные риски непрозрачности, дискриминации и утраты контроля. Об этом говорится в исследовании Международного валютного фонда «Проекты в сфере искусственного интеллекта в финансовых надзорных органах: руководство по успешному внедрению», подготовленном Пармой Бэйнсом, Габриэлой Конде, Рангасари Равикумаром и Эбру Сонбул Искендер.
Авторы подчеркивают, что стремительное распространение технологий «не оставляет регуляторам пространства для инерции» и требует от них выстраивания новых, технологически подкованных надзорных систем.
Свобода от ручного труда
По данным МВФ, около 60% финансовых регуляторов уже изучают способы интеграции ИИ в надзорные процессы, а доля стран, использующих генеративный ИИ (GenAI), выросла с 8% до 19% всего за год — с 2023 по 2024. Из 42 органов надзора, опрошенных организацией в 2024 году, 32 сообщили, что уже тестируют, применяют или разрабатывают инструменты GenAI. В целом 164 надзорных ведомства из 105 стран внедряют так называемые suptech-решения — технологии, призванные сделать надзор более риск-ориентированным, оперативным и точным.
По данным МВФ, ИИ уже используется в ключевых направлениях надзора — от лицензирования и противодействия отмыванию денег до микропруденциального анализа. Так, Банк Англии применяет модели ИИ для прогнозирования ВВП и банковских стрессов, Банк Таиланда -для анализа протоколов заседаний банков и выявления нарушений нормативов, ЕЦБ использует новые технологии для проверки деловой репутации руководителей и ускорения процедур согласования. А комиссия по ценным бумагам Малайзии применяет ИИ для анализа корпоративных отчетов и контроля за раскрытием информации, отмечают исследователи.
Тем не менее, как подчеркивают в МВФ, органы развитых, развивающихся и формирующихся экономик внедряют suptech неравномерно, что вызывает опасения относительно появления «двухуровневой системы надзора», когда одни регуляторы готовы и способны внедрять новые технологии, другие — нет. В 2024 году suptech-инструменты использовали 75% надзорных органов в развитых странах и 58% — в развивающихся, против 79% и 54% соответственно в 2023 году.
Главным достоинством искусственного интеллекта в финансовом надзоре авторы видят его способность делать то, на что у человека уходили недели — за считанные минуты. ИИ способен брать на себя рутинные процессы, от которых напрямую зависит эффективность работы надзорных органов: проверку, сверку и консолидацию отчетных данных. По данным доклада МВФ, «модели искусственного интеллекта могут способствовать управлению данными — их валидации, консолидации и визуализации». «Например, органы могут заменить ручные проверки полноты, корректности и согласованности расчетов алгоритмами ИИ», — говорится в докладе.
Освободившись от этого ручного труда, регуляторы смогут направить ресурсы туда, где действительно важен человеческий анализ: «Освободившись от рутинных функций — проверки, сверки и обобщения данных — органы смогут сосредоточиться на ключевой функции, создающей добавленную стоимость, — реализации надзорного суждения», — считают авторы доклада.
Еще одно преимущество ИИ заключается в способности работать с массивами информации, недоступными человеческому восприятию. Благодаря этому алгоритмы способны находить взаимосвязи и закономерности, которые невозможно выявить традиционными методами: «Модели ИИ могут поддерживать надзор в сфере противодействия отмыванию денег и финансированию терроризма, выявляя подозрительные шаблоны в детализированных данных из разных источников». Благодаря этому ИИ могут становиться инструментом раннего предупреждения о потенциальных нарушениях — как в сфере AML/CFT, так и в рыночном надзоре, отмечают авторы исследования.
Кроме того, для регуляторов, ответственных за финансовую стабильность, ИИ открывает еще одну важную возможность — прогнозирование системных рисков, поскольку модели могут анализировать поведение участников рынка и заранее сигнализировать о признаках стресса, добавляют экономисты МВФ.
“Черный ящик” и дискриминация
Однако, как предупреждают в МВФ, искусственный интеллект, призванный сделать надзор точнее и эффективнее, несет риски, способные подорвать доверие к самой идее алгоритмического контроля, поскольку ИИ способен искажать процесс принятия решений. Алгоритмы, обученные на неравномерных данных, могут «вносить предвзятость, систематически и несправедливо дискриминируя отдельных лиц или группы лиц», подчеркивают специалисты.
Еще одна фундаментальная проблема — непрозрачность “внутренней логики” машинных решений. Регуляторы часто не могут объяснить, почему алгоритм выдал именно тот результат, особенно когда речь идет о сложных нейросетях. МВФ подчеркивает, что даже методы объяснимого искусственного интеллекта, такие как LIME или Shapley, не гарантируют понимания сути происходящего: «Желаемые свойства таких методов — ясность, простота, полнота и достоверность — могут оказаться под вопросом, если результаты трудно интерпретировать, если требуются значительные вычислительные ресурсы, если объяснения непоследовательны и неустойчивы в разных случаях или основаны на предположениях, которые не всегда выполняются».
Экономисты МВФ отмечают, что ИИ может превратиться в “черный ящик”, чьи решения сложно проверить и невозможно воспроизвести, и рекомендуются отдавать приоритет более простым моделям, даже если это происходит в ущерб точности предсказаний. По их мнению, если объяснимость модели недостижима, как в случае глубоких нейронных сетей, регуляторы должны «оценить, является ли использование таких моделей целесообразным».
К этой проблеме добавляется еще один риск — устаревание алгоритмов. В условиях, когда финансовые мошенники и участники рынка быстро адаптируются к новым правилам, модели теряют актуальность буквально за месяцы. «Модель, обученная шесть месяцев назад для выявления подозрительных операций, может не учитывать новые типы транзакций, появившиеся за последние три месяца, поскольку мошенники адаптируют свое поведение, чтобы избежать обнаружения», — говорится в отчете.
МВФ рекомендует регуляторам создавать собственные рамки управления искусственным интеллектом (AI governance) — системы внутреннего контроля, включающие этические комитеты, процедуры валидации моделей и стандарты прозрачности. «Финансовые органы должны определить организационные структуры, роли и зоны ответственности, показатели эффективности и подотчетность за результаты моделей ИИ <…> Человек должен оставаться вовлеченным в процесс принятия решений, поддерживаемых ИИ», — отмечают авторы исследования.