8 октября 2025
МВФ предупредил, что ИИ может превратиться в «черный ящик» для регуляторов
Искусственный интеллект, активно внедряемый финансовыми регуляторами по всему миру, способен кардинально повысить эффективность надзора, но вместе с тем несет системные риски непрозрачности, дискриминации и утраты контроля. Об этом говорится в исследовании Международного валютного фонда «Проекты в сфере искусственного интеллекта в финансовых надзорных органах: руководство по успешному внедрению», подготовленном Пармой Бэйнсом, Габриэлой Конде, Рангасари Равикумаром и Эбру Сонбул Искендер.
Авторы подчеркивают, что стремительное распространение технологий «не оставляет регуляторам пространства для инерции» и требует от них выстраивания новых, технологически подкованных надзорных систем.
Главным достоинством искусственного интеллекта в финансовом надзоре авторы видят его способность делать то, на что у человека уходили недели — за считанные минуты. ИИ способен брать на себя рутинные процессы, от которых напрямую зависит эффективность работы надзорных органов: проверку, сверку и консолидацию отчетных данных. По данным доклада МВФ, «модели искусственного интеллекта могут способствовать управлению данными — их валидации, консолидации и визуализации». «Например, органы могут заменить ручные проверки полноты, корректности и согласованности расчетов алгоритмами ИИ», — говорится в докладе.
Освободившись от этого ручного труда, регуляторы смогут направить ресурсы туда, где действительно важен человеческий анализ: «Освободившись от рутинных функций — проверки, сверки и обобщения данных — органы смогут сосредоточиться на ключевой функции, создающей добавленную стоимость, — реализации надзорного суждения», — считают авторы доклада.
Еще одно преимущество ИИ заключается в способности работать с массивами информации, недоступными человеческому восприятию. Благодаря этому алгоритмы способны находить взаимосвязи и закономерности, которые невозможно выявить традиционными методами: «Модели ИИ могут поддерживать надзор в сфере противодействия отмыванию денег и финансированию терроризма, выявляя подозрительные шаблоны в детализированных данных из разных источников».
Кроме того, для регуляторов, ответственных за финансовую стабильность, ИИ открывает еще одну важную возможность — прогнозирование системных рисков, поскольку модели могут анализировать поведение участников рынка и заранее сигнализировать о признаках стресса, добавляют экономисты МВФ.
“Черный ящик” и дискриминация
Однако, как предупреждают в МВФ, искусственный интеллект, призванный сделать надзор точнее и эффективнее, несет риски, способные подорвать доверие к самой идее алгоритмического контроля, поскольку ИИ способен искажать процесс принятия решений. Алгоритмы, обученные на неравномерных данных, могут «вносить предвзятость, систематически и несправедливо дискриминируя отдельных лиц или группы лиц», подчеркивают специалисты.
Экономисты МВФ отмечают, что ИИ может превратиться в “черный ящик”, чьи решения сложно проверить и невозможно воспроизвести, и рекомендуются отдавать приоритет более простым моделям, даже если это происходит в ущерб точности предсказаний. По их мнению, если объяснимость модели недостижима, как в случае глубоких нейронных сетей, регуляторы должны «оценить, является ли использование таких моделей целесообразным».
МВФ рекомендует регуляторам создавать собственные рамки управления искусственным интеллектом (AI governance) — системы внутреннего контроля, включающие этические комитеты, процедуры валидации моделей и стандарты прозрачности. «Финансовые органы должны определить организационные структуры, роли и зоны ответственности, показатели эффективности и подотчетность за результаты моделей ИИ Человек должен оставаться вовлеченным в процесс принятия решений, поддерживаемых ИИ», — отмечают авторы исследования.
https://frankmedia.ru/222212