Point de vue: Le risque de crédit pourrait-il être géré par une intelligence artificielle ?

Point de vue: Le risque de crédit pourrait-il être géré par une intelligence artificielle ?

Point de vue, Yannick, Superviseur de l’équipe Modélisation

Le risque de crédit pourrait-il être géré par une intelligence artificielle ?

 

Origine, opportunités et défis de l’intelligence artificielle

L’intelligence artificielle est un concept qui se développe depuis près de soixante-dix ans. Bien qu’innovante et permettant certaines avancées dans les années 1990, elle n’attire pas, à l’époque, toute l’attention de la communauté scientifique. Autour de 2010, la croissance exponentielle des données en devient le carburant, en permettant d’améliorer l’entraînement des systèmes intelligents. Parallèlement, le recours à des serveurs informatiques distants par l’intermédiaire du réseau Internet font exploser les capacités de calcul.

L’intelligence artificielle offre de vastes opportunités comme, entre autres, la détection de fraudes, une facilité de reporting, une assistance virtuelle et un interfaçage entre l’entreprise et son client. L’enjeu pour l’entreprise est la réactivité, afin de proposer des produits et services sur-mesure avec un délai de décision réduit. Ces nouvelles opportunités engendrent toutefois différents risques à gérer et surveiller (voir plus bas).

Intelligence artificielle et gestion du risque de crédit

Depuis la crise financière de 2008, les institutions financières se sont efforcées de faire des économies de coûts et maintenir leur compétitivité (notamment face aux FinTechs) pour compenser les pressions sur leurs marges. Pour y parvenir, un domaine vers lequel elles se sont tournées est la technologie, avec une exploration accrue de l’intelligence artificielle ces dernières années.

Appliquée à la gestion du risque de crédit, l’intelligence artificielle pourrait-elle permettre de quantifier les paramètres réglementaires relatifs au risque de crédit ?

Les modèles auto-apprenants (machine learning) ou d’apprentissage profond (deep learning) permettent d’obtenir des niveaux de performance en termes de discrimination plus élevés que les approches classiques utilisées à l’heure actuelle (par ex. la régression logistique pour prédire la probabilité de défaut à horizon de douze mois). Toutefois, le coût associé à ce gain de performance englobe, entre entres, les éléments suivants :

 

  • Un risque de sur-apprentissage avec des modèles complexes décrivant l’erreur aléatoire plutôt que les relations sous-jacentes dans le jeu de données
  • un nombre de règles ingérable à l’échelle humaine (potentiellement plusieurs milliers de règles), augmentant le risque de modèles en complexifiant l’implantation et augmentant l’instabilité des paramètres de risque (un client donné bouge au sein des classes du modèle; plus le nombre de classes / règles est élevé, plus le paramètre en sortie du modèle sera instable)
  • un manque de transparence en raison du nombre de règles et de l’effet « boîte noire » des modèles auto-apprenants ou d’apprentissage profond, difficiles à interpréter, tracer et auditer. La complexité de ces modèles fait qu’il peut être difficile pour les institutions financières de maintenir et de prouver leur niveau de compréhension et de contrôle des décisions prises à partir de l’intelligence artificielle, y compris leur adéquation, équité et alignement avec les valeurs de l’organisation et son appétit au risque
  • une instabilité de traitement du portefeuille : un prêt B ayant des caractéristiques au trimestre T+1 rigoureusement identiques à celles d’un prêt A au trimestre T pourrait être traité différemment en T+1 par rapport au prêt A en T suite à un changement de modèle, sans que ce changement de traitement puisse être expliqué en raison de l’effet « boîte noire » déjà cité. Cette instabilité se répercute sur le montant de fonds propres, les provisions, la tarification etc.
  • un risque de non-conformité réglementaire. Les services financiers sont très réglementés. L’enjeu de la réglementation prudentielle baloise à laquelle, entre autres, les banques sont soumises est de s’assurer de la solidité du système financier avec un objectif de prévention mais pas un objectif de précision ou de réactivité
  • un risque technologique avec l’utilisation de nouvelles technologies plus ou moins connues, maîtrisées, comprises, ainsi qu’un accroissement des points de vulnérabilité par ex. lors du recours à des serveurs informatiques distants ou des composants libres de droit (logiciels, langages de programmation, API…) soulevant la question de la cyber sécurité
  • un risque juridique en cas de non-respect des législations en vigueur portant sur la protection des données et des consommateurs. En particulier, le Règlement Général sur la Protection des Données entré en vigueur au sein de l’Union Européenne le 25 mai dernier impose aux entreprises qu’elles puissent, dans certaines circonstances, être capables d’expliquer à leurs clients comment leurs données personnelles sont utilisées, et quelles sont les hypothèses et caractéristiques considérées en cas de décision entièrement automatique et ayant un impact significatif sur le client (par ex. raisons ayant conduit à la décision de rejeter une demande de prêt)

 

Une approche hybride pourrait être envisagée afin d’améliorer le pouvoir discriminant des modèles de risque, tout en limitant les risques associés à une utilisation de modèles auto-apprenants purs. En effet, plusieurs études empiriques montrent que les modèles d’auto-apprentissage se distinguent des modèles traditionnels (régression logistique) par une meilleure discrimination des emprunteurs intermédiaires (ni très bons, ni très mauvais). Quelques règles de gestion peuvent être extraites des modèles d’auto-apprentissage et couplées au modèle de régression logistique afin de mieux discriminer ces emprunteurs, et ainsi améliorer la performance globale du modèle, tout en gardant un système de notation interprétable et contrôlable.

Quelle est la position du superviseur bancaire?

Comprendre les implications et les risques d’une utilisation accrue des algorithmes d’intelligence artificielle (IA) est un défi non seulement pour les institutions financières elles-mêmes, mais aussi pour leurs régulateurs et superviseurs. Du point de vue des institutions financières, l’IA permettrait d’apporter de l’efficience aux marchés financiers et pourrait bénéficier aux consommateurs, sous la forme d’un meilleur service et d’offres sur mesure. Les régulateurs et les superviseurs ont eux-mêmes exploré des façons d’utiliser l’IA dans leur propre travail (voir par ex. [2]). Toutefois, leur rôle est de prévenir tous les risques potentiels liés à l’utilisation de l’IA dans un secteur très réglementé.

De manière générale, les institutions financières qui prévoient d’adopter ou qui utilisent déjà l’IA peuvent raisonnablement s’attendre à ce que le niveau d’examen de leurs superviseurs ne fasse qu’augmenter à l’avenir.

En particulier, les institutions financières devront mettre en place une gouvernance précise et robuste, incluant un cadre de gestion des risques (Risk Management Framework), pour identifier, réduire et contrôler tous les risques associés au développement et à l’utilisation de modèles auto-apprenants ou d’apprentissage profond. Elles devront avoir une vision claire et complète de ces modèles déployés au sein de leur organisation, ainsi que de leurs propriétaires (responsables de la revue et de l’approbation des algorithmes d’IA) et les principaux contrôles de conformité et de risque en place.

Le défi auquel sont confrontés les organismes de réglementation en matière d’IA, et plus généralement de technologies innovantes, est de trouver le juste équilibre entre soutenir l’innovation bénéfique et la concurrence d’une part, et protéger les clients, l’intégrité du marché et la stabilité financière d’autre part.

Perspectives

Traditionnellement, les institutions financières ont modélisé le risque de crédit à des fins de calcul du capital réglementaire, stress-tests et procédures internes de gestion du risque à l’aide de régressions linéaires ou logistiques. Depuis quelques années, plusieurs institutions ont expérimenté l’application des méthodes d’apprentissage automatique pour améliorer leurs prédictions des risques financiers, modéliser mieux et plus vite. De plus, depuis le début des années 2000, une vaste littérature académique s’est développée sur l’utilisation des méthodes d’apprentissage automatique pour quantifier le risque de crédit.

Toutefois, le recours à l’intelligence artificielle pour gérer le risque de crédit bancaire devrait rester limité et à coup sûr très encadré. Les superviseurs bancaires exigent généralement que les modèles de risque soient clairs et simples afin d’être compréhensibles, vérifiables et appropriés pour être validés. Or, les modèles auto-apprenants sont si complexes qu’ils sont souvent assimilés à des « boîtes noires » qu’il est difficile, voire impossible, d’interpréter ou d’auditer par un être humain. De plus, le nouveau RGPD donne un droit à l’information des citoyens européens sur la manière dont une décision les concernant a été prise.

En l’état actuel de la réglementation, il est difficile d’imaginer l’absence totale d’intervention humaine dans le processus de gestion du risque de crédit. D’ailleurs, les initiatives observées dans l’industrie financière en termes d’apprentissage automatique sont complémentaires à la gestion du risque existante, et n’ont pas vocation à remplacer les modélisateurs ou gestionnaires du risque en poste. L’apprentissage automatique peut permettre d’optimiser les paramètres et les modèles développés dans le cadre réglementaire. En particulier, dans la fonction de validation des modèles, les établissements financiers élaborent des modèles de référence ou « challenger » construits à l’aide d’approches de modélisation concurrentes. C’est ici que de nombreuses institutions appliquent ou expérimentent l’apprentissage automatique, avec souvent de nouvelles idées émergeant sur les facteurs de risque les plus influents, et les corrélations non identifiées auparavant dans les données. Les variables prédictives, les interactions non linéaires et d’autres caractéristiques ayant une signification particulière sont isolées du modèle « challenger » et insérées dans les modèles réglementaires. Cela améliore leurs performances prédictives, tout en conservant une relative transparence et simplicité.

Un partenariat continu et croissant entre les institutions financières et leurs superviseurs, soutenu par des échanges d’informations croissants, est indispensable pour une montée en compétences de part et d’autre et pour apprendre ensemble.

 

Pour aller plus loin :

[1] https://www.iif.com/system/files/32370132_van_liebergen_-_machine_learning_in_compliance_risk_management.pdf

[2] http://www.eba.europa.eu/documents/10180/1813140/Session+2+-+Predicting+bank+insolvencies+using+machine+learning+techniques.pdf

[3] https://www.iif.com/publication/regulatory-report/machine-learning-credit-risk

[4] https://www.bankingsupervision.europa.eu/press/speeches/date/2018/html/ssm.sp180606.en.html

_____________

A PROPOS DE GROUPE ESTIA

Le Groupe Estia est un cabinet de conseil spécialisé dans la transformation des données en actifs.

Créé en 2010, il rassemble aujourd’hui 100 consultants experts de la donnée et de son exploitation à forte valeur ajoutée (data scientists, statisticiens, experts du décisionnel et experts fonctionnels) et génère 10m€ de CA.

Le Groupe Estia intervient auprès des directions métiers de plus de 30 clients grands comptes, dans tous les secteurs d’activités : Banques, Assurances, Distribution, Energie, Transports, Médias, Services,… Son objectif : faire des données un accélérateur business pour nos clients. Son intervention couvre l’intégralité du cycle de transformation et de valorisation de la data.

Notre gamme de services se décline en 6 offres : Pilotage des activités, Connaissance clients, Communication omnicanal, Modélisation à visée prédictive, Transformation vers une organisation data centrics, Gestion de projets data & nos expertises couvrent l’ensemble des problématiques data : CRM analytique, gestion de campagnes, datamining & webmining, business intelligence, conception d’outils, d’applications analytiques, d’algorithmes & de modèles,…

En 2017 la société accélère son développement en s’appuyant sur un nouvel actionnaire de référence, le groupe Consort NT intégrateur et opérateur de solutions et d’infrastructures (2 000 collaborateurs, 140m€ de CA, 6 pays). Le Groupe Consort NT et Groupe Estia proposent dorénavant une offre unique couplant technologies, infrastructures et capacités algorithmiques au service de la performance de leurs clients.

0 Avis

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>