L’intelligence artificielle (IA) fait partie des technologies permettant aux métiers de la banque et de la finance d’accélérer leur transformation numérique. Les secteurs bancaires et financiers peuvent s’enorgueillir de figurer parmi les plus avancés dans l’usage des technologies d’apprentissage automatique (machine learning) et l’IA y a déjà trouvé une terre d’élection, nonobstant certains risques que les régulateurs s’évertuent à anticiper voire à cantonner.
Par Sébastien Praicheux, associé, et Célestine Barthout, avocate, DLA Piper
Pour se développer, l’IA s’appuie sur deux piliers : les progrès effectués en matière de machine learning et le développement des outils informatiques et technologiques qui en sont les vecteurs. Le machine learning consiste à doter les systèmes informatiques de moyens comparables à ceux des êtres humains. A cette fin, les programmes de machine learning analysent une grande quantité de données dont ils dégagent des tendances et comportements humains, et offrent une réponse au défi de l’accroissement des données qui n’a eu de cesse de s’accentuer depuis 2010. L’analyse de données et l’IA y occupent une place prépondérante dans le secteur bancaire et financier, en raison essentiellement de la contrainte de la sélection et de l’exploitation d’un nombre croissant de données dans des délais très courts.
Les usages possibles de l’IA en matière bancaire et financière
Le grand public connaît déjà l’IA à travers les chatbots et voicebots, assistants virtuels dont l’objectif est de faciliter la compréhension des offres de produits et de services financiers. Citons en France l’agent virtuel d’Orange Bank, Djingo, qui a vocation à répondre aux questions des clients ou de les mettre en relation avec un conseiller, ou encore l’assistant virtuel de Crédit Mutuel-CIC, qui répond aux questions des conseillers pour mieux les guider dans la relation client en préremplissant la réponse au client. Erica, le chatbot de Bank of America, serait quant à lui en mesure de trouver trace des transactions passées, des demandes de paiements ou de consulter le solde de leurs comptes (1).
L’IA se décline également dans le conseil «automatisé» (robo-advice), que le Conseil de la stabilité financière définit comme un type d’application fournissant des services allant des recommandations financières automatisées au courtage en ligne, en passant par la gestion de portefeuille pour allouer un portefeuille compatible avec le profil risque du client, lui conseillant, en fonction de l’évolution des marchés, de prendre certaines décisions d’investissement. L’IA permet également aux banques de détail de mieux cibler et noter les clients à partir d’un ensemble de données dont se déduisent des comportements et des habitudes de consommation, éclairant les chances de remboursement d’un crédit et, partant, le risque d’insolvabilité de l’emprunteur ; les délais de traitements des demandes de crédit des clients en sont améliorés, à la grande satisfaction de ceux-ci. L’apparition de nouvelles plateformes de crédit, favorisée par l’IA, reliant directement les prêteurs aux emprunteurs (crédit Fintech), permet quant à elle de réduire la dépendance de ceux-ci à l’égard des prêts bancaires, et crée une nouvelle structure de partage des risques plus diversifiée.
Le trading sur les marchés financiers s’appuie également de plus en plus sur l’IA afin d’identifier les tendances de marché et même de «prédire» ou d’anticiper le cours des actions ! L’IA permet également à certains acteurs de marché tels que les banques ou les «référentiels centraux» d’identifier les incohérences et les anomalies des données qu’ils collectent et de les corriger. Les effets potentiels de l’IA sur la stabilité financière doivent cependant être maîtrisés, en raison du risque de «comportements de masse» de clients bénéficiant d’un conseil identique produit par l’algorithme au motif qu’ils ont le même «profil» de risque.
Les entités régulées doivent se soumettre à un nombre croissant d’obligations réglementaires issues de la directive et le règlement sur les marchés d’instruments financiers (MiFID II et MiFIR), des directives concernant les organismes de placement collectif en valeurs mobilières (UCITS) et les gestionnaires de fonds d’investissement alternatif (dite «AIFMD»), etc. L’IA aide ces entités à faire face à leurs obligations en transposant ces normes en langage informatique, réduisant potentiellement les coûts d’interprétation et de mise en œuvre. L’IA pourrait ainsi contribuer à améliorer la rapidité, la qualité et la pertinence de la sélection des données déclarées et leur transmission à l’autorité concernée, en signalant ou en «autocorrigeant» les anomalies éventuelles ce qui pourrait avoir un impact sur la mesure du risque prudentiel des établissements concernés.
L’IA pourrait également permettre d’améliorer la chaîne de traitement des diligences liées à la connaissance des clients (KYC ou «Know Your Customer») généralement coûteux et chronophage. Des prestataires ont ainsi pu développer certaines solutions permettant d’automatiser le processus de lecture, d’analyse, de contrôle, de recherche et d’extraction des informations contenues dans les documents communiqués par les clients à leur banque. L’IA trouve encore son utilité dans le cadre des obligations prudentielles applicables aux entités régulées : certains établissements utiliseraient ainsi l’IA pour réduire le coût de leurs obligations de mobilisation des actifs en garantie des obligations liées aux transactions sur produits dérivés, tandis que d’autres optimiseraient leurs stress tests par une meilleure modélisation de leurs activités sur les marchés financiers, permettant de déceler des «biais» et de mettre en place des modèles plus performants et plus transparents.
Les risques liés à l’utilisation de l’IA dans les secteurs banque et finance
L’ACPR recommande qu’une intervention humaine s’assure de la qualité des données analysées avant leur utilisation par un algorithme. En effet, l’IA fait également naître d’autres risques : utilisation inappropriée des données personnelles, risque de concentration du marché entre un nombre limité de prestataires induisant un risque de déséquilibre des relations commerciales, de difficultés d’accès et de prix artificiellement élevés voire d’inégalité devant l’IA ! On a alors proposé la mise en place d’un socle commun d’outils «de base» mutualisés au moyen d’une gouvernance adaptée prévenant notamment les risques de divulgation de leurs règles de fonctionnement afin d’éviter qu’elles viennent à tomber dans les mains d’entreprises criminelles.
L’ACPR n’a pas non plus manqué de souligner les effets potentiellement négatifs de l’IA sur la stabilité financière : le risque d’uniformité induit par l’IA pourrait générer des comportements identiques et de masse augmentant la procyclicité et la volatilité du marché par d’importants achats et ventes exécutés simultanément, accroissant la vulnérabilité des marchés financiers aux cyberattaques.
Les enjeux de l’IA pour les superviseurs bancaires et financiers
La réglementation permet déjà le recours à certaines utilisations de l’IA, comme les robo-advisors. Ces derniers sont soumis aux règles de protection de la clientèle, et doivent le cas échéant obtenir un agrément de société de gestion de portefeuille ou se soumettre aux règles applicables à l’activité de conseiller en investissements financier. La mise en place de l’IA dans les outils de conseil robotisés nécessite un suivi plus régulier pour tenir compte de l’adéquation du conseil prodigué au profil de risque du client, la cartographie des risques et le plan de conformité annuel de l’établissement. Afin de faire face aux nouveautés introduites au moyen de l’IA, et notamment d’être en mesure de contrôler efficacement la qualité des processus de gouvernance des algorithmes, l’ACPR envisage notamment la création de mécanismes de coopération entre superviseurs au niveau national et international, et de soutenir les travaux tendant à améliorer les modalités d’audit et de contrôle ainsi que l’analyse et la compréhension exacte des «algorithmes intelligents». L’IA emporte des changements majeurs dans le mode d’exercice des pouvoirs de supervision des autorités et la conduite des activités de contrôle quotidien au sein des établissements bancaires. La question de la responsabilité du fait des algorithmes devrait donc être traitée, de même que le traitement du risque d’obsolescence réglementaire ainsi que des risques spécifiques à la mise en œuvre de l’IA.