L’ACPR de la banque de France a produit un document de réflexion sur l’intelligence artificielle : enjeux pour
le secteur financier.

Il est remarquable que la tendance est d’aller vers une IA auditable et explicable via des méthodes et des outils statistiques préconisés : des arbres, des systèmes de logique mécanique, de la visualisation profonde, les mesures de complexité. Tout ce que fait depuis 8 ans MyDataBall.

Vous pouvez le consulter ici.

Les contributions d’experts sont en cours de consolidation.

Voici celle de l’apport de MyDataBall aux normes qu’annoncent l’ACPR.

Description du développement de l’intelligence artificielle dans le secteur financier (partie 1 et 2 du document)

Question n°1 : définition de l’intelligence artificielle privilégiée par le document ? (partie 1.1.1)

Excellente définition et contour d’utilisation de l’IA. J’y ajouterai que l’on distingue souvent l’IA faible de l’IA forte, celle qui respectivement répond à des tâches ciblées de celle qui est dite holistique. Une technique de mise en œuvre de l’IA forte est celle qui consiste à agréger, compiler et synthétiser les IA dites faibles.

Le producteur, le concepteur, l’utilisateur ainsi que le propriétaire sont les acteurs sur lesquels s’appliquent les droits et devoirs et la législation, s’approche des exigences du pilier II de Bâle et Solvency.

Question n°2 : Identifiez-vous des facteurs de développement de l’intelligence artificielle dans le secteur financier que ceux listés dans le document (parties 1.1.2 et 1.2) ? Identifiez-vous à l’inverse des freins possibles à ce développement ?

Le constat dans le document est bien celui-ci. En outre, la stratégie de la donnée peut être guidée également sur les 3 points suivants :

  1. La valorisation des données dans l’actif / passif des entreprises sera un facteur accélérateur de création de données (le pétrole numérique).
  2. La société du risque est bien là, l’IA répond aux enjeux de maîtrise de la complexification du monde, le besoin de mesurer est exponentiel.
  3. Un frein éventuel serait celui de l’énergie et de la transition énergétique qui pourraient limiter la puissance de calcul et donc de services.

Certaines courbes démontrent que le point singulier de la croissance de mesures serait atteint dans moins de 50 ans.

Question n°3 : Avez-vous des commentaires sur les considérations du document de réflexion sur le recours au cloud (parties 1.2.3, 2.2.3 et 2.2.4) ?

L’apport stratégique du Cloud est très bien démontré ici. Les pays qui hébergeront les serveurs Cloud devront payer la facture énergétique et portant notamment des enjeux de Responsabilité Sociale et Environnementale (RSE) des utilisateurs. Les USA en auront une bonne part.

Un point important est l’historique de la donnée qui donne lieu à d’épineuses controverses dont celle du droit à l’oubli (pour les nouveaux produits d’assurance obsèques par exemple). La croissance de l’archivage de la donnée trouve sa solution notamment par le Cloud.

Question n°4 : Avez-vous des commentaires ou des compléments à apporter à la liste des usages identifiés dans la partie 2.1 du rapport ?

Extrait Article paru en janvier 2018 sur l’apport de l’IA, Stéphane Chauvin, revue Finance&Gestion.

Cartographie de la nature de données et des besoins

Les métiers des institutions financières peuvent être cartographiés sur quatre domaines, deux horizontaux (les flux d’activité et le stock d’activité), deux verticaux (la vision extérieure « marché » de la demande et les moyens à disposition pour répondre aux objectifs de l’offre de l’entreprise, la ressource).

Schéma 1 : cartographie des métiers et de la granularité des données amenant des systèmes différents de gestion et d’exploitation de la donnée.

Le schéma ci-contre positionne les activités vitales à toute activité marchande mais peut également être étendu à celles qui ne le sont pas. Selon le contexte, un projet d’exploitation des données  demandera une capacité de gestion différente : pour les activités se rapportant aux flux, le nombre de lignes est très imposant (quelques milliards), mais ne dégagera pas nécessairement un nombre de mesures important (quelques dizaines). A l’inverse, pour les activités se rapportant à la vision stock, le nombre de lignes diminue de manière importante (on parle de smart data, quelques millions) mais imposera une gestion de la complexité (on traite souvent sur ces métiers plus de 2000 indicateurs et axes d’analyse, l’explosion combinatoire générant la data complexité).

 Illustrations

4 projets mis en œuvre en seulement quelques semaines illustrent les typologies ci-dessus décrites :

  1. Le carré Flux / Marché, prédiction des adjonctions : dans le cadre de son activité commerciale pour augmenter ses capacités de vente, un assureur récolte les annonces de vente et d’achat de produits ciblés. Les annonces sur le web sont emmagasinées au quotidien avec une trentaine de mesures sur le contenu de la marchandise ainsi que sur la manière d’être déposée sur le web. Le calcul intensif de jointures probabilistes a déterminé des relations de causalité probantes pour les métiers entre les caractéristiques de certaines gammes de produit et l’impact qu’elles ont sur le multicanal : impact à J+1, J+2, J+3 pour l’assureur sur ses canaux web, agences, plateaux téléphoniques, plateforme relation client. Le dimensionnement des capacités d’accueil par canal a ainsi pu être partiellement piloté par l’activité du marché.
  2. Le carré Flux / Ressource, gestion fraude : les comptables d’une société de distribution offrant une assurance sur des produits spécifiques recherchaient les éléments discriminants et explicatifs de potentiel de malversations. L’analyse s’est portée sur les flux et les écritures comptables (plusieurs millions mensuellement). Les jointures probabilistes ont pu dégager des évènements concomitants atypiques entre les débits et les crédits et des situations comportementales de gestionnaires et de clients. Elle a débouché sur la mise en place de scores calculés dynamiquement (les règles de fraudes évoluant).
  3. Le carré Stock / Marché, marketing analytique : la production de cibles clients pour des offres marché suppose de faire intervenir plusieurs compétences de la banque, comme les gestionnaires de la donnée, les marketeurs, les analystes de marché, les designers… La cible marketing prise par filtres en masse avait un ROI de 8%. La data analytics a permis d’une part d’intégrer plus de 1500 axes d’analyse dans le ciblage, d’autre part d’accélérer la capacité à partager les diagnostics entre les corps de métiers. Le résultat a été de pouvoir détecter les caractéristiques clients à fortes probabilités d’achat, de cibler finement la population « appètente », et d’augmenter fortement le ROI des campagnes. En outre, la capacité de calcul mise en œuvre par le projet a donné lieu à une revue des segments clients dynamique (évolution de la population selon son comportement) et des alertes de « churn ».
  4. Le carré Stock / Ressource, risques financiers : une assurance provisionnait une masse financière pour sinistralité. Depuis quelques années, un sur-recouvrement apparaissait pour des raisons inconnues. L’historique des sinistres analysés avec plus de 1200 axes d’analyse et indicateurs ainsi que tous les textes des échanges entre les clients, les gestionnaires, les avocats et les experts ont permis de détecter les éléments causaux probants de survenance des sinistres, validés par les métiers, qui déterminaient des évaluations erronées. 0,7% de ceux-ci ont vu leur mode de gestion changé. Un rééquilibrage de l’actif et du passif a pu ainsi être effectué.

Ces projets n’ont pas nécessité d’infrastructures informatiques spécifiques. Leurs succès sont dus essentiellement à la méthode et à la capacité des équipes métiers pluridisciplinaires à partager les diagnostics et à communiquer leur résultat pour engager les actions positives pour l’institution financière.

Question n°5 : Partagez-vous l’analyse des risques de biais des algorithmes exposée dans la partie 2.2.1 ? Quels compléments lui apporteriez-vous ?

La description très précise des attentes dans la mise en conformité des IA mérite d’être rappelée : des arbres décisionnels sont utilisées pour modéliser les futures décisions de gestion, prises en compte dans le calcul du best estimate vie, prenant en compte de nombreux facteurs exogènes (environnement économique) ou endogènes (comptable : par exemple, richesses disponibles). L’attention se porte dans ce cas sur le backtesting in sample (au regard des décisions passées) des IA ainsi utilisées et sur le caractère vraisemblable et prudent du comportement induit dans des scénarios extrêmes (backtesting out of sample). Au regard du risque de sur-paramétrisation, l’autorité recommande de privilégier des algorithmes simples et robustes afin que ces derniers puissent être compris par l’AMSB17 qui est responsable de les valider.

La démarche de conformité proposée ne peut être que saluée. Des réalisations industrielles ont été fournies notamment par MyDataBall de par son propre algorithme et ses performances en data visualisation et explicabilité / auditabilité des insights métiers.

Aussi, les solutions de réduction automatique des effets de sur-apprentissages et sur-paramétrisations peuvent être mises en œuvre, notamment celles de fusion de clustering et / ou indcateurs R2C et / ou t-normes et t-conormes, pour un meilleur contrôle (détection de causalités par le modus ponens et le modus tollens).

Question n°6 : Même question pour l’analyse des risques de cyber-sécurité (partie 2.2.2)

Dans le rapport sont soulignés les risques de dépendances. J’ajouterai celles des règles contradictoires des résultats des IA spécialisées. La gouvernance des règles issues des apprentissages des IA est un point central, une RGPD pour l’IA. Ainsi, les notions de Knowledge Discovery et de Knowledge Management doivent être mises à profits : capitaliser sur les connaissances métiers pour réguler les « dérapages » d’apprentissages. Ainsi, une suggestion en termes de mise en conformité, serait de valider les connaissances générées par les collaborateurs métiers.

Le sujet du Knowledge Management devrait pouvoir être un facteur stabilisant pour les institutions financières dans le sens où tous inputs erratiques voire chaotiques des IA seraient maitrisables.

Enjeux pour les superviseurs (partie 3 du document)

Question n°7 : Pensez-vous qu’il existe des modèles d’affaires utilisant de l’IA qui ne peuvent pas se développer à cause des règlementations du secteur financier ? Si oui, pouvez-vous préciser la problématique et la ou les dispositions réglementaires en cause ?

Le niveau de technicité que demande la réglementation, en terme de contrôle de la production, l’explicabilité, la gestion des données, sa gouvernance, suppose une organisation ouverte aux infrastructures data et aux outils industriels de calcul. Une frange d’institutions financières pourrait ne pas pouvoir porter cette charge.

Question n°8 : Au-delà des exigences liées au RGPD, avez-vous connaissance de processus de « gouvernance des algorithmes » développés en cohérence avec la gouvernance générale des organismes du secteur financier ? Si oui, pour quelle activité ? (partie 3.1.1)

  • MyDataBall, 70 expérimentations, banques et assurances (risk opérationnels et risk management), énergie (risk industriels).

Question n°9 : Quelle définition de l’ « explicabilité » des algorithmes vous paraît la plus utile pour la mise en œuvre d’une gouvernance et d’un contrôle des algorithmes dans le secteur financier ? (partie 3.1.2) Connaissez-vous des méthodes pratiques déjà opérationnelles pour assurer cette « explicabilité » ?

Les techniques de data visualisation sont au cœur de ce besoin de gouvernance des règles IA détectées et répertoriées. La partie de data visualisation multidimensionnelle est peu traitée, pourtant, une fonctionnalité important à la transmission de diagnostics et de partage de connaissances entre collaborateurs et gens des métiers, d’explicabilité et d’auditabilité. C’est une des avancée technologique majeure de MyDataBall.

Question n°10 : Quelles sont, selon vous, les méthodes les plus prometteuses pour assurer la fiabilité des algorithmes ? (partie 3.1.2)

Une partie de la réponse dans la question 5, le Knowledge Management devant être selon moi, un voire le principal objectif de l’IA. La piste technique prometteuse est celle de la détection de causalités par le modus ponens et le modus tollens dans les graphes.

En outre, les techniques de thermodynamiques Energie / Entropie accélèrent la détection d’attracteurs (au sens fractales) déterministes dans les données et rend robuste la détection des insights métiers.

Question n°11 : Avez-vous pris en considération, dans la définition de processus opérationnels ou de contrôle, les spécificités des interactions humains-algorithmes intelligents ? (partie 3.1.2) : réponse à la question 9.

Question n°12 : Quelles mesures de contrôle interne spécifiques appellent, selon vous, l’usage de l’IA ? (on pourra préciser en fonction du domaine dans lequel est employée l’IA, vente au client, tarification, gestion, LCBFT, modèles internes pour le calcul des exigences réglementaires, etc.)

La traçabilité des données et des règles doit être intégrée dans les outils d’architecture de l’IA

Question n°13 : Pensez-vous possible, dans le secteur financier, de confier des contrôles de « niveau 1 », de « niveau 2 » – voire de « niveau 3 » (contrôle périodique) – à des algorithmes intelligents ?

Non, il ne peut que jusqu’à un futur proche, ne répondre qu’à des tâches automatisables et ne réaliser qu’un ensemble d’IA faibles. L’intervention des sachant humain et indispensales. Cependant, l’IA peut contribuer avantageusement aux 3 niveaux de contrôle si la gouvernance de l’IA est en place (si les décideurs ont confiance dans les machines), si les techniques d’alertes et de reporting sont mises en œuvre, si la traçabilité est intégrée.

Question n°14 : Pensez-vous qu’il soit utile de préciser ou d’illustrer certains principes réglementaires en raison de l’émergence des technologies d’intelligence artificielle ? Si oui, lesquels ? tarification, innovation de marque et valorisation.

Question n°15 : Avez-vous des commentaires sur les phénomènes possibles d’évolution du marché décrits dans les parties 3.2.1 et 3.2.2 ?

Les normes édictées par l’ACPR doivent permettre d’acquérir pour les intervenants extérieures et privées un label ACPR pour le contrôle interne et l’utilisation de l’IA. Les effets négatifs de concentration, étant les plus forts) pourront ainsi être légèrement réduits.

Question n°16 : Pensez-vous que les phénomènes de mutualisation des ressources technologiques doivent être mieux reconnus, voire encouragés par les autorités de contrôle ? Si oui, dans quels domaines ? de quelle façon ?

Dans le but de la valorisation des institutions sur leurs données dans les futurs plans comptables (valorisation dans les actifs des informations récolées), il semble peu probablement qu’il y ait un accord entre les établissements pour le partage décrit dans le document.

Cependant, l’opendata payant (sic) peut permettre de partager des données peu stratégiques pour le bien de tout e monde. Déjà, l’opendata www.data.gouv.fr/, a une réelle et forte activité. Certaines initiatives sont en discussion d’ailleurs.

Question n°17 : Quels modes d’action devrait privilégier, selon vous, l’autorité de contrôle pour accompagner le développement de l’IA dans le secteur financier et faire face aux enjeux évoqués dans la partie 3 ?

Selon la note de l‘établissement en terme de transformation numérique, des actions de formations, de tests de solutions IA labélisées par l’ACPR, de tests de stresse de marché, des actions d’évangélisation et une communauté IA via l’opendata gouv.fr, peuvent être mises en place.

Question n°18 : Avez-vous des commentaires sur les pistes d’action évoquées dans la partie 3.3 du document ?

La liste du rapport est très complète. En complément, réponse à la question 17.

Question n°19 : Quels sont, selon vous, les domaines prioritaires où l’autorité de contrôle devrait fournir des indications au marché sur ses attentes pour réduire l’incertitude réglementaire éventuelle dans laquelle se développent les projets utilisant les techniques d’IA ?

La santé (mais cela concerne t il l’ACPR ?) semble être un domaine sensible et impactant de l’apport de l’IA.

Dans les analyses de marché, avoir l’axe d’analyse des établissements qui ont déployé des IA selon la cartographie de la question 4 et mesurer les progrès (benchmark) avec et sans IA. Ces informations permettront de mieux modéliser les risques goodwill de la valorisation.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *