Alors que, dans le secteur bancaire, l’intelligence artificielle est aujourd’hui invoquée en tous sens et parait souvent avoir perdu tout sens autre qu’incantatoire dès lors qu’elle est devenue le sésame inévitablement associé à de nombreux développements (KYC, personnalisation des relations et banque-plateforme, …), il faut particulièrement saluer l’effort de clarification réalisé au sein du Hub France IA par les spécialistes de BNP Paribas, de la Banque postale et de Société Générale à travers un Livre blanc sur la maitrise des risques liés à l’application de l’IA dans les banques.
Certes, cela n’apprendra rien aux spécialistes du domaine mais il semble très utile de souligner notamment qu’un « modèle d’IA est souvent considéré comme une boîte noire car il est très difficile voire impossible pour un être humain de prédire la décision du modèle sur un nouveau jeu de données. Ainsi ce manque de transparence intrinsèque peut limiter la capacité du métier à valider si un modèle d’IA a un sens métier en termes de variables sélectionnées et d’influence de ces dernières sur les décisions. La méthode d’explicabilité doit également être adaptée au but recherché et au public visé. »
Pour un cas d’usage donné, les data scientists (Model Developers) et le métier (Model Owner) doivent évaluer conjointement le degré d’interprétabilité requis, que ce soit pour la validation du modèle ou les besoins de transparence pour les utilisateurs du système d’IA. En fonction des hypothèses faites sur la relation entre les variables explicatives et la variable cible, le degré d’interprétabilité change. Les modèles fondés sur des relations linéaires et monotones ou les arbres de décision ont un fort degré d’interprétabilité. Au contraire les modèles basés sur des relations non-linéaires et non monotones ont un degré très bas d’interprétabilité. L’idée principale derrière les techniques d’explicabilité (XAI33) est de fournir un certain nombre de métriques (par exemple, l’importance des variables) ou d’éléments (par exemple, l’extraction de règles) qui permettront aux modélisateurs et au métier de mieux comprendre les décisions d’un modèle.
Quantifier le risque lié au modèle suppose de le faire par rapport à une finalité qui est définie par le métier et l’usage qu’il fait du modèle. La définition de l’usage et des limites d’emploi du modèle sont donc essentielles. Si cette base est mal définie, le reste du projet sera naturellement impacté.
Or cela risque d’être fréquemment le cas, souligne le Livre blanc, du fait de la méconnaissance des métiers sur l’IA en général et des situations dans lesquelles ces techniques sont pertinentes, des situations dans lesquelles elles ne le sont pas, et les risques associés.
Disons-le plus clairement : « il est à noter que l’exposition médiatique dont jouit l’intelligence artificielle tend à exacerber ce risque en incitant des personnes peu documentées à s’engager dans des projets liés à l’intelligence artificielle pour ne pas être en reste, sans pour autant avoir la capacité (i) à bien comprendre ce que cela peut leur apporter en général, (ii) à évaluer la difficulté des tâches et (iii) à évaluer la pertinence des solutions proposées. »
Pour y remédier, il convient certainement de former généralement les métiers demandeurs aux réalités de l’IA mais aussi bien de mieux faire comprendre aux Model Developers les enjeux des métiers demandeurs.
Toutefois, au-delà de l’aspect sensibilisation, la recommandation est de parvenir à la mise en place d’une gouvernance transverse qui valide la pertinence du cas d’usage d’IA au moment de l’initiation, une fois le cadrage achevé.
En d’autres termes, la pertinence d’un projet d’IA n’est pas acquise de soi et doit être sérieusement examinée ! C’est qu’on ne joue pas impunément avec de tels outils. Dès lors que leurs principes d’explicabilité font encore l’objet de nombreuses recherches et tandis que d’importants biais peuvent en pervertir les résultats, les algorithmes ne peuvent être laissés à des apprentis-sorciers. Alors qu’il manque sans doute de recommandations opérationnelles (quid de cette « gouvernance transverse » ?), ce Livre blanc a au moins le mérite, dans le contexte actuel, de le souligner.