Pourquoi parler d’explicabilité ?
Un des écueils des modèles de machine learning réside dans le fait qu’ils peuvent être vus comme des « boîtes noires ». En effet, si les performances des modèles peuvent être mesurées via des métriques, leur fonctionnement interne reste parfois opaque : nous ignorons comment les données d’entrée influencent les résultats. Ce besoin de compréhension a donné naissance au champ de recherche de l’explicabilité.
Niveaux d’interprétabilité des algorithmes de Machine Learning, source : Le Monde
Explicabilité : quels enjeux ?
- Transparence et confiance : l’explicabilité d’un modèle permet de comprendre comment il arrive à un résultat et ainsi de renforcer la confiance des utilisateurs.
- Détection des biais : les données utilisées pour entraîner les modèles peuvent contenir des biais qui se répercutent sur les résultats. L’explicabilité permet d’identifier et de corriger ces biais.
- Amélioration des modèles : en comprenant mieux comment un modèle fonctionne, il est possible de l’améliorer et de le rendre plus performant.
- Conformité légales et éthiques : dans certains secteurs (médical, finance, RH, assurance), il est capital de pouvoir justifier les décisions prises par les IA.
Comment rendre un modèle explicable ?
Il existe deux principales approches :
- Approches intrinsèques : Certains algorithmes, comme les arbres de décision ou les régressions linéaires, sont simples et interprétables. Ils permettent de visualiser les facteurs influençant les résultats grâce à des graphiques d’arborescence ou les coefficients des équations. Cependant ces modèles sont souvent moins performants sur des problèmes complexes.
- Approches post hoc : Pour des modèles plus sophistiqués, il est nécessaire d’appliquer des méthodes d’explication. Les techniques les plus courantes sont :
- LIME (Local Interpretable Model-agnostic Explanations)
Cet algorithme analyse des perturbations locales autour d’une donnée et ajuste un modèle simple pour interpréter la contribution des différentes composantes d’entrée. - SHAP (SHapley Additive exPlanations)
L’algorithme attribue à chaque composante d’entrée une valeur représentant son importance dans la prédiction. Il se base sur des combinaisons d’algorithmes (comme LIME) pour expliquer les prédictions localement et globalement.
- LIME (Local Interpretable Model-agnostic Explanations)
Exemple d’illustration graphique des valeurs de Shap qui donnent l’importance de chaque composante dans les résultats du modèle sur le jeu de données Titanic à l’aide de la librairie explainerdashboard
- Cas particulier des réseaux de neurones : Les réseaux de neurones bénéficient également d’outils spécialisés permettant d’évaluer l’impact de chaque composante d’entrée ou de chaque neurone sur le résultat final. Par exemple pour les modèles d’analyse d’image, des visualisations peuvent montrer les zones d’une image qui activent le réseau, offrant ainsi une compréhension intuitive de son fonctionnement.
Exemple de visualisation des zones influant le réseau de neurones à l’aide de la librairie python captum.
Limites de l’explicabilité
Les algorithmes d’explicabilité, bien qu’utiles, offrent seulement une approximation du fonctionnement réel des modèles. Leurs résultats peuvent être influencés par les hypothèses et méthodes utilisées, conduisant à des explications partielles ou biaisées. Il faut également éviter la surinterprétation ou la simplification excessive de ces analyses. Ces outils doivent être utilisés avec discernement et en complément d’autres approches, sans confiance aveugle dans leurs conclusions.
Conclusion
L’explicabilité est un pilier important pour l’acceptation des modèles de machine learning car elle permet de mieux comprendre les décisions des modèles, de détecter d’éventuels biais, et de renforcer la confiance des utilisateurs. Elle est essentielle pour garantir une utilisation responsable et éthique de l’intelligence artificielle, notamment dans des domaines critiques. Cependant, les outils d’explicabilité doivent être employés avec prudence, car ils ne fournissent qu’une vision partielle du fonctionnement des modèles. Leur développement et leur perfectionnement restent des priorités pour construire une IA transparente, fiable et véritablement compréhensible.
Chez EURODECISION, au sein de l’OpenLab AI.DA, l’équipe R&D de data scientists a mis à disposition une plateforme intégrant les principales méthodes d’explicabilité de modèles de machine learning. Cela permet de fournir à nos équipes d’ingénieurs des outils puissants pour analyser et interpréter les décisions prises par les modèles de machine learning qu’ils développent pour nos clients.
En améliorant la transparence et la compréhension des résultats, cette plateforme contribue significativement à la qualité des modèles produits. De plus, être capable d’expliquer le fonctionnement interne des modèles mis en production ainsi que les résultats produits, permet de rassurer nos clients sur la fiabilité et la robustesse de nos solutions. Cela renforce leur confiance dans nos services et dans les solutions de machine learning et d’optimisation que nous leur proposons.
Pour en savoir plus : Intelligence artificielle et méthodes d’explicabilité