Les récents progrès dans le domaine de l’apprentissage supervisé ont mis en lumière la performance de méthodes complexes (réseau de neurones, boosting, etc). Les méthodes d’AI explicables permettent d’exposer les relations capturées par ces modèles dans une forme intelligible pour l'être humain. Cette étape est cruciale dans de nombreux domaines d’applications ou des problématiques de fiabilité, d’équité, ou de transparence se posent. Ci-dessous, nous proposons 2 sujets possibles dans ce domaine.
Extraction de facteurs de risques et productions d’explications contrefactuelles
Une explication contrefactuelle donne le plus petit changement à appliquer sur une variable d'entrée d’un modèle de ML (entraîné) pour changer sa prédiction, passant par exemple de la prédiction d’une classe à une autre cf:
https://christophm.github.io/interpretable-ml-book/counterfactual.html. Le travail consistera à s'approprier le sujet et, à partir d’un modèle pré-entraîné sur des données générées, à
extraire un ensemble d’explications contrefactuelles pertinentes, prenant en compte le degré d’actionnabilité des variables d’entrées, la faisabilité de l’explication, etc.
Construction de profils de risques à partir d’explications locales (SHAP)
SHAP (Shapley Additive Explanation) est une méthode très utilisée actuellement qui se sert des valeurs de Shapley pour extraire des explications locales de modèles black box. Ces valeurs donnent la contribution des variables d’entrée dans chacune des prédictions du modèle (pouvant être positives ou négatives). A partir de données médicales simulées, le sujet consistera à implémenter un modèle prédictif de risque (de développement d’une maladie chronique), utiliser SHAP pour en extraire des explications locales, et stratifier la population selon différents profils construits à partir de ces valeurs (clustering).