Il existe deux principaux types d’approches pour parvenir à l’explicabilité des algorithmes :
- Les approches qui expliquent les décisions pour les modèles existant.
- Les approches qui modifient le modèle et/ou son processus de formation en
incorporant la capacité d’expliquer.
Les méthodes du premier groupe sont en place lorsque l’algorithme d’IA est fixe et elles donnent des indications sur les raisons pour lesquelles certaines sorties ont été produites pour l’entrée donnée.
Les approches du deuxième groupe modifient la conception de l’algorithme pour produire des explications en même temps que les prédictions ou forcent l’algorithme à produire des solutions explicables.
Dans la vidéo ci-dessous, Pavlo Mozharovskyi, professeur à Télécom Paris, Institut Polytechnique de Paris, explique les deux approches fondamentales de l’explicabilité de l’intelligence artificielle.