Gaëlle Jouis, doctorante au sein des équipes DUKE et IPI, soutiendra sa thèse intitulée » Explicabilité des modèles profonds et méthodologie pour son évaluation : application aux données textuelles de Pôle emploi » / « Explainability of deep models and methodology for its evaluation: application to textual data from Pôle emploi »
Le 14 février à 14h, amphi 1, bâtiment Ireste à Polytech.
Résumé:
L’intelligence Artificielle fait partie de notre quotidien. Les modèles développés sont de plus en plus complexes. Les régulations telles que la Loi Pour une République Numérique orientent les développements logiciels vers plus d’éthique et d’explicabilité. Comprendre le fonctionnement des modèles profonds a un intérêt technique et humain. Les solution proposées par la communauté sont nombreuses, et il n’y a pas de méthode miracle répondant à toutes les problématiques.
Nous abordons la question suivante : comment intégrer l’explicabilité dans un projet d’IA basé sur des techniques d’apprentissage profond?
Après un état de l’art présentant la richesse de la littérature du domaine, nous présentons le contexte et les prérequis de nos travaux. Ensuite nous présentons un protocole d’évaluation d’explications locales et une méthodologie modulaire de caractérisation globale du modèle. Enfin, nous montrons que nos travaux sont intégrés à leur environnement industriel. Ces travaux résultent en l’obtention d’outils concrets permettant au lecteur d’appréhender la richesse des outils d’explicabilité à sa disposition
Abstract:
Artificial intelligence is part of our daily life. The models developed are more and more complex. Regulations such as the French Law for a Digital Republic (Loi Pour une République Numérique) are directing software development towards more ethics and explainability. Understanding the functioning of deep models is of technical and human interest. The solutions proposed by the community are numerous, and there is no miracle method that answers all the problems. We address the following question: how to integrate explainability in an AI project based on deep learning techniques?
After a state of the art presenting the richness of the literature in the field, we present the context and rerequisites for our work. Then we present a protocol for evaluating local explanations and a modular methodology for global model characterization. Finally, we show that our work is integrated into its industrial environment. This work results in concrete tools allowing the reader to apprehend the richness of the explicability tools at their disposal.