GT EXPLICON

Explicabilité et Confiance

Responsables

Thématiques et objectifs

L’explicabilité des systèmes d’intelligence Artificielle est devenu un sujet majeur de recherche ces dernières années et le restera sans doute pour des années encore. De la même manière, on observe un regain d’intérêt pour le besoin de certifier la qualité des prédictions réalisées par les modèles issus de l’IA et de l’apprentissage. Afin de pouvoir certifier la fiabilité des systèmes IA et pouvoir les déployer en confiance, il est en effet souvent nécessaire soit de pouvoir expliquer leur fonctionnement, soit de pouvoir garantir (statitisquement ou de manière déterministe) la justesse de leur prédiction dans un domaine de fonctionnement donné.

Ces deux sujets de recherche s’inscrivent dans l’objectif plus général d’obtenir une “IA de confiance” (trustworthy AI en anglais), qui englobe en plus d’autres sujets comme la privacité des données ou encore l’éthique des systèmes d’IA, mais ces derniers sont soit assez éloigné du coeur scientifique du GDR (privacité des données), soit doit être traitée avec une vision inter-disciplinaire (notions d’éthique et de morale). Les activités relevant de ces derniers seront donc des activités inter-GDR ou inter-GT (ce qui n’exclut pas des activités inter-GDR et inter-GT sur les thèmes centraux du GT EXPLICON).

Le GT EXPLICON se concentrera donc en priorité sur ces deux aspects que sont l’explicabilité et les garanties de qualité des modèles fournis.