Disposer de systèmes d’intelligence artificielle capables de fournir des explications sur leur fonctionnement et de traduire leurs opérations en des résultats intelligibles est une condition essentielle pour évoluer dans un monde d’IA de confiance.
C’est un souhait et un objectif tant pour les scientifiques, les data scientists, les vendeurs de solution, les utilisateurs, les citoyens, la puissance publique…
Quelles sont les approches actuelles et les progrès récents, et quelles sont les limites et les verrous toujours présents ? Accessible (un état de l’art sera tout d’abord présenté) et pratique (des cas d’usages seront discutés), ce rendez-vous est conçu pour voir concrètement comment et où disposer d’explicabilité dans un système d’IA actuel. Il est également l’occasion de partager des expériences sur cette question, entre monde de la recherche et praticiens.
[programme en cours de finalisation ; intervenant/es supplémentaires possibles]
Suivez l'actualité
du Technopôle Brest Iroise sur