Skip to Main content Skip to Navigation

Display 

Licence


Distributed under a Creative Commons Attribution - NonCommercial 4.0 International License

Share

Metrics

Record views

26

Files downloads

11

Intelligence artificielle explicable : vers des systèmes transparents, acceptables et éthiques

2021-03-20

Ikram Chraibi Kaadoud 1, 2 Lina Fahed 1, 2
2 Lab-STICC_DECIDE - Equipe DECIDE
Lab-STICC - Laboratoire des sciences et techniques de l'information, de la communication et de la connaissance : UMR6285
Description : Dans de nombreux domaines, les mutations technologiques de ces dernières années ont mené à la disponibilité et à la prédominance de données complexes et hétérogènes. Par conséquent, de plus en plus de domaines d’application font appels aux systèmes d’intelligence artificielle (IA) dans le but de comprendre ces données, réaliser des prédictions et surtout aider l’humain à prendre des décisions. Dans notre quotidien, les prises de décisions automatisées grâce à des systèmes d’IA sont ainsi devenue une réalité quasi-omniprésente : algorithme de recommandation de médias, reconnaissance faciale, détection de cancer, etc. Dans ce contexte, l’humain, à la fois concepteur et utilisateur de tels systèmes d’IA, est un acteur incontournable. Amené à prendre des décisions basées sur ces systèmes, il engage sa responsabilité dans les choix qu’il effectue ce qui entraîne une exigence forte en termes de transparence et de compréhension des comportements de ces systèmes d’IA. Or, cette compréhension est loin d’être garantie puisque l’explicabilité des modèles (notamment les propriétés d’interprétabilité des modèles à base de réseaux de neurones) est actuellement un fort sujet de débat et d’étude au sein même de la communauté scientifique en IA. Ce qui se traduit par de la méfiance de la part du grand public face à ces systèmes considérés alors « opaque » ou « boites noires ». De nouvelles exigences sociétales sont ainsi nées récemment en faveur de systèmes d’IA explicable et transparent. Juridiquement, cela s’est traduit par l’entrée en vigueur en 2018 du règlement européen général de protection de données (RGPD) octroyant le droit à chaque l’utilisateur d’exiger une explication des processus de traitement automatique de données tels que les systèmes d’IA. Cela a eu comme conséquence de restreindre l’utilisation et l’amélioration d’un certain nombre de modèles existants tant dans l’industrie que – et surtout – dans la recherche. Face à cette crise de confiance dans les systèmes d’IA, l’IA explicable (ou XAI pour eXplainableArtificial Intelligence) s’est imposée comme une solution permettant de démystifier le comportement des systèmes d’IA et les raisons à l’origine de ce dernier. Ensemble d’approches et d’algorithmes permettant de proposer des systèmes d’IA d’aides à la décision et d’explication de ces décisions, l’XAI a pour vocation d’expliquer le raisonnement d’un système, ses points forts et faibles, ainsi que son potentiel comportement dans le futur. Tout cela dans le but de favoriser l’acceptabilité de ces systèmes en prenant en compte les aspects éthiques et transparents, tout en prenant en compte le profil de l’utilisateur cible de cette explication. La dimension humaine est donc omniprésente depuis la conception, à l’utilisation, à l’évaluation. En résumé, à travers ce talk, nous souhaitions proposer une introduction aux concepts d’explicabilité et d’interprétabilité en IA, ainsi qu’une description des grandes familles de stratégies en explicabilité d’un point de vue technique. Nous souhaitions également échanger autour des difficultés inhérentes au domaine notamment lorsque les données sont hétérogènes, ainsi que mettre en avant l’impact éthique et sociétale de ce sujet au vu de l’omniprésence des systèmes IA dans notre environnement.


https://hal.archives-ouvertes.fr/hal-03345679
Contributor : Ikram Chraibi Kaadoud Connect in order to contact the contributor
Submitted on : Wednesday, September 15, 2021 - 5:08:03 PM
Last modification on : Monday, October 11, 2021 - 2:24:03 PM