Éthique de l’Intelligence Artificielle - Archive ouverte HAL Access content directly
Lectures Year : 2022

Éthique de l’Intelligence Artificielle

L'éthique de l'Intelligence Artificielle

(1) , (1)
1

Abstract

Ce tutoriel a pour objectif de faire un état des lieux des travaux sur l’éthique de l’IA qui traitent de la transparence et de l'explicabilité de l'IA. Il sera axé principalement sur les travaux réalisés au sein de la communauté des chercheurs en IA. Néanmoins, une introduction permettant de définir l’éthique et ses origines philosophiques sera nécessaire afin d’en saisir les principes et, de lever les éventuelles confusions avec les notions de morale et de déontologie. Il est possible de classer les travaux existant en trois groupes. Un premier groupe concerne l’IA numérique; à savoir les algorithmes d’apprentissage automatique. L’accent sera mis sur l’interprétabilité qui est une composante essentielle de l’éthique pour ce type d’algorithmes. Afin de détecter les biais présents dans les données et de s’assurer que les modèles d’apprentissage fonctionnent correctement, plusieurs approches visant à expliquer ces modèles ont été proposées dans la littérature. Cette explication garantit la conformité au RGPD. Il y a plusieurs niveaux d’interprétabilité. On peut s’intéresser à l’explication des prédictions fournies par les algorithmes, à l’explication globale des modèles construits ou bien, à l’identification des variables pertinentes dans le modèle. Un autre aspect, qui contribue à l’interprétabilité des modèles, est l’injection des connaissances du domaine. Par ailleurs, différentes approches sont utilisées pour fournir une explication. D’un côté, il y a les méthodes dites «proxy» où des modèles interprétables, comme les fonctions linéaires, les arbres de décision et les règles logiques, sont utilisés pour imiter (et expliquer) les prédictions d’un modèle dit «boite noire» comme les réseaux de neurones. D’un autre, il y a les méthodes qui permettent d’identifier les paramètres (ou les variables) importants dans le modèle d’apprentissage comme les méthodes basées sur le gradient, utilisées à postériori (après la construction du modèle) et le mécanisme d’attention qui peut être intégré dans la construction des modèles. L’injection des connaissances du domaine dans un algorithme d’apprentissage automatique permet de guider ses prédictions et d’ouvrir la"boite noire"en rendant interprétables les concepts appris par le modèle. Le deuxième groupe de travaux en IA relatifs à l’éthique concerne les approches dites symboliques(ou cognitives). Au sein de ces dernières, il y a également différentes méthodes. Certaines tentent de concevoir des agents capables de respecter des règles/normes données a priori, tandis que d’autres proposent de valider à postériori qu’un agent respectera des règles éthiques qui lui sont extérieures. Certaines approches s’attachent à rendre éthiques des agents individuellement, tandis que d’autres argumentent pour une conception d’agents éthique en prenant en compte l’interaction avec leur environnement, les autres agents et l’utilisateur. Enfin, le troisième groupe concerne les approches dites numériques-symboliques, dans la mesure où elles combinent des approches numériques et des approches symboliques. C’est ce dernier type que nous illustrerons sur un cas pratique issu d’un projet en e-santé. Nous montrerons, sur des données patients, les avantages à utiliser les systèmes multi-agents pour traiter l’effet "Boite noires" des algorithmes d’apprentissage automatique.
Vignette du fichier
Abchiche-ET-Zehraoui_Tutoriel_PFIA-Ethique_27juin2022.pdf (31.44 Mo) Télécharger le fichier
Origin : Files produced by the author(s)

Dates and versions

hal-03723017 , version 1 (13-07-2022)

Identifiers

  • HAL Id : hal-03723017 , version 1

Cite

Nadia Abchiche-Mimouni, Farida Zehraoui. Éthique de l’Intelligence Artificielle. École thématique. Saint-Etienne, France. 2022, pp.100. ⟨hal-03723017⟩
66 View
8 Download

Share

Gmail Facebook Twitter LinkedIn More