L’Association Française pour l’Intelligence Artificielle (AFIA), le groupe de travail Aspects Computationnels de l’Éthique (ACE) du GDR RADIA et Inria Bordeaux ont organisé des journées « Société et IA » les 1er et 2 juillet 2024 dans le cadre de la Plate-Forme Intelligence Artificielle de l’AFIA (PFIA 2024).
Depuis plusieurs années, des comités réunis à l’initiative d’université, d’États, de puissances supra-étatiques comme la Commission Européenne, de sociétés savantes ou d’organisation non gouvernementales réfléchissent aux questions d’éthique de l’Intelligence Artificielle et à sa régulation. Ces réflexions ont abouti entre autres sur la notion de systèmes informatiques dignes de confiance qui sont à mettre en perspective avec les problématiques en éthique artificielle.
Ces journées avaient pour objectif de réunir les communautés travaillant sur l’Intelligence Artificielle de confiance, l’éthique artificielle et plus généralement sur tout ce qui est en lien avec l’impact social de l’Intelligence Artificielle. Dans une volonté d’ouverture tant aux communautés de recherche travaillant déjà sur ces problématiques, qu’aux non-spécialistes intéressés, nous avons encouragé toutes les contributions relatives à ces sujets, qu’elles portent sur les aspects techniques, juridiques, philosophiques ou sociologiques de l’Intelligence Artificielle ou sur les impacts industriels de son déploiement.
la réglementation des systèmes d’intelligence artificielle
l’intelligence artificielle frugale
la modélisation du raisonnement éthique
la prise de décision juste et équitable
le respect de la confidentialité
la transparence et la lisibilité des décisions automatisées
l’explicabilité des décisions automatisées
la prévention des biais et de la discrimination
Programme
Lundi
Session 1
14h50 : «Ouverture des journées» par Frédéric Alexandre, Grégory Bonnet, Ikram Chraibi Kaadoud, Jean-Gabriel Ganascia.
15h00 : «Un besoin de Confiance Artificielle pour l’Intelligence Artificielle» (conférence invitée) par Laurent Simon.
résumé
« L’Intelligence Artificielle (IA) est au contact d’un nombre croissant de nos activités, suivant de peu la numérisation de tous les pans de nos vies, et ne se limitant plus au travail. Ses applications se réinventent et ouvrent sans cessent de nouveaux horizons dans une course aux performances. Cependant, si les progrès sont tout à fait impressionnants, des questions se posent sur leurs limites et les garanties que l’on pourrait en attendre. La course à la performance s’est affranchie de fondations éthiques et de confiance, qui sont devenues des problèmes annexes, à traiter dans un second temps. Pourtant, rien n’indique que cela soit simplement possible. Dans cet exposé, nous présenterons les raisons pour lesquelles nous devons être réalistes et exigeants sur la nécessaire confiance que nous devons construire autour de ces systèmes, ainsi que montreront en quoi celle-ci est malheureusement orthogonale aux progrès réalisés. »
Session 2
16h20 : «Détection de biais et intégration de connaissances expertes pour l’explicabilité en IA» (communication orale) par Matthieu Delahaye, Lina Fahed, Florent Castagnino, Philippe Lenca.
16h50 : «Modéliser la confiance d’un agent décisionnel» (communication orale) par Baptiste Pesquet, Frédéric Alexandre.
17h20 : «L’explicabilité appliquée aux modèles de diffusion» (communication orale) par Raphael Teitgen, Jeanine Harb, Jeanne Le Peillet .
Mardi
Conférence invitée
09h00 : «La réglementation de l’intelligence artificielle dans l’Union européenne» par Nathalie Nevejans.
Session 3
10h20 : «La normalisation de l’IA : un déluge de réinterprétations de l’AI Act» (communication orale) par Hélène Herman, Mélanie Gornet.
10h50 : «IA générative et désinformation : quel impact sur les rapports de force en géopolitique ?» (communication orale) par Alice Maranne, Clara Fontaine-Say, Ikram Chraibi Kaadoud.
11h20 : «Quel sens donner à l’IA de confiance ?» (conférence invitée) par Cédric Brun.
résumé
« La notion d’IA de confiance est critiquée comme un cas d’erreur de catégorie (la confiance ne pourrait concerner que les relations entre sujets humains) qui ne peut être évitée que si l’on emploie le terme confiance comme une métaphore ou si l’on réduit la confiance à la fiabilité. Dans cette intervention, nous proposons de retracer les grandes lignes des arguments philosophiques qui ont été formulés contre et pour la notion d’IA de confiance avant de proposer un cadre permettant d’espérer parvenir à aligner les systèmes d’IA avec les valeurs humaines. »
Session 4
14h50 : «L’intelligence artificielle à la lumière de la mythologie grecque : rendre compréhensible les impacts de l’IA pour le grand public» (communication orale) par Fabrice Muhlenbach.
15h20 : «Cadre conceptuel pour agents autonomes éthiques : application aux agents conversationnels» (communication orale) par Robert Voyer, Thierno Tounkara.
Session 5
16h20 : «Définition de la compatibilité pour des préférences morales : une condition basée sur la cohérence de Suzumura» (communication orale) par Guillaume Gervois, Gauvain Bourgne, Marie-Jeanne Lesot.
16h50 : «Modèle d’éthique pour les MDP multi-agents» (communication orale) par Mihail Stojanovski, Nadjet Bourdache, Grégory Bonnet, Abdel-Illah Mouaddib .
17h20 : «Équité subjective par les explications» (communication orale) par Sarra Tajouri, Alexis Tsoukiàs.
Organisation
Cet événement est organisé par Frédéric Alexandre (Inria Bordeaux), Grégory Bonnet (GREYC, Université de Caen), Ikram Chraibi Kaadoud (Inria Bordeaux), Jean-Gabriel Ganascia (LIP6, Sorbonne Université)
Gérer le consentement aux cookies
Des cookies sont utilisés pour optimiser notre site web.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
Le stockage ou l’accès technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’utilisateur.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’utilisateurs afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web à des fins de marketing similaires.