- 9h30 – 10h : Ouverture & Introduction de la journée.
Session matinale |
- 9h30 : Ouverture
- 10h : « Simulation des systèmes multi-robots : outils et enjeux », par Olivier SIMONIN (INRIA / INSA Lyon)
Résumé
La simulation de robots autonomes est une activité de plus en plus importante dans l’étude des dernières avancées en matière d’IA pour la robotique. En effet, la robotique ne cesse d’évoluer vers plus d’interactions avec l’environnement (apprentissage), avec d’autres robots (communications, flottes) et avec les humains (cobotique). Tous ces enjeux nécessitent davantage d’évaluations avant de déployer les robots en conditions réelles. Le coût grandissant de la mise au point des systèmes robotiques explique aussi le besoin de gagner du temps en exploitant la simulation. C’est particulièrement vrai avec l’avènement de l’apprentissage profond, qui en étant une méthodologie très prometteuse pour la robotique est aussi très gourmande en expériences. Aujourd’hui, la quasi-totalité des apprentissages est d’abord menée en simulation, avant de passer au transfert vers le réel (sim2real). Plus généralement, la simulation est utilisée pour étudier et optimiser les paramètres d’un système robotique complexe. Dans cet exposé, nous illustrerons ces problématiques et présenterons quelques outils du domaine. Un focus sera donné sur la simulation des flottes de robots. Olivier SIMONIN est Professeur à l’INSA de Lyon et responsable de l’équipe-projet INRIA Chroma, au laboratoire CITI. Ses principaux domaines de recherche sont la prise de décision dans les systèmes multi-agents (planification, apprentissage, auto-roganisation) et la robotique mobile distribuée (mécanismes de coordination et de coopération, robotique en essaim). Ses domaines d’application sont la robotique d’exploration, de service, et le transport intelligent. Depuis 2002, il a publié 16 articles dans des journaux et plus de 50 articles dans des conférences internationales (eg. AAMAS, IROS, ICRA, IJCAI, ECAI). Il a encadré 16 thèses (dont 5 en cours) et participe à plusieurs projets européens et nationaux (eg. H2020 BugWright2, ANR CONCERTO, ANR Chaire IA REMEMBER, Inria-DGA DynaFlock).http://perso.citi-lab.fr/osimonin/
- 11h : « Apprentissage automatique pour l’amélioration de la qualité de modèles », par Grégory BEURIER (CIRAD / Université Montpellier)
Résumé
L’Intelligence Artificielle et le Machine Learning en particulier, apportent aujourd’hui de nouveaux outils adaptés à une démarche de modélisation, que ce soit en amont (conception et développement) ou en aval (simulation, interprétation, amélioration). Dans cette présentation, nous nous inscrivons dans ce contexte en abordant les travaux que nous réalisons au sein de l’équipe PhenoMEn du CIRAD pour améliorer la précision et la fidélité de nos modèles de plantes. Plus particulièrement, nous montrerons quels sont les éléments sur lesquels nous agissons ainsi que les techniques que nous déployons pour chacun d’eux : amélioration des paramètres en entrée (optimisation à base d’algorithmes génétiques, transformation à base de réseaux de neurones récurrents, prédiction à base de réseaux de neurones convolutionnels), amélioration des données en sortie (transformation à base de réseaux de neurones récurrents), amélioration automatique du modèle (modification des processus à base de programmation génétique et de réseaux de neurones récurrents). Grégory BEURIER est chercheur en informatique et modélisation au CIRAD au sein de l’UMR AGAP (Amélioration génétique et adaptation des plantes méditerranéennes et tropicales). Après un doctorat en vie artificielle et systèmes multi-agents au LIRMM et un post-doc en modélisation de systèmes complexes biologiques à l’IRD, Grégory a co-fondé et exercé pendant 8 ans le rôle de directeur scientifique chez MEZOA autour de problématiques IA et simulation. Au CIRAD depuis 2016 au sein de l’équipe PhenoMEn, il est responsable du développement et de la maintenance de plusieurs modèles de plantes ainsi que de la mise en place de technique d’apprentissage automatique pour l’analyse de données biologiques et l’amélioration de modèles.
- 11h45 : Pause
- 12h00 : « Vers des équipes humains-IAs : Écosystèmes d’intelligence pour cas d’utilisation à fort enjeu », par Clodéric MARS (AI-R) (en visio)
Résumé
Lorsqu’il s’agit de cas d’utilisation sensibles ou à fort enjeu, comme la répartition des secours d’urgence ou la gestion du trafic aérien, l’expertise, le bon sens et la sensibilité des humains ne peuvent être remplacés par l’IA ; l’apport de ces qualités humaines doit être préservé. Lorsque les enjeux et le niveau de complexité sont élevés, l’assistance de l’IA peut aider les humains à donner un sens à l’immense quantité de données et à ne pas être dépassés. En retour, les humains peuvent aider l’IA à comprendre le contexte général et à prendre des décisions complexes en toute confiance. Dans cet exposé, nous expliquerons comment la création d’expériences partagées entre les humains et les IA permet de surmonter les limites des techniques d’IA traditionnelles afin de créer des équipes humains-IAs efficaces. Nous nous attarderons sur quelques méthodes qui ont été développées ces dernières années à l’intersection des mondes de l’apprentissage par renforcement, des systèmes multi-agents, de l’apprentissage avec humains dans la boucle, du “Active Learning”, … Nous présenterons ce que nous avons appris en construisant de tels écosystèmes d’intelligence à l’aide de Cogment, notre plateforme open-source, et nous vous montrerons comment vous pouvez appliquer ces principes dans le cadre de vos travaux. Clodéric Mars est “VP of Engineering” chez AI Redefined. Depuis plus de 15 ans, il poursuit un objectif : favoriser la collaboration entre Humains et IAs. A l’INRIA puis Golaem et MASA Group, il a travaillé sur les techniques d’IA explicites appliquées aux jeux vidéo, à la simulation et aux effets spéciaux. Clodéric a contribué au développement d’IA utilisées, par exemple, pour créer des figurants virtuels pour « Game of Thrones » ou pour des entraînements militaires dans plus de 20 pays. En 2015, il a cofondé craft ai pour se concentrer sur l’apprentissage artificiel explicable, il a aidé à construire une équipe multidisciplinaire et un produit qui a été utilisé pour déployer des IA en production pour plus de 10 clients B2B. En 2020, il rejoint AI Redefined pour accélérer le développement de la plateforme d’orchestration Cogment afin de favoriser la synergie entre Humains et IAs.
|
Session post-méridienne |
- 14h30 : « Simulations and risk, from simulations in simulation to agent-based model and reinforcement learning« , par Arthur CHARPENTIER (Université du Québec (Canada)) (en visio)
Résumé
After a brief epistemological introduction about generating random sequences, we will focus on two applications. We will start with nested techniques (or simulations in simulations) in the context of life insurance guarantees. Then, we will discuss agent-based model algorithms, to study pandemics on graphs, and finally, we will briefly mention reinforcement learning techniques, and their use in economics. Arthur CHARPENTIER is currently a professor at UQAM, Université du Québec, in Montréal. Arthur has worked on risk modeling and econometric models, published several books (« Computational Actuarial Science with R » is the most recent), and about 100 articles. His latest work focuses on fairness, bias and discrimination in predictive models.
- 15h30 : « SCAMP : a Stigmergic Approach to Modeling Intelligent Behavior », par H. VAN DYKE PARUNAK ( Parallax Advanced Research, Beavercreek (USA)) (en visio)
Résumé
SCAMP (Social Causality with Agents using Multiple Perspectives) is a social simulator that incorporates a realistic array of psychological phenomena. Its central assumption is that the major causal forces in a social scenario are the choices made by the participants, which include recognizing a dynamically changing array of accessible options and selecting among them, based on actor preferences over the features of options (tactical choice), longer range desires or goals (strategic choice), and thinking into the future (mental simulation), under the influence of social interactions. All of these features are classically associated with intelligence, and a computational system that instantiates them is considered to manifest Artificial Intelligence. Drawing on Herbert Simon’s insight about an ant on a beach, SCAMP shows how such behavior can result, not from internal symbolic reasoning, Bayesian inference, or neural networks, but from stigmergic dynamics among ant-like agents in an external environment that encodes the desired causal constraints. This talk will explain the origins of SCAMP, describe its causal language, illustrate the behaviors it generates, and speculate about its implications for future research. H. VAN DYKE PARUNAK (Van) est Senior Research Scientist avec Parallax Advanced Research, une société dédiée à la science de « intelligent teaming » (c’est-à-dire, la coopération des humains avec systèmes autonomes), et aussi président de ABC Research, LLC, une société pour la recherche dans « Agent-Based and Complex Systems » (donc ABC). Il a été vice-président pour l’innovation technologique chez Axon Connected, scientifique senior chez Soar Technology, et directeur scientifique (« Scientific Fellow ») chez le Industrial Technology Institute et ses successeurs depuis 1984 jusqu’à 2013. Il est auteur ou co-auteur de plus que 200 publications scientifiques, directeur fondateur de IFAAMAS, et membre de plusieurs comités éditoriaux (JAAMAS, Swarm Intelligence) et comités de la conférence (ICMAS, ICMAAS, MABS). Il est titulaire d’un AB en la physique de Princeton University (1969), un MS en les Sciences de Computation et Communication de University of Michigan (1982), et un PhD en langues et civilisations du Proche-Orient ancien (1978). Il s’est spécialisé en intelligence par essaim et ses applications à la fabrication, le défense, l’analyse, et les systèmes sociaux.
- 16h30 : Pause
- 17h00 : « Facing Complexity with Self-organization », par Carlos GERSHENSON (Universidad Nacional Autónoma, México (Mexique)) (en visio)
Résumé
Complex systems are characterized by interactions which produce novel information, limiting their predictability. Thus, adaptation becomes necessary when dealing with complexity. Self-organization can be used to build adaptive systems and steer through their inherent complexity, by regulating interactions rather than predicting and imposing behaviors. I will exemplify the potential of self-organization with two case studies: traffic light synchronization and public transport regulation. A generalization of the techniques presented becomes applicable to a broad range of scenarios, with the possibility of considerably improving the performance of current systems. Carlos GERSHENSON is a tenured, full time research professor at the computer science department of the Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas at the Universidad Nacional Autónoma de México (UNAM), where he leads the Self-organizing Systems Lab. He is also an affiliated researcher at the Center for Complexity Sciences at UNAM and coordinator of the Complexity Sciences National Laboratory. He was a Visiting Professor at MIT, Northeastern University, and ITMO University. He was a postdoctoral fellow at the New England Complex Systems Institute. He holds a PhD summa cum laude from the Vrije Universiteit Brussel, Belgium and an MSc degree in Evolutionary and Adaptive Systems from the University of Sussex, UK.
|
|