Résumé

De nombreux domaines de recherche liés à l'intelligence artificielle, notamment la perception par ordinateur, ont fait d'énormes progrès au cours des dernières années. Ces progrès ont à leur tour soutenu des avancées en robotique pour l'interaction humain-robot. Ces évolutions s'accompagnent parfois d'une hégémonie des réseaux de neurones profonds dans la littérature scientifique, laissant peu de place à des approches non "big-data" pourtant intéressantes. La question sous-jacente abordée au cours de la journée porte sur les contributions du traitement du signal, de l'apprentissage machine, mais aussi des sciences sociales pour la prise en compte du partenaire humain dans l'interaction avec un robot.

La journée "Perception et interaction homme-robot" du Groupe de Travail GT5 Interactions Personnes / Systèmes Robotiques du GDR Robotique propose, au travers de 6 exposés, de s'intéresser à ces thématiques mais également de s'ouvrir à des thématiques connexes autours de la perception et des interactions sociales.

L'objectif de cette journée est de réunir tous les acteurs intéressés par ce thème : chercheurs, industriels, enseignants et étudiants du supérieur. La journée consistera en un programme d'exposés (ci-dessous) ainsi que la présentation de vidéos de démonstration proposées par des doctorants (un prix récompensant la meilleure vidéo). La journée se terminera par une table ronde sur la place de l'interaction homme-robot dans la société de demain.

Programme

08:45-09:00 Dominique Vaufreydaz, LIG, Grenoble - "Ouverture de la journée"

09:00-09:40 Juan Antonio Corrales Ramon, Institut Pascal, Clermont-Ferrand
"Facteurs humains pour la commande de robots en interaction avec des opérateurs humains"
L'interaction humain-robot doit considérer des facteurs humains dans la commande du robot. Différents facteurs ont été utilisés dans la littérature pour des tâches d'interaction physique, où le robot et l'humain manipulent ensemble des objets. Dans cette présentation, nous analyserons d'abord les différents types de facteurs à considérer pour la commande du robot. Après, nous appliquerons 3 facteurs (la confiance, l'intention et l'assistance en effort) pour la commande d'un bras manipulateur qui travaille avec un humain dans des tâches de décapage d'avions et la découpe de viande. Finalement, nous montrerons une stratégie multi-facteur de prise de décisions avec l'objectif d'optimiser l'interaction entre un robot humanoïde et un humain dans l'exécution d'un jeu d'assemblage. Tous ces contributions scientifiques montrent nos derniers travaux de recherche en interaction humain-robot à l'Institut Pascal.

09:40-10:20 Serena Ivaldi, Inria Nancy Grand-Est, Nancy
"Collaborative robotics technologies: lessons learned from using wearable sensors for ergonomy, tele-operation and exoskeleton validation"
What do have in common humanoids, exoskeletons and ergonomic assessment algorithms? In our case, wearable sensors. In the last years, in the context of the European Project AnDy, we have focused on collaborative robotics technologies centered around the human. One basic, technological problem was: how to track the human motion in a reliable way in an industrial environment? We have decided to invest in wearable motion racking technologies, which allows us to 1) measure the human movement features to compute ergonomic indicators that inform collaborative robots, and use this information to warm start optimization of simulated human movements; 2) retarget the human movement online onto a humanoid robot, in a multimodal teleoperation setting; 3) validate the use of exoskeletons in lab experiments but also realistic settings. In this talk I will present how we used this source of information to perceive the human in realtime, and how we crossed this tool with other kind of sensors - be force sensors, EMG sensors, cameras - and subjective measure instruments to further our research in human-robot collaboration.

10:20-10:35 Pause café virtuelle

10:35-11:15 Xavier Alameda-Pineda, Inria Rhône Alpes, Grenoble
"Towards audio-visual speech enhancement in robotic platforms"
Speech enhancement is the task of extracting clean speech from a noisy mixture. While the sound signal may suffice in low-noise conditions, the visual input can bring complementary information to help the enhancement process. However, when the visual signal is cluttered, one must carefully exploit visual information. In this talk, I will discuss various strategies for AV speech enhancement based on variational autoencoders. In addition, future ideas to integrate these methods in robot platforms will be discussed.

11:15-11:55 José Rouillard, laboratoire CRIStAL, Lille
"Comment servir l'homme ?"
Dans le cadre des interactions "personnes / systèmes robotiques", la perception multimodale apparait nécessaire pour répondre de manière adaptée aux besoins des humains. En utilisant différents capteurs (voix, geste, suivi du regard, ondes cérébrales…), les chercheurs essayent de proposer des solutions pour répondre au mieux aux besoins (exprimés ou détectés) des utilisateurs effectuant des tâches plus ou moins complexes. Au-delà du traitement du signal, cette perception multimodale doit également intégrer une composante sémantique. Une co-adaptation est souvent nécessaire afin que les échanges soient fructueux. Cet exposé présentera des travaux de recherche autour de la perception multimodale avec comme objectif principal la palliation du handicap et/ou l'aide à la communication, pour des personnes souffrant de troubles moteurs ou cognitifs (Parkinson, Maladie de Duchenne, Amyotrophie Spinale...).

11:55-13:30 Pause déjeuner

13:30-14:15 Présentation des vidéos du concours "démo des doctorants"

14:15-14:55 Chloé Clavel, Telecom-Paristech, Paris
"Natural Language Processing and User's Social Behaviour Analysis in Conversational AI Systems"
The last few years have seen an acceleration in the development of conversational AI systems (Alexa from Amazon, Siri from Apple, Google home, companion robots such as Pepper). Although the conversational agents offered by these companies are already on the market, taking into account the social component of the interaction is still a crucial issue for the fluidity and naturalness of the interaction. For example, based on the user's behaviours (e.g. the expression of her preferences or showing signs of boredom or frustration), a companion robot can choose the topics to be addressed in its successive interactions with humans, and propose strategies to re-engage her in the interaction. The first part of my talk will describe the challenges raised by the specific nature of social behaviours as they occur in human-agent interactions and I will propose new insights for future tractable and explainable detection models. In order to illustrate these insights, I will refer to ongoing work on hierarchical and recurrent neural networks to predict the recruiter's decision on hireability from job video interviews. As interpretability of the prediction is crucial for this task, I will present how we leverage the processing of attention mechanisms in order to visualize salient components (analyzing the social signal content of attention slices) for the decision. In the second part of the talk, I will describe the specific structure of human-agent interaction and investigate future directions based on the recent trends in neural architectures for the integration of interaction context and spontaneous speech features. Throughout my talk, I will argue that better interleaving Human Social Sciences and deep learning approaches is the step we need to take towards human-agent interaction systems that are not only more natural and user-friendly but also more performant and trustworthy.

14:55-15:35 Jean-Claude Martin, LIMSI , Orsay-  
"Interactions Sociales Multimodales pour l'Entraînement et le Coaching"
Je présenterai mes recherches et projets en cours qui consistent à s’inspirer des théories en Psychologie pour concevoir des systèmes dotés d’une intelligence sociale avec des applications à la santé et à l’éducation : (1) entraînement à des compétences sociales : interaction virtuelle et tangible pour des personnes avec autisme, patients virtuels animés exprimant des pathologies (Alzheimer, risques suicidaires) pour entraîner le personnel médical, entretiens d'embauche ; (2) coaching personnalisé et motivationnel pour tous ou pour des pathologies spécifiques.

15:35-15:50 Pause café virtuelle

15:50-16h45 Table ronde : "Quel avenir demain pour l'interaction humain-robot dans la vie quotidienne ?"

16:45-17:00 Andrea Cherubini, LIRMM, Montpellier - "Clôture de la journée"

Personnes connectées : 1