Quand les robots deviennent des avatars, quand les avatars parlent aux robots… Hugo n’est pas loin. Lokazionel l’a rencontré pour évoquer son projet REMI, Robot Enabled for Mixed Interaction. Plongeons dans la réalité mixte.
Tout d’abord, pourquoi avoir choisi de travailler avec un robot ?
« Un robot, c'est rigolo ! Et quitte à y passer du temps, autant que cela soit motivant ! Un robot humanoïde n’est pas très performant mais sa gestuelle provoque des émotions. Les gens se reconnaissent dans les mouvements, ils vont éprouver de l’intérêt pour un objet à forme humaine pouvant aller du rejet à l’attirance. Par ailleurs, le robot est un outil utilisable avec le grand public, facile à installer, très léger. A titre d’exemple, au FabLab de Rennes, nous utilisons la fabrication de robots pour apprendre aux enfants comment la donnée est traitée. Comment elle est recueillie (entrée), stockée, utilisée (sortie). Des kits pédagogiques de robots sont assemblés : des moteurs créent du mouvement, des éléments donnent des instructions à d’autres éléments « esclaves », les capteurs perçoivent l’environnement, récoltent des données et les renvoient pour déclencher une action...»
Votre robot REMI évolue dans une réalité mixte. Expliquez un peu…
« Dans mon projet, j’ai défini un cas d’usage pour décrire les exigences fonctionnelles de mon système. En l’occurrence, il s’agit de mettre en relation des avatars et des personnes physiques. Dans ce but, j’installe une parcelle de terrain sur OpenSim sur laquelle je dispose mon robot virtuel. Simultanément, un espace réel, dans les mêmes proportions, est défini et mon robot REMI y est placé. A partir de là, si le bras rouge des robots se lèvent, cela signifie qu’il y a une présence humaine dans le carré réel ; si le bras bleu se lève, c’est qu’il y a un avatar dans la parcelle virtuelle. Quand l’avatar et la personne sont présentent en même temps, le robot les met en relation en activant un flux vidéo, visible sur un écran plat dans la réalité (la personne voit l’avatar) et un flux vidéo sur OpenSim (l’avatar voit la personne). Et elles peuvent ainsi communiquer avec la voix. Une fois cette mise en présence effectuée, un jeu peut commencer. Sur les indications de la personne réelle, l’avatar dirige le robot réel à l’aide de flèches qu’il peut toucher dans le monde virtuel et il doit atteindre une cible que lui ne voit pas. Seule la personne réelle, voit la cible. Une fois que les personnes ont collaboré indépendamment de la pseudo-frontière réel/virtuel et de manière tout à fait naturelle, elles s'apercevront elles-même de leur difficulté à raconter l'expérience en opposant les deux termes…»
Vous n’opposez donc pas le virtuel au réel ?
« Non, au contraire, je cherche à créer des espaces mixtes, des situations mixtes à travers des expériences comme Opéra bis à Rennes. Quand la personne se remémore l’événement, les mots sont les mêmes pour exprimer le virtuel comme le réel. Opposer le réel et le virtuel ne fonctionne pas. Par exemple, dans mon cas d’usage, quand je demande à quelqu’un de faire avancer le robot, il s’agit du réel ou du virtuel ? Les deux en fait ! Que le robot soit tangible ou virtuel, que le stimuli soit réel ou numérique, c’est du pareil au même. Nous pouvons vivre et agir dans les deux en même temps, nous n’augmentons pas la réalité, nous mettons les espaces réels et les espaces numériques à égalité. En fait, le co-working est l’aspect le plus important. Les gens se voient, s’entendent, ils partagent les rires, les pleurs, les émotions… Et tout cela fait plus que les paramètres techniques (réel/virtuel).»
Vous avez été aidé et soutenu par des internautes pour faire ce projet ?
« Heureusement ! Rien n'aurait été possible sans le soutien des 25 parrains et marraines de REMI qui ont effectué des donations en 75 heures afin de réunir le budget nécessaire à l'achat du kit robotique, et sans l'aide précieuse de la FrancoGrid et de Gil Rebetez qui met à disposition la sim Robots. A eux tous, merci !»
Des vidéos pour mieux comprendre REMI :