Comprendre la perception humaine : un enjeu de taille pour les robots autonomes
Pour être vraiment autonome, un robot doit être doté de la conscience de l’espace qui l’entoure.
Percevoir les obstacles, trier les informations pour n’en garder que les éléments pertinents et ne pas perdre trop de temps en calcul, voici les enjeux de la recherche axée sur la perception autonome des robots. A ce titre, un détour par les processus de perception chez l’être humain est obligatoire. Comme souvent, la nature est dans le domaine une formidable source d’inspiration.
Des recherches ont montré que les zones cérébrales des compréhensions visuelle et tactile d’une scène pouvaient se substituer l’une à l’autre, phénomène connu sous le terme de «plasticité cérébrale». De plus, la fusion des informations provenant de ces deux zones, conduisant ainsi à une perception visuo-tactile des objets, serait un processus cérébral inné. C’est pourquoi un nouveau-né à qui l’on a fait toucher un objet, sans lui montrer, posera son regard moins longtemps sur lui une fois dévoilé que sur un autre objet qu’il n’aura pas manipulé : tout se passe comme si le nourrisson «reconnaissait» l’objet.
Comprendre la perception de l’environnement par les robots
Logique donc que sa curiosité soit plus forte pour celui qu’il ne connaît pas. Ceci revient à dire que manier quelque chose nous en donne une ébauche de vision ! C’est également la raison pour laquelle les déficients visuels ont tendance à développer davantage que la moyenne leur sens tactile. Certains disposent même d’une perception très développée des masses : ils vont ainsi «sentir» un mur proche d’eux et avoir une impression de la distance qui les en sépare.
Soutenu par le programme Robea du CNRS, le projet HuPer (1), pour Human Perception, vise à mieux comprendre ces liens entre les perceptions visuelle et tactile d’une scène à trois dimensions. Si les premières applications de ces travaux concernent les personnes non-voyantes, leurs résultats devraient permettre à la robotique de franchir un pallier dans la perception par un robot de son environnement.
Evaluer tous les chemins possibles, renoncer à certains et en retenir d’autres pour une analyse plus détaillée
"Nous savons déjà que le vestibule, le petit organe de l’oreille interne qui garantit notre équilibre, joue un rôle très important dans la compréhension visuo-tactile, explique Edwige Pissaloux, chercheuse au Laboratoire de robotique de Paris et responsable du projet HuPer. Reste à comprendre sa fonction exacte. Pour analyser le fonctionnement global, nous disposons notamment d’une chaise basculante d’astronaute, capable de prendre toutes les positions, dans tous les angles. Avec cet outil, nous menons deux expériences complémentaires : la première consiste à animer le siège pour voir comment la personne assise mais en mouvement perçoit les lieux qui l’entourent. La seconde voit le décor, une sorte de monde virtuel, se déplacer dans tous les sens autour de la personne immobile."
Ce type d’expérience devrait permettre à terme de définir les rôles de chaque sens et organe dans la perception visuo-tactile et de répondre à des grandes interrogations comme celle-ci : quand nous nous déplaçons, nous le faisons selon les règles de la géométrie euclidienne : deux droites parallèles restent parallèles. Mais si nous voulons dessiner notre trajectoire, l’effet de perspective fait que les droites que l’on croyait parallèles finissent par se rejoindre ou s’écarter : nous sommes dans la géométrie riemannienne. "Alors de quel type est la représentation mentale que nous nous faisons de l’espace s’interroge Edwige Pissaloux. Euclidienne, riemannienne ou les deux ? Il semble en fait que le cerveau travaille à partir de cartes cognitives basées sur des informations saisies à l’aide de nos capteurs naturels. Notre organe cérébral évalue donc tous les chemins possibles, renonce à certains et en retient d’autres pour une analyse plus détaillée."
Une chose est sûre : plus les scientifiques avanceront dans la compréhension du processus chez l’homme, plus les chances d’avoir un robot autonome capable d’appréhender son environnement seront grandes.
(1) Le LRP(Université Paris 6), le LPPA(Collège de France) et le List(CEA) participent également à ce projet.
En Savoir +
Contacts :
Edwige Pissaloux, pissaloux@robot.jussieu.fr
Site Web du projet HuPer :
Voir aussi :