Accueil du site > Vie de la recherche > Actualités scientifiques




Recherchez sur ce site


Une reconstitution de la parole en temps-réel grâce aux mouvements articulatoires

Des chercheurs du laboratoire Grenoble images parole signal automatique (CNRS/Grenoble-INP/Université Grenoble-Alpes) et du BrainTech Laboratory (Inserm) ont conçu un synthétiseur vocal, pilotable en temps-réel uniquement à partir des mouvements articulatoires. Il reconstitue la parole d’une personne articulant « silencieusement », sans vocaliser. Un algorithme d’apprentissage automatique, de type réseau de neurones profonds, décode les mouvements articulatoires grâce à des capteurs posés sur la langue, les lèvres et la mâchoire. Il les convertit en temps-réel en une parole de synthèse, sans restriction sur le vocabulaire. Le synthétiseur est a priori pilotable par n’importe quel locuteur, après une courte période de calibration. Les chercheurs travaillent actuellement sur une interface cerveau-machine dont l’objectif, à terme, est de reconstruire la parole en temps réel à partir de l’activité cérébrale.

Vue schématique du synthétiseur vocal pilotable en temps-réel, basé sur un algorithme d’apprentissage machine profond. © Bocquelet et al.

Bibliographie :

Real-Time Control of an Articulatory-Based Speech Synthesizer for Brain Computer Interfaces.
Florent Bocquelet, Thomas Hueber, Laurent Girin, Christophe Savariaux, Blaise Yvert.
PLOS Computational Biology.

Contacts chercheurs :

Blaise Yvert (Inserm,BrainTech) l T 04 38 78 91 38 l blaise.yvert inserm.fr
Thomas Hueber (CNRS, GIPSA-lab) l T 04 76 57 49 40 l T 06 62 17 93 49 l thomas.hueber gipsa-lab.fr

Contact presse CNRS :

Martin Koppe I T 01 44 96 43 09 I martin.koppe cnrs-dir.fr