Accueil du site > Vie de la recherche > Actualités scientifiques




Recherchez sur ce site


Le son de notre propre voix influence nos émotions

Des chercheurs ont créé une plate-forme audio numérique qui peut modifier le ton émotionnel de la voix de participants pendant qu’ils parlent, pour la rendre plus gaie, triste ou effrayée. De nouveaux résultats montrent qu’à l’écoute de leur voix manipulée, l’état émotionnel des participants change dans le sens de la modification apportée.

« On connaît encore très mal les mécanismes qui sont mis en jeu par la production des émotions vocales », explique l’auteur principal de l’étude Jean-Julien Aucouturier du laboratoire Sciences et Technologies de la Musique et du Son (STMS - CNRS/Ircam/Ministère de la culture et de la communication/Université Pierre et Marie Curie). « De précédentes recherches ont suggéré que les personnes essaient de contrôler la façon dont elles expriment leurs émotions, par exemple en essayant de ne pas paraître affectées par un événement, ou en se forçant à sourire même si ce n’est pas sincère. Nous voulions étudier à quel point les personnes ont conscience de leurs propres expressions émotionnelles. »

Dans cette première étude utilisant une plate-forme audio numérique, et publiée dans les Proceedings of the National Academy of Science (PNAS), les participants lisent un court texte à voix haute tout en écoutant avec un casque leur voix, modifiée à leur insu pour être plus gaie, triste ou effrayée.

L’étude montre que les participants n’ont pas perçu la modification réalisée sur leur propre voix, mais que cette écoute a en plus influencé leur humeur dans le sens de la modification apportée. Cela montre que les participants ne contrôlent pas leur propre voix dans un but spécifique, et qu’ils écoutent leur voix pour savoir comment ils se sentent.

« Le rapport qui existe entre l’expression et l’expérience d’une émotion est l’objet d’un très vieux débat en psychologie », ajoute Petter Johansson, co-auteur de l’étude à l’Université de Lund en Suède. « C’est la première mise en évidence d’un effet de rétroaction dans une expérience émotionnelle dans le domaine auditif ».

Les modifications émotionnelles des voix ont été produites par des algorithmes de traitement du signal audionumérique pour simuler les caractéristiques acoustiques d’une émotion vocale. Par exemple, pour la manipulation « joyeuse », la hauteur de la voix est modifiée avec un algorithme de décalage et d’inflexion de pitch pour la rendre plus positive, la plage dynamique de la voix est augmentée avec un algorithme de compression pour la rendre plus confiante, et son contenu spectral est modifié avec un filtre passe-haut pour la rendre plus exaltée.

Les chercheurs estiment que ce nouvel outil de transformation de voix ouvre de nombreuses pistes de recherche.

« Jusqu’à aujourd’hui, ce type de manipulation émotionnelle de la voix n’avait jamais été réalisé sur de la parole en temps-réel, mais seulement sur des segments audio enregistrés », explique Jean-Julien Aucouturier. « Nous mettons notre plate-forme à disposition en téléchargement open-source sur notre site web, et invitons toute personne intéressée à télécharger et expérimenter avec ce nouvel outil. »

Pour des applications plus grand public, Katsumi Watanabe, l’un des co-auteurs japonais de l’étude à l’Université Waseda et à l’Université de Tokyo, estime que la plate-forme pourrait également être utilisée à des fins thérapeutiques par exemple, pour des troubles de l’humeur pour induire un changement d’attitude positive en racontant des événements chargés émotionnellement avec un ton de voix artificiellement modifié. Cela pourrait aussi augmenter l’expressivité des chanteurs d’un karaoké ou lors de concerts live, ou pour contrôler l’atmosphère émotionnelle des conversations lors de réunions ou de jeux vidéo en ligne.

L’étude a été réalisée par des chercheurs du laboratoire Sciences et Technologies de la Musique et du Son (STMS - CNRS/Ircam/Ministère de la culture et de la communication/Université Pierre et Marie Curie) et du laboratoire LEAD de l’Université de Bourgogne en France, de l’Université de Lund en Suède, et des Universités de Waseda et de Tokyo au Japon.

Publication : Aucouturier, J-J., Johansson, P., Hall, L., Segnini, R., Mercadi, L., Watanabe, K. Covert digital manipulation of vocal emotion alter speakers’ emotional states in a congruent direction. Proceedings of the National Academy of Sciences (PNAS).

Logiciel disponible au téléchargement sur le site : http://cream.ircam.fr

Contacts : Jean-Julien Aucouturier, chercheur au laboratoire STMS (CNRS/Ircam/Ministère de la culture et de la communication/Université Pierre et Marie Curie)

Petter Johansson, Researcher and associate in Cognitive Science at Lund University