Accueil du site > Vie de la recherche > Actualités scientifiques




Recherchez sur ce site


Une forme qui s’adapte au fond

À l’occasion de CHI2016, conférence internationale de référence sur le domaine de l’interaction humain-machine (IHM), nous proposons une série d’articles pour découvrir différentes facettes de ce domaine. Ce premier article présente deux projets qui visent à faire bouger des objets et outils quotidiens comme notre bureau, notre téléphone ou notre tablette pour qu’ils s’adaptent à nos besoins.

Imaginez votre smartphone changer de forme en fonction de votre usage (téléphone, console de jeu…) ; une carte géographique dans une salle de classe qui se déformerait pour mieux percevoir le relief ; votre souris sans-fil qui retournerait toute seule sur sa base lorsqu’elle se décharge, etc. L’interaction humain-machine étudie la boucle action-perception entre un ou plusieurs utilisateurs et un ou plusieurs systèmes interactifs, et une nouvelle tendance de ce domaine se concentre sur les dispositifs capables de se déplacer et/ou de changer de forme.

Des chercheurs en IHM explorent des scénarios, poussés d’une part par les avancées récentes en robotique, en science des matériaux, en électronique, etc. ; et d’autre part par l’observation de la manière dont nous interagissons avec les objets du quotidien. En effet, la forme ou la position des objets dans le monde communique la façon de les prendre en main, leur utilisation et comment interagir avec eux. Or cette approche physique est souvent perdue lorsque l’on interagit avec les données numériques.

Cet article présente deux récents projets adoptant cette approche pour revisiter l’interaction avec la station de travail et le téléphone mobile ou la tablette.

Une station de travail vivante et intelligente

Le dispositif écran-clavier-souris a très peu évolué depuis sa mise en place. Bien que très efficace pour de nombreuses tâches de bureautique, il n’est pas adapté au travail collaboratif, à l’immersion pour les jeux, et n’est pas capable de capturer son environnement : la luminosité de la pièce, le nombre de personnes présents, la posture de l’utilisateur, un potentiel handicap de l’utilisateur, etc.

En partant de ce constat, des chercheurs ont profité de la réflexion actuelle de faire bouger les systèmes interactifs pour mieux adapter le dispositif écran-clavier-souris à nos besoins et créer des nouveaux usages. Les chercheurs en IHM ont montré à partir d’observations sur le terrain et d’interviews que, contrairement à une idée reçue, la station de travail n’est pas fixe. On change temporairement l’orientation de l’écran pour montrer son contenu à un collègue, éviter un reflet désagréable ; on déplace son clavier pour faire de la place sur le bureau, etc.

Ils ont alors développé un nouvelle station de travail (le LivingDesktop) où les dispositifs se déplacent tous seuls en détectant les intentions de l’utilisateur, pour lui faciliter la vie, lui faire gagner du temps, améliorer l’ergonomie au travail ou rendre les données numériques plus tangibles. Ils ont identifié plus d’une vingtaine d’applications dont certaines se retrouvent dans la vidéo ci-dessous. Par exemple, le clavier pourrait glisser très doucement au cours du temps (de manière imperceptible) pour éviter que l’utilisateur reste dans une position statique durant une longue période d’activité, car une mauvaise ergonomie peut avoir des répercussions sur la santé. L’écran pourrait suivre l’utilisateur durant une visio-conférence même si celui-ci se déplace dans la pièce. Dans un jeu vidéo, pour augmenter le sentiment d’immersion, la souris et l’écran vibreraient lors d’une explosion. Enfin, les dispositifs pourraient anticiper quand l’utilisateur veut poser un objet et créer de la place sur le bureau.

Une évaluation expérimentale a montré non-seulement l’utilité de ce système, mais à aussi générer de nouvelles idées d’application comme l’accessibilité pour des personnes en situation de handicap ou pour la communication non-verbale dans des open-spaces.

Publication : LivingDesktop : Augmenting Desktop Workstation with Actuated Devices de Gilles Bailly [1], Sidharth Sahdev [1], Sylvain Malacria [2], Thomas Pietrzak [2].

L’émergence de boutons sur nos appareils mobiles


L’interaction sur nos appareils mobiles passe essentiellement par un contact tactile sur un écran plat. Pourtant, on sait que l’interaction tangible est meilleure que l’interaction tactile. Elle est plus performante et préférée par les utilisateurs. Tout le monde a pu expérimenter qu’il était plus facile de taper un texte sur un clavier physique que sur le clavier tactile d’un écran de mobile !

Il n’existe pas encore de technologie permettant de faire émerger toutes sortes de boutons physiques de votre smartphone quand vous les voudriez. Néanmoins, une dernière innovation permet de créer une surface déformable grâce à des « sensels » (pixel sensible) qui peuvent monter et descendre.

Un sensel définit un élément de base qui exploite le sens du toucher, comme un pixel pour la vue. Avec cette approche, les chercheurs ont pu faire apparaître des boutons à tourner ou à glisser qui émergent de la surface d’un dispositif mobile, selon les besoins d’interaction. Ils ont confronté des utilisateurs à trois dispositifs : le premier idéal mais simulé, le deuxième prototypé avec des sensels et le troisième avec une tablette classique. Les utilisateurs effectuaient différentes tâches avec ces trois dispositifs pour les comparer. Le but était de simuler des problématiques classiques telles que le contrôle continu, comme par exemple quand vous souhaitez régler la luminosité de votre écran et que vous ajustez votre réglage. Le prototype idéal a obtenu de meilleurs résultats. La version avec des sensels a été préférée à la tablette classique pour des actions comme le réglage du son avec un bouton rotatif. Ces résultats sont un encouragement à poursuivre dans cette voie et à réintégrer petit à petit le tangible dans notre univers mobile tactile.

Publication : Emergeables : Deformable Displays for Continuous Eyes-Free Mobile Interaction de Simon Robinson [3], Céline Coutrix [4], Jennifer Pearson [3], Juan Rosso [4], Matheus Fernandes Torquato [3], Laurence Nigay [4], Matt Jones [3]

Voir aussi :


[1] Laboratoire Traitement et Communication de l’Information (LTCI - CNRS/Télécom ParisTech)

[2] Centre de Recherche en Informatique, Signal et Automatique de Lille (CRIStAL - CNRS/Université de Lille/École Centrale de Lille)

[3] FIT Lab, Swansea University , Grande-Bretagne

[4] Laboratoire d’Informatique de Grenoble (LIG, CNRS/INRIA/Institut Polytechnique de Grenoble/Université Grenoble Alpes)