MIC

MIC - Interaction par Micro-Geste en Contexte

Coordinateur : Laurence NIGAY (Laboratoire d’Informatique de Grenoble)
Partenaire : Thomas Pietrzak Centre INRIA de l’Université de Lille CRIStAL

Équipe : Loki du Groupe Thématique : I2C.

Dates : 11/22 - 10/26

Résumé :

MIC vise à étudier et à promouvoir l’interaction basée sur les micro-gestes en les mettant en pratique dans des cas d’utilisation réels. Les micro-gestes sont des gestes de la main effectuée sur cette même main comme un geste de tapotement/glissement effectué par un doigt sur un autre doigt. Nous étudions l’interaction basée sur les micro-gestes ou sur la combinaison de micro-gestes avec une autre modalité et les mécanismes qui favorisent la découverte et l’apprentissage des micro-gestes dans 3 contextes d’utilisation différents : 1) Réalité Augmentée/Virtuelle car l’interaction par micro-gestes ne nécessite pas de tenir un dispositif et est moins fatigante que l’interaction « en l’air ». 2) Conduite automobile car les micro-gestes peuvent être effectués d’une main, rapidement et parallèlement à d’autres tâches. 3) L’interaction sans regarder pour des déficients visuels car les micro-gestes peuvent être effectués en s’appuyant uniquement sur la proprioception, sans regarder la main.

Abstract

MIC aims at studying and promoting microgesture-based interaction by putting it in practice in real-life use situations. Microgestures are hand gestures performed on one hand with the same hand. Examples include tap and swipe gestures performed by one finger on another finger. We study interaction techniques based on microgestures or on the combination of microgestures with another modality as well as mechanisms that support discoverability and learnability of microgestures. We focus on three different contexts of use : 1) Augmented/Virtual Reality because microgesture interaction does not require us to hold any external device and is less physically demanding than mid-air interaction. 2) Car driving because microgestures may be performed in parallel with other tasks, they only require a few seconds and only one hand. 3) Eyes-free interaction (i.e. users with visual impairments) because users can perform microgestures by relying on proprioception only, without looking at their hand.