Thèse de Milad Jamalzadeh

Interaction gestuelle sans regarder avec un téléphone en utilisant le retour haptique

Les smartphones sont devenus essentiels à la vie moderne et jouent un rôle crucial dans diverses situations, même lorsque les utilisateurs ne peuvent pas se concentrer pleinement sur l'appareil. Dans des scénarios où l'attention visuelle est divisée, comme la conduite, la capacité de dessiner des gestes avec une main sur un écran tactile sans regarder le téléphone est très bénéfique. Ces gestes permettent aux utilisateurs d'effectuer des actions telles que répondre aux appels ou envoyer des messages prédéfinis sans effort. De plus, le retour haptique peut partiellement remplacer le retour visuel dans des situations de déficience visuelle. Il peut informer les utilisateurs des entrées réussies ou fournir des informations sans nécessiter d'attention visuelle. Cette thèse explore l'amélioration de l'interaction gestuelle à une main et sans regarder avec les smartphones grâce au canal haptique, et est structurée en plusieurs études abordant différents aspects de cette interaction. Nous commençons par étudier la production de gestes sans regarder dans divers scénarios de déficience situationnelle, montrant les différences entre la production de gestes sans regarder et avec une vue directe sur le téléphone. Ensuite, deux études examinent l'impact des facteurs environnementaux, tels que la vitesse de déplacement de l'utilisateur, la localisation du téléphone et le multitâche, sur la production de gestes sans regarder. Nous trouvons que sous une tâche saturant l'attention, les utilisateurs produisent les gestes plus rapidement, alors que lors d'une tâche physiquement exigeante, le mouvement du doigt est plus rapide mais sur une zone plus petite. Trois autres études visent à améliorer l'entrée gestuelle sur les écrans tactiles en utilisant le retour haptique dans des scénarios de déficience visuelle. Nous examinons d'abord le retour haptique pour la production gestuelle sur un smartphone dans une poche. Puis, nous comparons le retour localisé du moteur de vibration du smartphone au retour distant d'une montre connectée, et constatons que le retour localisé améliore la confiance des utilisateurs pour produire des gestes. Enfin, nous améliorons la tâche de ciblage sur un bouton virtuel avec des textures haptiques, augmentant les performances des utilisateurs dans cette tâche. Nous explorons aussi l'utilisation du retour haptique pour améliorer la sortie de l'interaction, avec le concept Hap2Gest qui combine gestes sans regarder et retour haptique. Une étude d'élicitation montre une préférence pour les gestes avec des coins nets, et nous testons le retour haptique sur des gestes circulaires. Nous constatons que les utilisateurs perçoivent la longueur des arcs circulaires comme plus courte qu'elle ne l'est réellement. De plus, la récupération des données numériques à partir de gestes circulaires montre des variations significatives dans les formes des arcs produits librement, menant à des estimations inexactes de leur position. Nous recommandons donc l'utilisation de gestes avec des coins nets pour Hap2Gest. Cette thèse contribue au domaine de l'interaction humain-machine en fournissant une analyse complète du retour haptique dans les interactions gestuelles sans regarder. Les résultats offrent des informations précieuses pour concevoir des techniques d'interaction efficaces et améliorer l'utilisabilité des smartphones dans des scénarios de déficience visuelle.

Jury

M. Laurent GRISONI Université de Lille Directeur de thèse, Mme Laurence NIGAY Université Grenoble Alpes Rapporteure, M. Vincent LEVESQUE École de technologie supérieure Examinateur, Mme Yosra REKIK Université Polytechnique Hauts-de-France Examinatrice, M. Romain ROUVOY Université de Lille Examinateur, Mme Brock ANKE ENAC Toulouse Examinatrice, M. Jean VANDERDONCKT Université catholique de Louvain Rapporteur.

Thèse de l'équipe MINT soutenue le 03/10/2024