Face à l'accroissement du nombre de fonctionnalités des ordinateurs et des contextes d'usage (ordinateur de bureau, tables augmentées, téléphones mobiles ...), les utilisateurs requièrent un espace de commande sans cesse croissant. Cela se traduit par une augmentation de la complexité des flows d'interaction, nécessitant plusieurs étapes et différents modes d'interaction. Dans ce contexte, ce projet de thèse vise à améliorer l'expressivité des commandes d'entrée sans sacrifier l'utilisabilité en s'appuyant sur des interactions multi-points effectuables sans la vision. Ce projet cible notamment les utilisateurs visuellement déficients. LEscontextes d'utilisation sont nombreux : - lors d'exploration de cartes multisensorielles; - lors d'édition de dessins audio-tactiles; - lors d'exploration de graphiques sur un appareil mobile (tablette, téléphone). Le but de ces recherches est de trouver de nouvelles manières d'améliorer ces interactions.