Le projet

Favoriser l'interaction 3D sur des surfaces tactiles

Usages des interfaces tactiles, de la 2D à la 3D

L’utilisation massive des surfaces tactiles dans des équipements de type iPhone, tables ou écrans  interactifs, est en train de révolutionner les usages et les interfaces utilisateurs. Cette approche tactile a largement été explorée pour les applications fondées sur des tâches d’interaction bi-dimensionnelles (navigation dans une carte, visualisation de photos…), qui tirent aujourd’hui parti des nombreux avantages offerts par le tactile (attractivité, intuitivité, rapidité…). En revanche, l’exploitation de ces propriétés dans un espace tri-dimensionnel est loin d’être autant explorée : la mise en place de techniques efficaces pour une interaction tactile instinctive entre un utilisateur et un environnement 3D interactif constitue un véritable défi de recherche.

Rendre l'interaction 3D plus directe et plus efficace

La finalité du projet InSTInCT est de contribuer à augmenter la diffusion des technologies 3D interactives, depuis des usages professionnels jusqu’à des usages grand public, notamment pour des lieux publics de type musée, salle de classe, ou encore hall de gare.
Il s'agit de considérer les approches où l’utilisateur interagit directement avec les environnements 3D au moyen de surfaces tactiles. InSTInCT étudie tant les interfaces mono-point que multi-points (multitouch en anglais), c'est-à-dire capturant et traitant plusieurs contacts simultanés. Au travers de ces nouvelles interfaces, matérielles comme logicielles, l'objectif est de rendre l’interaction 3D plus directe et plus efficace, pour favoriser l’émergence de nouveaux types d’applications qui permettront à un large public de mieux comprendre, mieux apprendre, mieux analyser ou encore mieux concevoir. L’omniprésence d’informations 3D est en majeure partie limitée par des techniques d’interaction peu abordables ; la plupart des recherches autour du tactile se concentrent sur ses applications 2D plutôt que sur des extensions technologiques au monde 3D.

Un partenariat complémentaire

Pour relever au mieux ce défi, Ie projet InSTInCT est porté par  un consortium où chaque partenaire, indépendamment et dans son domaine propre, a déjà apporté quelques embryons de réponse, et profite de la synergie issue du regroupement des compétences complémentaires de chacun, des problématiques les plus fondamentales aux aspects les plus pratiques, du matériel au logiciel.

En particulier, les équipes de recherche de l’INRIA (communes avec l’université Bordeaux 1 et l’Université de Lille 1) apportent leurs compétences dans le domaine des interfaces, des facteurs humains, des technologies 3D interactives ou encore de la vision par ordinateur. L’expertise de la société Immersion quant à la mise au point de périphériques innovants apporte une garantie pour la réalisation efficace de prototypes répondants aux objectifs du projet, tout comme l’assurance de leur adéquation avec le marché. L’implication forte de Cap Sciences, centre de culture scientifique, technique et industrielle, renforce une prise en compte continuelle des besoins et des contraintes pour des usages grand public, ainsi qu’une évaluation et une validation des approches proposées, dans des conditions réelles d’utilisation.

 


Organisation du projet

 

Tâche T1 : Expérimentations et diffusion

Cette tâche assure le lien entre le projet et le monde extérieur. D’une part, la mise en place de plateformes de tests et de démonstrateurs permettra de mieux comprendre et de mieux prendre en compte les besoins et les contraintes des utilisateurs, de confronter les développements des autres tâches du projet au terrain, et de structurer leurs résultats autour d’entrées/sorties concrètes. D’autre part, cette tâche aura pour vocation la diffusion des techniques que nous mettrons au point pour la création de nouveaux usages : éducation, usages professionnels, et ainsi de suite.

Tâche T2 : Interaction tactile

Nous chercherons ici à mieux maitriser les processus d’interaction entre un utilisateur et une scène 3D lorsque le périphérique d’entrée utilisé est une surface tactile. Dans cette tâche, nous utiliserons des matériels existants de natures variées et capables de récupérer la position d’un ou de plusieurs doigts : téléphones portables, TabletPC, tables, grands écrans. Au niveau sensori‐moteur, nous chercherons à mieux comprendre les relations entre les caractéristiques de ces dispositifs et la performance de l’utilisateur. Au niveau fonctionnel, nous nous appliquerons à mettre au point des techniques d’interaction adaptées à ce nouveau contexte d’interaction, pour la réalisation de tâches 3D telles que la navigation, la manipulation, ou encore l’exploration de volume.

Tâche T3 : Interaction enrichie

Les dispositifs tactiles actuels sont capables de récupérer la position des doigts de l’utilisateur. Au sein de la tâche 3 nous chercherons à dépasser cette modalité d’entrée pour enrichir les processus d’interaction. En particulier, nous explorerons les potentialités d’une interaction qui prennent en compte de nouveaux paramètres en entrée comme l’orientation des doigts, l’identification des doigts, ou encore la distance à la surface. Nous chercherons aussi à tirer partie d’une interaction multi‐sensorielle où des informations haptiques permettront d’enrichir le retour visuel. Finalement, nous chercherons à mettre au point des dispositifs exploitant des géométries de surfaces variées (sphères, « étagères »,…) et, plus généralement, présentant des caractéristiques en rupture avec les propriétés des surfaces tactiles d’aujourd’hui (dureté, forme, taille…).

Tâche T4 : Capitalisation et unification

La tâche 4 a pour objectif de consolider et d’unifier les compétences acquises afin de favoriser la diffusion de nos résultats. Au niveau matériel et capture des mouvements, nous nous attacherons à améliorer et à stabiliser les technologies de captures à base de vidéo. Nous nous appliquerons ensuite à définir une architecture logicielle permettant d’unifier les différents résultats obtenus. En particulier, nous développerons une API permettant de récupérer les interactions de l’utilisateur à différents niveaux sémantiques : liste de points, vecteurs et rotations, matrices, langages gestuels orientés 3D, et ainsi de suite.

 
Bookmark and Share
Votre notation : Aucun Moyenne : 4 (3 votes)