FR3023626A3 - Dispositif de navigation en realite virtuelle comportant une interface haptique - Google Patents

Dispositif de navigation en realite virtuelle comportant une interface haptique Download PDF

Info

Publication number
FR3023626A3
FR3023626A3 FR1456701A FR1456701A FR3023626A3 FR 3023626 A3 FR3023626 A3 FR 3023626A3 FR 1456701 A FR1456701 A FR 1456701A FR 1456701 A FR1456701 A FR 1456701A FR 3023626 A3 FR3023626 A3 FR 3023626A3
Authority
FR
France
Prior art keywords
room
operator
model
vision
immersive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1456701A
Other languages
English (en)
Inventor
Emmanuel Icart
Andras Kemeny
Paul George
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1456701A priority Critical patent/FR3023626A3/fr
Publication of FR3023626A3 publication Critical patent/FR3023626A3/fr
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Dispositif de navigation (10) en réalité virtuelle comprenant un retour haptique comportant : - une salle immersive de simulation ou CAVE (40) entourée de parois (11) et pourvue de système de détection (14) et de systèmes de diffusion (15) d'images, - un élément d'examen (21) disposé dans ladite salle et solidaire d'une interface haptique, - un moyen (25) de captation de position et d'orientation d'un point de vision (26) d'un opérateur apte à se déplacer dans ladite salle, caractérisé en ce que ladite interface haptique comporte une maquette physique transparente (20) dudit élément d'examen (21) apte à permettre la vision au travers de ladite maquette des images primaires (31, 31a) diffusées par les systèmes de diffusion sur les parois (11) de la salle immersive.

Description

DISPOSITIF DE NAVIGATION EN REALITE VIRTUELLE COMPORTANT UNE INTERFACE HAPTIQUE Domaine technique de l'invention Le domaine de la présente invention est celui des interfaçages haptiques. La présente invention concerne plus précisément un dispositif de navigation en environnement virtuel dans une salle immersive dans laquelle est disposé un élément d'examen comportant une interface haptique. La présente invention concerne un dispositif de navigation en 10 environnement virtuel représentant une structure d'architecture de véhicule automobile. Etat de la technique L'avancement technologique actuel de la réalité virtuelle permet de 15 projeter un opérateur au sein d'un univers virtuel dans lequel sont affichés divers contenus, par exemple un objet 3D ou tridimensionnel à étudier. Il est non seulement possible de visualiser différents contenus 3D mais également d'interagir avec ceux-ci en temps réel, ce qui ouvre la voie à bon nombre d'applications. La revue de projet numérique immersive par exemple se matérialise par l'utilisation de 20 la réalité virtuelle comme un outil de contrôle et un support de discussion entre les différents interlocuteurs d'un projet. Dans le domaine automobile, des maquettes numériques de véhicules peuvent alors être utilisées par différents interlocuteurs dont des designers, des ingénieurs ou des ergonomes qui peuvent dialoguer lors de réunions immersives 25 centrées sur la maquette numérique, ladite maquette servant de support de communication et d'échange de points de vue entre les différents métiers. Ladite maquette numérique permet également de vérifier que le modèle du véhicule respecte bien des critères d'architecture, d'ergonomie, de qualité perçue ou encore d'habitabilité entre autres.
Alors que les maquettes physiques sont massivement utilisées jusqu'à présent, l'objectif actuel est de réduire drastiquement leur usage car elles sont couteuses et peu écologiques. Classiquement, on commande une maquette physique qui correspond à l'état du prototype à un instant donné. Après d'importants délais, la maquette est livrée mais elle peut être déjà périmée. Par contre, une maquette numérique est disponible plus rapidement, dans une version plus à jour et modifiable en temps réel ce qui permet une plus grande réactivité de l'ensemble des acteurs et démontre l'intérêt de la maquette numérique. Un autre avantage est que contrairement aux maquettes physiques habituelles de véhicules qui sont souvent à l'échelle un quart, les maquettes virtuelles apparaissent à l'échelle 1, ce qui signifie que l'opérateur peut se mettre dans la peau d'un utilisateur final et entrer dans l'habitacle. La visualisation d'architecture de véhicule automobile dans un environnement virtuel est donc un enjeu majeur chez les constructeurs automobiles car elle permet d'accélérer les processus de conception. On utilise généralement une salle immersive qui permet de disposer d'un excellent rendu visuel et dans laquelle on déploie deux technologies pour la perception de la profondeur : la stéréovision qui exploite l'effet de disparité binoculaire et la capture et le suivi des déplacements ou « tracking » en anglais qui permet la parallaxe du mouvement. Cependant le sens du toucher n'est pas exploité. Faire appel à une modalité motrice peut cependant améliorer la perception des profondeurs contribuant ainsi à rendre plus précis le jugement des ergonomes, des designers et des experts de la qualité perçue qui utilisent la réalité virtuelle comme outil décisionnel lors des phases amont des processus de conception. Il est donc opportun de fournir un outil permettant d'améliorer le ressenti des volumes et des distances. En effet, sans cela, un opérateur essayant de toucher avec une de ses mains un élément d'examen dans le monde virtuel peut constater que ladite main passe au-travers dudit élément virtuel. Il y aura donc un écart important entre la perception de la profondeur estimée par disparité binoculaire qui ne permet pas une estimation précise, et celle estimée malgré l'absence de sensation tactile. Des solutions mécaniques permettant de simuler un toucher physique des objets virtuels existent. L'haptique est une modalité du toucher qui vise à recréer des sensations tactiles par l'intermédiaire d'interfaces à retour de forces. La plupart des solutions fait appel à des dispositifs utilisant des moteurs pour induire des forces opposées à celles exercées par l'opérateur, comme par exemple le cas des retours de certains volants de véhicules. L'haptique étend le principe desdites solutions à des situations plus complexes comme la manipulation d'objets virtuels.
On peut distinguer deux familles desdits dispositifs se différenciant par des modes de fonctionnement très différents : - les systèmes à base de bras robotisés dont par exemple le banc haptique ou « haptic workbench » en anglais, qui comprennent des bras robot entourant et prolongeant des phalanges et des poignets d'un opérateur, lequel peut alors saisir des objets virtuels et aussi ressentir leur forme et leur poids. Lesdits systèmes sont aptes à restituer des efforts importants. Toutefois, ces systèmes sont imposants et les mouvements des bras robot peuvent osciller de façon brusque entre deux configurations possibles, ce qui peut présenter un danger pour l'opérateur ainsi que pour des instruments de l'environnement de travail. - les systèmes à base de fils de type SPIDAR pour « Space Interface Device for Artificial Reality » en anglais que l'on peut traduire par Dispositif d'Interfaçage Spatiale dans la Réalité Artificielle, qui comprennent des fils attachés par une première extrémité aux doigts d'un manipulateur et reliés par la seconde extrémité à un moteur qui est disposé à un coin d'un cube représentant un espace de travail. Ledit moteur peut alors transmettre à l'opérateur une force d'opposition pour faire ressentir la forme et le poids d'objets virtuels que peut saisir ledit opérateur. Les systèmes à base de fils présentent l'avantage de permettre une grande visibilité et de ne présenter aucun danger pour l'opérateur et les instruments de l'espace de travail mais ils ne sont pas en mesure de restituer des efforts importants et ils sont relativement encombrants et peuvent entraver les mouvements de l'opérateur. Selon la figure 2, les doigts de l'opérateur sont par exemple reliés par des fils à des moteurs (non représentés) disposés à des coins de l'espace de travail.
Lesdits moteurs sont aptes à tirer sur les fils selon les positions des doigts de l'opérateur pour procurer à l'opérateur un ressenti de la forme ou du poids d'un objet virtuel que l'opérateur est censé tenir entre ses mains. La publication FR-A1-2900086 présente un dispositif de mise en mobilité d'un ensemble mobile comprenant un objet à animer et/ou à manipuler suivant une pluralité de directions déterminées, ledit dispositif comprenant des moyens d'actionnement aptes à collaborer avec un polyèdre entourant l'ensemble mobile et comportant des câbles tendus entre au moins un sommet du polyèdre et un point d'accrochage de l'ensemble mobile. Un inconvénient de ce dispositif est l'encombrement desdits fils et le volume réduit de l'espace de travail représenté par le polyèdre. Un autre inconvénient est la lourdeur de fonctionnement de ce dispositif. Un autre inconvénient concerne le niveau d'effort peu important que peut restituer ce dispositif.
Bref résumé de l'invention Un des buts de la présente invention est de pallier ces inconvénients et l'invention a pour objet un dispositif de navigation en réalité virtuelle comportant : - une salle immersive de simulation délimitée par des parois et pourvue de systèmes de détection et de systèmes de diffusion, - un élément d'examen disposé dans ladite salle et solidaire d'une interface haptique, - un moyen de captation de position et d'orientation d'un point de vision d'un opérateur apte à se déplacer dans ladite salle, caractérisé en ce que ladite interface haptique comporte une maquette physique transparente dudit élément d'examen apte à permettre la vision au travers de ladite maquette des images primaires diffusées par les systèmes de diffusion sur les parois de la salle immersive. De manière avantageuse, la maquette physique transparente est apte à permettre la vision des images diffusées sur les parois de la salle immersive, lesdites images sont destinées à présenter un objet virtuel à un opérateur plongé dans l'environnement virtuel. Ledit opérateur peut alors avoir un ressenti au contact avec ledit objet virtuel représentant l'élément d'examen dont la maquette physique est une interface haptique. La maquette physique permet de matérialiser l'objet virtuel et l'opérateur peut ainsi constater que sa main notamment ne peut pas traverser l'objet virtuel. Ledit objet virtuel est le résultat d'un effet tridimensionnel des images primaires diffusées par des systèmes de diffusion de la salle immersive. Selon d'autres caractéristiques de l'invention : - les images primaires diffusées produisent un effet tridimensionnel se superposant à la maquette physique. De manière avantageuse, les images primaires sont diffusées sur les parois de la salle immersive et l'opérateur est apte à les voir au travers de la maquette physique transparente. Lesdites images peuvent alors produire un effet tridimensionnel pour présenter un objet virtuel qui est disposé aux mêmes positions que la maquette physique transparente. L'opérateur peut alors avoir un ressenti s'il désire toucher avec une de ses mains l'objet virtuel, ladite main ne pouvant traverser l'objet virtuel. Un contact physique est fait avec la maquette physique disposée aux mêmes positions que l'objet virtuel. Ladite maquette est donc partie de l'interface haptique de l'élément d'examen du dispositif de navigation. - la maquette physique comporte des moyens de calibrage de positionnement. De manière avantageuse, la maquette physique comporte des moyens de calibrage comportant des moyens de captation qui peuvent être des éléments susceptibles d'être repérés par les systèmes de détection de la salle immersive afin de déterminer la position et l'orientation de ladite maquette dans la salle immersive. Un paramétrage ou calibrage initial du dispositif est effectué avant l'utilisation effective du dispositif. Ladite maquette est ensuite susceptible d'être déplacée dans la salle immersive sans nécessiter un nouveau paramétrage ou calibrage du dispositif de navigation. - les images primaires diffusées par les systèmes de diffusion sont délimitées par le champ de vision de l'opérateur défini depuis le point de vision dudit opérateur. De manière avantageuse, une analyse du point de vision de l'opérateur est d'abord effectuée pour déterminer le champ de vision dudit opérateur. Les images primaires diffusées par les systèmes de diffusion de la salle immersive sont délimitées par le champ de vision de l'opérateur défini depuis le point de vision dudit opérateur, déterminé grâce au repérage des moyens de captation de la position et de l'orientation du point de vision. Ledit moyen de captation peut être par exemple des boules recouvertes de feuilles argentées, lesdites boules étant fixées sur une monture de lunettes portées par l'opérateur. Ainsi, la position et l'orientation dudit point de vision sont parfaitement déterminés entrainant une estimation du champ de vision de l'opération qui peut être assimilé à un espace de forme conique ou pyramidal dont le sommet est confondu avec ledit point de vision et dont la base est une des parois de la salle immersive. Les images concernent alors des parties de l'élément d'examen comprises dans ledit champ de vision de l'opérateur et elles permettent un effet tridimensionnel pour présenter un objet virtuel se superposant sur lesdites parties conduisant à un examen plus précis de l'élément d'examen. - les images primaires comprennent des images stéréoscopiques diffusées sur les parois de la salle immersive. De manière avantageuse, des images stéréoscopiques de l'élément d'examen sont diffusées sur au moins une paroi de la salle immersive, lesdites images stéréoscopiques représentant une vision de l'oeil droit et une vision de l'oeil gauche dudit élément, afin de produire un effet visuel tridimensionnel de l'élément d'examen de sorte que l'opérateur, muni des moyens de vision tridimensionnelle tels qu'une paire de lunettes de vision tridimensionnelle, peut voir un objet virtuel représentant l'élément d'examen. - la maquette transparente est en plastique.
De manière avantageuse, la maquette physique transparente est en plastique, ce qui permet une facilité de production de ladite maquette et donc un moindre coût. Brève description des fiqures D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit pour la compréhension de laquelle on se reportera aux dessins annexés dans lesquels : - la figure 1 est une vue schématique représentative d'une salle immersive avec un système de détection et un système de diffusion d'images. - la figure 2 est une vue schématique d'un espace de travail d'un système à base de fils. Description détaillée des figures Dans la description qui va suivre, des chiffres de référence identiques dans différentes figures désignent des pièces identiques ou ayant des fonctions similaires. Le mot « 3D » est équivalent au terme « tridimensionnel ». On entend par « superposition » d'un élément sur un autre le fait que les coordonnées spatiales des deux éléments coïncident.
L'invention concerne un dispositif permettant à un opérateur de ressentir une sensation du toucher au contact avec des objets virtuels. Par exemple, dans une simulation de conduite dans le monde automobile, le véhicule reste fixe dans une salle de simulation et l'environnement est en mouvement autour du véhicule. Dans ce cadre, il est intéressant de rendre haptiques des parties du véhicule qui sont susceptibles d'entrer en contact avec l'opérateur telles qu'un tableau de bord avec lequel l'opérateur peut agir ou une partie de portière qui peut rentrer en contact avec un bras de l'opérateur. Le dispositif de navigation en environnement virtuel comporte une salle immersive 40, notamment une salle plus connue sous le nom de CAVE pour «Cave Automatic Virtual Environment» en anglais, comprenant un espace délimité par des parois 11 comprenant un plancher 13 et des cloisons verticales 12. Ladite salle est équipée de systèmes de détection 14 comportant par exemple des caméras de détection ou « trackers » en anglais, et des systèmes de diffusion 15 d'images qui peuvent être des moyens de vidéo-projection, lesdits systèmes étant disposés de manière préférentielle aux coins de la salle immersive comme représenté en figure 1. Lesdits systèmes de diffusion 15 sont aptes à diffuser des images sur les parois 11 de la salle. Les systèmes de détection 14 sont destinés à détecter des mouvements et à relever des positions de moyens de captation puis à adresser des informations à une unité de contrôle 16 qui est alors apte à commander la diffusion d'images sur les parois de la salle immersive 40. Un ensemble d'examen 17 est disposé dans la salle immersive 40, ledit ensemble peut être une partie d'un véhicule et dans l'exemple présenté, un poste de conduite comprenant un tableau de bord 19.
Il peut être intéressant de cette manière de vérifier les différentes composantes du tableau de bord 19 comme par exemple un poste de radio 18, et notamment leur intégration dans ledit tableau de bord. Une maquette physique 20 représentant un élément d'examen 21 qui est une console centrale 21 dudit tableau de bord 19 dans l'exemple présenté, est fixée solidaire de l'ensemble d'examen 17. Les positions, dimensions et orientations de la maquette physique 20 sont alors parfaitement définies par rapport à celles dudit ensemble d'examen 17. En effet la maquette physique 20 est parfaitement représentée par ses coordonnées numériques comme un composant de l'ensemble d'examen 17.
De manière préférentielle, des moyens de calibrage 22 comportant des moyens de captation de positionnement comprenant au moins un marqueur de suivi optique, sont fixés à l'ensemble d'examen 17 ainsi que représenté dans la figure 1, ou à la maquette 20, lesdits moyens de captation sont susceptibles d'être détectés par les systèmes de détection 14 de la salle immersive afin de déterminer les positions de l'ensemble d'examen 17 et/ou de la maquette 20 dans la salle immersive 40. Lesdits moyens de captation sont suivis par les systèmes de détection 14 pendant toute la phase de simulation. On entend par « suivi » le fait que la position et l'orientation de l'élément suivi qui est dans cet exemple l'ensemble d'examen et/ou de la maquette sont déterminées en continu pendant toute la phase de simulation. Les valeurs numériques des positions de l'ensemble d'examen 17 et/ou de la maquette 20 sont ensuite sauvegardées dans une mémoire de l'unité de contrôle 16.
Selon la figure 1, la maquette physique 20 représentant la console centrale 21 peut être une plaque de plastique sensiblement rectangulaire de dimensions sensiblement égales aux dimensions de la console centrale 21. De manière préférentielle, les moyens de captation de positionnement comprennent des éléments de captation de position et d'orientation qui peuvent être des boules 23 recouvertes de feuilles argentées disposées à une première extrémité de bras 24, la seconde extrémité desdits bras étant enfoncée dans un corps central 25 fixé solidaire à un point de l'ensemble d'examen 17. Lesdits bras s'étendent depuis le corps central 25 selon différentes directions et de manière irrégulière. En effet, lesdits éléments de captation sont détectés par les systèmes de détection et les irrégularités permettent une meilleure détection desdites boules par lesdits systèmes de détection 14 pour déterminer la position du corps central et l'orientation des moyens de captation. Selon un autre mode de réalisation non représenté, lesdits moyens de captation peuvent comporter des boursoufflures ou renfoncements d'une partie de l'ensemble de d'examen 17 facilement détectables par les systèmes de détection de la salle. Par exemple, les moyens de captation peuvent comprendre des bossages s'étendant sur le poste de conduite représentant par exemple des boutons de commande. Ainsi, la position et l'orientation de l'ensemble d'examen 17 sont alors parfaitement détectées et les coordonnées numériques sont adressées à l'unité de contrôle et sauvegardées dans une mémoire de ladite unité de contrôle 16. Selon un autre mode de réalisation, la position et l'orientation de l'ensemble d'examen 17 peuvent être issues de mesures par rapport à une référence dans la salle immersive 40. Les coordonnées de position et d'orientation de la maquette physique 20 par rapport à ladite référence de la salle immersive sont alors déduites et sauvegardées dans la mémoire de l'unité de contrôle 16. Toutefois, tout déplacement de l'ensemble d'examen 17 entraine alors une nouvelle série de mesures des positions et orientations dudit ensemble d'examen 17.
L'unité de contrôle 16 est apte à commander la diffusion d'images primaires stéréoscopiques 31, 31a sur au moins une paroi 11 de la salle immersive, lesdites images permettant d'obtenir un effet tridimensionnel et/ou de présenter un objet virtuel représentant la console centrale qui est présenté en superposition à la maquette physique 20 selon le point de vision de l'opérateur.
Ladite maquette physique 20 est transparente afin de permettre à l'opérateur de voir au travers de ladite maquette des images primaires diffusées sur les parois 11 de la salle immersive. De ce fait, les effets tridimensionnels ou 3D produits ne sont pas perturbés par ladite maquette physique 20. De manière préférentielle, la maquette transparente 20 est disposée dans la salle immersive dans une disposition telle qu'elle ne dévie pas ou quasiment pas les rayons lumineux afin d'éviter l'effet de lentille. De manière préférentielle, la maquette transparente 20 est en matière plastique transparente par exemple du polychlorure de vinyle ou du polyméthacrylate de méthyle et la forme de la maquette peut être obtenue par un procédé d'impression tridimensionnelle. Le marqueur optique peut être intégré dans la maquette physique comme une boursoufflure à la surface de ladite maquette physique. De manière préférentielle, ladite maquette 20 est obtenue par une impression 3D pour faciliter la réalisation de la maquette et diminuer les délais de réalisation. De manière préférentielle, l'opérateur est équipé d'un moyen de vision 26 tridimensionnelle qui peut être une paire de lunettes 27 de vision tridimensionnelle portée devant les yeux de l'opérateur. Un moyen de captation de position et d'orientation 28 est fixé sur ladite paire de lunettes 27 de manière préférentielle au centre de ladite paire, ledit moyen est détecté par les systèmes de détection 14 de la salle immersive 40. L'orientation du moyen de vision 26 et la position dudit moyen de captation 28 permet de déterminer le point de vision 29 et le champ de vision 30 de l'opérateur, ledit champ de vision peut être représenté par un espace de forme pyramidale ou conique ayant pour sommet le point de vision 29 de l'opérateur défini artificiellement par la position du moyen de captation 28 et pour base une partie de la paroi 11 de la salle immersive disposée vis-à-vis du point de vision de l'opérateur, selon l'orientation du moyen de vision 26. Le champ de vision 30 peut ainsi balayer une partie de l'élément d'examen 21, ladite partie est déterminée de manière numérique et l'unité de contrôle 16 est alors apte à commander la projection d'images primaires stéréoscopiques 31a de ladite partie de l'élément d'examen sur les parois 11 de la salle. L'opérateur est apte à voir lesdites images projetées au travers de la maquette physique 20 transparente, lesdites images 31a sont aptes à produire un effet tridimensionnel d'un objet 3D virtuel représentant ladite partie de l'élément d'examen 21 qui se superpose sur la partie associée de la maquette physique 20. L'élément d'examen 21 est disposé entre l'opérateur et la paroi 11 de la salle immersive 40. Les images primaires stéréoscopiques sont diffusées sur ladite paroi 11 selon un rapport de grossissement qui est sensiblement le rapport de la distance entre la paroi et la maquette physique par la distance entre la maquette physique et le point de vision. L'effet 3D ou l'objet virtuel produit par les images stéréoscopiques 31a diffusées apparait en taille réelle et recouvrir entièrement et seulement la maquette physique 20. Lorsque le point de vision se rapproche de la maquette, les images diffusées de la maquette vont apparaitre plus importantes. L'ensemble d'examen 17 peut être déplacé dans la salle immersive 40 afin de vérifier l'élément d'examen sous différents angles de vue dans ladite salle immersive. Une étape de calibrage est ensuite effectuée afin d'obtenir des images projetées sur les parois de la salle immersive aptes à produire un effet tridimensionnel du tableau de bord se superposant sur la maquette physique. Ladite étape de calibrage est effectuée une seule fois pour un ensemble d'examen 17 et une maquette physique 20 précisés. Grâce aux moyens de calibrage 22, la position et l'orientation de l'ensemble d'examen 17 ou de la maquette 20 sont automatiquement déterminées par les systèmes de détection 14 et l'unité de contrôle 16. L'effet tridimensionnel est un objet 3D virtuel visualisable grâce par exemple à des lunettes de vision tridimensionnelle ou un casque de réalité virtuelle. L'opérateur est alors en mesure avec une main de toucher l'objet virtuel représentant l'élément d'examen 21 et ladite main vient au contact avec la maquette physique 20. Selon un autre mode de réalisation non représenté, les positions et mouvements des doigts de l'opérateur peuvent être détectés par les systèmes de détection de la salle. Ainsi l'opérateur peut agir avec l'objet 3D virtuel qui lui est présenté : il peut ainsi appuyer sur une portion de l'objet 3D représentant par exemple un bouton de commande disposé sur le tableau de bord. Ledit doigt entre alors en contact avec la maquette physique et l'opérateur peut ressentir un contact. La position et le mouvement dudit doigt étant détectés par les systèmes de détection et les valeurs de position sont adressées à l'unité de contrôle 16 qui est alors apte à commander la diffusion d'autres images primaires consécutives à la commande initiée par l'opérateur. Par exemple, l'opérateur désire changer de station radio sur un poste radio virtuel intégré au tableau de bord. Le doigt de l'opérateur va appuyer sur une touche du poste virtuel de radio, ressentir un contact et des images vont ensuite défiler pour représenter les conséquences de ladite commande. Ainsi l'opérateur est apte à agir directement avec l'objet virtuel dans la salle immersive. L'objectif est atteint : le dispositif permet ainsi une navigation virtuelle simple et aisée avec un retour haptique sur un élément d'examen. L'opérateur peut déplacer son point de vue pour examiner l'élément d'examen et ressentir un contact au toucher dudit élément. Ainsi à partir d'une maquette physique 20 simple, différentes images peuvent être projetées pour produire un effet tridimensionnel représentant un objet virtuel tridimensionnel représentant différents éléments d'examen, notamment différents tableaux de bords, fixes dans la salle immersive 40, l'opérateur est alors en mesure d'apprécier visuellement l'élément examen et d'avoir des sensations de toucher au contact avec l'objet virtuel.

Claims (5)

  1. REVENDICATIONS1. Dispositif de navigation (10) en réalité virtuelle comportant : - une salle immersive de simulation ou CAVE (40) entouré de parois 5 (11) et pourvue de système de détection (14) et de systèmes de diffusion (15) d'images, - un élément d'examen (21) disposé dans ladite salle et solidaire d'une interface haptique, - un moyen (28) de captation de position et d'orientation d'un point de 10 vision (29) d'un opérateur apte à se déplacer dans ladite salle, caractérisé en ce que ladite interface haptique comporte une maquette physique transparente (20) dudit élément d'examen (21) apte à permettre la vision au travers de ladite maquette des images primaires (31, 31a) diffusées par les systèmes de diffusion sur les parois (11) de la salle immersive. 15
  2. 2. Dispositif de navigation selon la revendication 1 , caractérisé en ce que la maquette (20) comporte des moyens de calibrage (22) de positionnement de ladite maquette.
  3. 3. Dispositif de navigation selon l'une quelconque des revendications 1 ou 2, caractérisé en ce que les images primaires diffusées par les systèmes de 20 diffusion (15) sont comprises dans le champ de vision (26) de l'opérateur défini depuis le point de vision (25) dudit opérateur.
  4. 4. Dispositif de navigation selon l'une quelconque des revendications 1 à 3, caractérisé les images primaires comprennent des images stéréoscopiques (31, 31a) diffusées les parois de la salle immersive (40). 25
  5. 5. Dispositif de navigation selon l'une quelconque des revendications 1 à 4, caractérisé en ce que la-maquette transparente (20) est en plastique.
FR1456701A 2014-07-11 2014-07-11 Dispositif de navigation en realite virtuelle comportant une interface haptique Pending FR3023626A3 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1456701A FR3023626A3 (fr) 2014-07-11 2014-07-11 Dispositif de navigation en realite virtuelle comportant une interface haptique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1456701A FR3023626A3 (fr) 2014-07-11 2014-07-11 Dispositif de navigation en realite virtuelle comportant une interface haptique

Publications (1)

Publication Number Publication Date
FR3023626A3 true FR3023626A3 (fr) 2016-01-15

Family

ID=52102748

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1456701A Pending FR3023626A3 (fr) 2014-07-11 2014-07-11 Dispositif de navigation en realite virtuelle comportant une interface haptique

Country Status (1)

Country Link
FR (1) FR3023626A3 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019025371A1 (fr) 2017-08-03 2019-02-07 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
WO2019206719A1 (fr) * 2018-04-25 2019-10-31 Renault S.A.S Systeme d'ajustement de localisation en environnement virtuel immersif
US11315335B1 (en) 2021-03-30 2022-04-26 Honda Motor Co., Ltd. Mixed-reality interaction with touch device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
FR2971864A1 (fr) * 2011-02-22 2012-08-24 Peugeot Citroen Automobiles Sa Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
FR2971864A1 (fr) * 2011-02-22 2012-08-24 Peugeot Citroen Automobiles Sa Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
COQUILLART S ET AL: "THE VIRTUAL PALETTE AND THE VIRTUAL REMOTE CONTROL PANEL: A DEVICE AND AN INTERACTION PARADIGM FOR THE RESPONSIVE WORKBENCH", PROCEEDINGS IEEE 1999 VIRTUAL REALITY. HOUSTON, TX, MARCH 13 - 17, 1999; [PROCEEDINGS IEEE VIRTUAL REALITY.(VR)], NEW YORK, NY : IEEE, US, 13 March 1999 (1999-03-13), pages 213 - 216, XP000887661, ISBN: 978-0-7803-5559-0 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019025371A1 (fr) 2017-08-03 2019-02-07 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
FR3069936A1 (fr) * 2017-08-03 2019-02-08 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
WO2019206719A1 (fr) * 2018-04-25 2019-10-31 Renault S.A.S Systeme d'ajustement de localisation en environnement virtuel immersif
FR3080696A1 (fr) * 2018-04-25 2019-11-01 Renault S.A.S Systeme d'ajustement de localisation en environnement virtuel immersif
US11315335B1 (en) 2021-03-30 2022-04-26 Honda Motor Co., Ltd. Mixed-reality interaction with touch device

Similar Documents

Publication Publication Date Title
KR102322589B1 (ko) 3차원 콘텐츠 내의 위치-기반 가상 요소 양식
CN107209570B (zh) 动态自适应虚拟列表
CN108780358B (zh) 基于视场显示三维虚拟对象
CN107771309B (zh) 处理三维用户输入的方法
WO2015140816A1 (fr) Autodémonstration de caractéristiques et/ou de fonctionnements d'un objet dans un modèle 3d interactif d'un objet réel, permettant de comprendre la fonctionnalité de l'objet
US20190371072A1 (en) Static occluder
US20180300040A1 (en) Mediated Reality
JP2023541275A (ja) 環境内のオブジェクトと相互作用する方法
WO2017222829A1 (fr) Affichage d'informations de modèle tridimensionnel en réalité virtuelle
WO2017009529A1 (fr) Réalité assistée
FR3041804A1 (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe
CN114514493A (zh) 增强设备
CN112116716A (zh) 基于检测到的对象来定位的虚拟内容
WO2018224725A1 (fr) Rendu de contenu de réalité induite
FR3023626A3 (fr) Dispositif de navigation en realite virtuelle comportant une interface haptique
US11615579B1 (en) Surface attribute transfer
KR101807512B1 (ko) 맵핑형 3차원 상호작용 장치 및 방법
FR3069936B1 (fr) Interaction tactile avec des ihm dans un environnement immersif
FR2971864A1 (fr) Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle
EP2994813B1 (fr) Procede de commande d'une interface graphique pour afficher des images d'un objet tridimensionnel
FR3014228A1 (fr) Systeme de detection virtuelle
WO2019166272A1 (fr) Procédés, appareil, systèmes et programmes informatiques d'activation d'une réalité induite
US10964056B1 (en) Dense-based object tracking using multiple reference images
Peng et al. A Vehicle Driving Simulator Based on Virtual Reality
US11442549B1 (en) Placement of 3D effects based on 2D paintings

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2