FR2971864A1 - Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle - Google Patents

Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle Download PDF

Info

Publication number
FR2971864A1
FR2971864A1 FR1151421A FR1151421A FR2971864A1 FR 2971864 A1 FR2971864 A1 FR 2971864A1 FR 1151421 A FR1151421 A FR 1151421A FR 1151421 A FR1151421 A FR 1151421A FR 2971864 A1 FR2971864 A1 FR 2971864A1
Authority
FR
France
Prior art keywords
operator
virtual reality
virtual
contact device
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1151421A
Other languages
English (en)
Other versions
FR2971864B1 (fr
Inventor
Benoit Jeanne
Stephane Imbert
Mathieu Guibert
Fabrice Baeli
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Light And Shadows Fr
PSA Automobiles SA
Original Assignee
LIGHT AND SHADOWS
Peugeot Citroen Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LIGHT AND SHADOWS, Peugeot Citroen Automobiles SA filed Critical LIGHT AND SHADOWS
Priority to FR1151421A priority Critical patent/FR2971864B1/fr
Publication of FR2971864A1 publication Critical patent/FR2971864A1/fr
Application granted granted Critical
Publication of FR2971864B1 publication Critical patent/FR2971864B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

L'invention s'adresse à un équipement de réalité virtuelle comprenant au moins un écran (3) et un système gérant l'affichage d'une scène virtuelle par un affichage stéréoscopique sur ledit écran (3) d'images (25) permettant à au moins un objet virtuel (23) d'apparaitre en trois dimensions devant un opérateur (11) portant des lunettes (13) de vision stéréoscopique, remarquable en ce que ledit équipement comprend également au moins un dispositif de contact (17) au moins en partie transparent et destiné à être positionné à l'endroit où l'objet virtuel (23) est destiné à apparaître devant l'opérateur (11). Avantageusement, des moyens de détection capturent la position du doigt de l'opérateur (11) sur ledit dispositif de contact (17) lorsque celui-ci entre en contact avec ce dernier. L'invention concerne également l'utilisation d'un dispositif de contact (17) transparent dans un équipement de réalité virtuel. L'invention permet à un opérateur (11) d'interagir de façon réaliste et naturelle avec des objets virtuels (23) tels que par exemple une Interface Homme-Machine .

Description

EQUIPEMENT DE REALITE VIRTUELLE EQUIPE D'UN DISPOSITIF DE CONTACT ET UTILISATION D'UN TEL DISPOSITIF DANS UN EQUIPEMENT DE REALITE VIRTUELLE L'invention s'adresse aux équipements de réalité virtuelle utilisés dans l'industrie et dans les laboratoires pour visualiser en trois dimensions et à taille réelle des maquettes ou des environnements virtuels. Plus précisément l'invention s'adresse aux systèmes de projection permettant l'immersion d'un opérateur dans un environnement de réalité virtuelle lui permettant d'interagir avec des objets virtuels en trois dimensions, tels que les équipements de réalité virtuelle de type CAVETM (acronyme de Cave Automatic Virtual Environment). L'invention s'adresse également aux dispositifs de contact pouvant être mis en oeuvre dans de tels équipements de réalité virtuelle et offrant des possibilités d'interaction entre l'opérateur et l'équipement de réalité virtuelle. L'invention s'adresse notamment aux équipements virtuels équipés de tels dispositifs d'interaction tactile et en particulier aux équipements de réalité virtuelle utilisés dans le cadre de simulation mettant en jeu une Interface Homme- Machine OHM).
La technologie de type CAVETM est bien connue de l'homme du métier. Un exemple de technologie auquel peut s'appliquer l'invention est donné par le document US6154723. Ce document divulgue un équipement de réalité virtuelle dans lequel l'opérateur est immergé et peut interagir avec l'environnement virtuel à la fois par commande vocale et par commande manuelle.
Les équipements de réalité virtuels auxquels s'adresse l'invention comprennent au moins un écran de rétroprojection ou de projection directe stéréoscopique. Lorsque l'équipement comprend plusieurs écrans comme c'est le cas pour des systèmes immersifs, lesdits écrans sont jointifs et synchronisés. La figure 1 présente un exemple d'équipement de réalité virtuelle auquel peut s'adresser l'invention, comprenant une chambre d'immersion (1) composée d'un agencement d'écrans jointifs. Afin de visualiser les objets virtuels en trois dimensions (3D) générés par le système de réalité virtuelle, l'opérateur (11) porte des lunettes (13) à vision stéréoscopique. L'ensemble est synchronisé de sorte qu'un ou plusieurs ordinateurs commandent la projection sur les différents écrans des images destinées à être vues par chaque oeil.
Des objets réels tels qu'un siège automobile (7) peuvent être intégrés à la scène si l'on souhaite par exemple évaluer l'ergonomie de l'habitacle d'un futur véhicule. Un capteur de position (9) est alors disposé sur l'objet réel, ici le siège (7), et est utilisé comme point de repère pour faire coïncider les données virtuelles avec le positionnement physique, réel, de cet objet. Les images en trois dimensions, par exemple de l'habitacle, sont projetées sur les écrans (3) en cohérence avec la position du siège (7) pour former une scène virtuelle. Un système de capture de la position de l'opérateur (11) comprenant des caméras (5) qui repèrent la position de capteurs par exemple disposés sur les lunettes (13), permet à l'ordinateur de calculer en temps réel le point de vue de l'opérateur (11) et de calculer en conséquence la distorsion des images à projeter sur les écrans en vue d'obtenir les perspectives adéquates. On notera que le système de capture de la position de l'opérateur (11) peut se faire de différentes façons, par exemple en utilisant des capteurs électromagnétiques, ou des capteurs gyroscopiques, ou d'autres techniques bien connues de l'homme du métier et qui ne seront donc pas détaillées plus avant dans le présent mémoire. L'opérateur (11) va donc s'asseoir dans le siège automobile (7) en ayant l'impression d'être en fait installé au volant d'un véhicule et va pouvoir estimer diverses prestations telles que la visibilité, l'accessibilité des commandes ou encore l'ergonomie du poste de conduite.
Néanmoins, un des inconvénients de l'emploi d'un système CAVETM est que l'opérateur (11) ne peut pas toucher la représentation virtuelle du poste de conduite apparaissant autour de lui. Cela est notamment pénalisant lorsque l'opérateur (11) souhaite tester une IHM par exemple en cherchant à appuyer sur les boutons d'un poste d'autoradio ou sur l'écran tactile de la console centrale.
Différentes solutions à ce problème ont déjà été proposées par l'art antérieur. Ainsi, le document US2007/0132722 propose de faire porter à l'opérateur un gant équipé d'une pluralité de capteurs permettant au système de déterminer la position de ses doigts. Aussi, lorsqu'il est calculé par comparaison aux données 3D de l'habitacle, que le doigt de l'opérateur entre en contact avec un objet virtuel, par exemple pour appuyer sur un bouton du poste de commande, le système peut déclencher virtuellement l'action qui correspondrait à la pression dudit bouton. Cette solution présente toutefois des inconvénients. En premier lieu la précision concernant la localisation des doigts de l'opérateur est insuffisante pour permettre évaluer correctement le fonctionnement de certaines IHM automobile. C'est notamment le cas lorsqu'une telle interface présente des boutons de petite taille ou lorsqu'il s'agit de tester virtuellement un écran tactile dont les icônes présentent une taille de quelques millimètres. En second lieu, le doigt de l'opérateur peut passer à travers les objets virtuels ce qui rend moins réaliste l'évaluation ergonomique.
Une autre solution est apportée par le document US5831584 qui propose de générer et projeter en direction de l'opérateur l'image d'une main virtuelle qu'il peut déplacer afin, par exemple, d'appuyer sur les boutons virtuels du poste de conduite.
On comprend immédiatement que l'utilisation d'une telle technologie ne permet pas de tester de façon naturelle ou réaliste l'ergonomie du poste de conduite d'un véhicule.
L'invention a pour objectif de remédier aux inconvénients proposés par l'art antérieur en offrant à l'homme du métier un nouvel équipement de réalité virtuelle dans lequel un opérateur peut interagir de façon réaliste et naturelle avec des objets virtuels tels que par exemple une interface homme-machine. Un autre objectif de l'invention est de proposer un équipement de réalité virtuelle permettant de tester l'ergonomie d'une interface homme-machine dans lequel la position des doigts de l'opérateur, lorsqu'il entre en contact avec cette interface virtuelle est détectée avec précision.
A cet effet l'invention a pour objet un équipement de réalité virtuelle comprenant au moins un écran et un système gérant l'affichage d'une scène virtuelle par un affichage stéréoscopique sur ledit écran d'images permettant à au moins un objet virtuel d'apparaitre en trois dimensions devant un opérateur portant des lunettes de vision stéréoscopique, remarquable en ce que ledit équipement comprend également au moins un dispositif de contact comprenant au moins une tablette au moins en partie transparente disposée de sorte à ce que l'opérateur puisse visualiser lesdites images affichées par l'écran au travers de ladite tablette et positionnée à l'endroit où l'objet virtuel est destiné à apparaitre devant l'opérateur. Avantageusement, l'objet virtuel est une Interface Homme-Machine.
Selon une mise en oeuvre préférée de l'invention, l'équipement comprend en outre des moyens de détection de la position d'au moins un doigt de l'opérateur sur ledit dispositif de contact lorsque celui-ci entre en contact avec ce dernier.
Avantageusement le dispositif comprend en outre un support réglable permettant le positionnement et/ou l'orientation de la ou des tablettes. De préférence, la tablette présente une surface plane.
Selon une mise en oeuvre préférée de l'invention l'équipement comprend en outre au moins un capteur de position, de préférence amovible, qui est associé au dispositif tactile, de préférence trois capteurs de position sont associés à la tablette du dispositif de contact afin de transmettre au système sa position et/ou son orientation.
Selon un mode de réalisation de l'invention, les moyens de détection de la position du doigt de l'opérateur comprennent un ensemble de caméras couplées à un logiciel d'analyse. De préférence, l'ensemble de caméras comprend au moins une caméra infrarouge et/ou au moins une caméra vidéo.
Selon un mode de réalisation préféré de l'invention, lesdits moyens de détection de la position du doigt de l'opérateur comprennent des moyens de détection de contact, de préférence transparents, associés à la tablette. Eventuellement, les moyens de détection de contact comprennent un film capacitif ou résistif. De manière optionnelle, l'équipement comprend des moyens pour transmettre les coordonnées de position du doigt de l'opérateur au système gérant l'affichage de la scène virtuelle.
10 Avantageusement, le système gérant l'affichage de la scène virtuelle est configuré pour convertir la position (X, Y) du doigt sur le dispositif de contact en coordonnées (X, Y, Z) dans le référentiel en trois dimensions de la scène virtuelle.
L'invention a également pour objet l'utilisation d'un dispositif de contact dans un 15 équipement de réalité virtuelle comprenant au moins un écran et un système gérant l'affichage d'une scène virtuelle par un affichage stéréoscopique sur ledit écran d'images permettant à au moins un objet virtuel d'apparaitre en trois dimensions devant un opérateur portant des lunettes de vision stéréoscopique, remarquable en ce que ledit dispositif de contact est au moins en partie transparent et en ce qu'il est 20 positionné de telle sorte à ce que l'opérateur puisse voir au moins un écran dudit équipement de réalité virtuelle au travers dudit dispositif de contact.
Selon une mise en oeuvre préférée de l'invention, la position dans le référentiel en trois dimensions de la scène virtuelle d'un objet virtuel est calculée, ledit dispositif 25 de contact comprend au moins une tablette au moins en partie transparente et l'on positionne et/ou oriente ladite tablette de telle sorte à ce que sa surface soit placée à l'endroit où l'opérateur a l'illusion que se trouve la surface de l'objet virtuel.
Préférentiellement, le contact du doigt de l'opérateur sur la surface de la tablette 30 définit un point de contact et les coordonnées de ce point de contact sont capturées par des moyens de détection de la position du doigt et sont converties par le5 système gérant la scène virtuelle en coordonnées en trois dimensions dans le référentiel de la scène virtuelle.
Avantageusement, l'utilisation selon l'invention telle que définie plus haut d'un dispositif de contact est mise en oeuvre lorsque l'objet virtuel est la représentation d'une Interface Homme-Machine.
Comme on l'aura compris à la lecture de la définition qui vient d'être donnée, l'invention consiste d'une part à permettre à un opérateur de ressentir un contact physique lorsqu'il pense toucher un objet virtuel et d'autre part à permettre au système gérant la scène virtuelle de détecter avec précision l'endroit sur l'objet virtuel où l'opérateur a voulu poser ses doigts. L'invention consiste à utiliser une tablette transparente dans un équipement de réalité virtuelle afin de s'en servir comme butée pour arrêter le mouvement d'un opérateur. L'invention consiste également à utiliser une telle tablette en association avec des moyens de détection de la position du doigt qui touche physiquement ladite tablette. L'invention consiste à placer un objet réel, en l'occurrence une tablette transparente, dans un environnement de réalité virtuelle de telle sorte à ce que sa position physique coïncide avec la position apparente des objets virtuels avec lesquels l'opérateur est destiné à interagir, ou plus précisément avec lesquels l'opérateur souhaite simuler un contact. De manière préférentielle, l'invention consiste à utiliser une tablette tactile transparente offrant le double avantage de pouvoir s'intégrer dans un environnement de réalité virtuelle de telle sorte à s'y fondre et de pouvoir déterminer et transmettre un information précise sur le positionnement du doigt de l'opérateur entrant en contact avec un objet virtuel. L'invention consiste à insérer un objet physique en lieu et place d'un objet virtuel et à faire presque disparaître à la vue de l'opérateur cet objet physique de telle sorte à ce que l'opérateur ne voit plus que l'objet virtuel. L'invention permet de superposer l'image en trois dimensions d'un objet virtuel en lieu et place d'un objet physique qui est rendu presque invisible aux yeux de l'opérateur du fait de sa transparence. L'invention consiste à insérer dans un environnement de réalité virtuelle un objet physique transparent, par exemple une tablette, au travers duquel l'opérateur va voir les écrans sur lesquels sont projetés les images stéréoscopiques et qui n'empêche donc pas la formation d'objets virtuels en trois dimensions devant les yeux de l'opérateur. L'invention consiste à insérer un objet physique, réel, dans un espace virtuel qui va arrêter le geste de l'opérateur entrant en contact avec ledit objet réel au moyen de son doigt et permettre de récupérer, en vue de son utilisation, la position dudit doigt sur ledit objet lorsque le contact se fait.
On notera qu'il existe déjà dans l'art antérieur des tablettes tactiles pouvant être utilisés dans des systèmes de réalité virtuelle. Ce sont généralement des systèmes haptiques c'est-à-dire à retour de force imprimant à l'opérateur certaines sensations physiques lorsqu'il touche ladite tablette. C'est le cas par exemple des dispositifs décrits dans les documents US2006119589 et US2007091063. L'invention se différencie de cet art antérieur en ce que la tablette selon l'invention est une tablette transparente permettant la visualisation au travers de cette tablette des images affichées en trois dimensions par un écran stéréoscopique. C'est l'intégration dans le logiciel de réalité virtuelle, de la position physique de la tablette qui va permettre de faire en sorte que l'utilisateur touche la tablette au moment où il croit toucher l'objet virtuel. Par ailleurs, l'invention se différencie en ce que l'utilisateur va non seulement réellement toucher un objet qui va arrêter son doigt, mais également que l'information concernant la position du doigt de l'utilisateur est récupérée en vue de son utilisation, ce qui n'est pas le cas dans cet art antérieur.
L'invention sera bien comprise et d'autres aspects et avantages apparaîtront clairement à la lecture de la description qui suit, donnée à titre d'exemple, en référence aux planches de dessins annexées sur lesquelles : - La figure 1 est une vue de face d'une chambre d'immersion selon l'art antérieur utilisée dans le cadre d'une simulation destinée à tester l'ergonomie d'un poste de conduite automobile; - La figure 2 est une vue présentant un exemple d'implantation d'une tablette d'un équipement de réalité virtuelle selon l'invention ; La figure 3 est un schéma illustrant le principe de fonctionnement d'un équipement selon l'invention. - La figure 4 est une vue schématique d'une tablette selon l'invention ; - La figure 5 est une vue illustrant une variante d'un équipement selon l'invention La figure 1 ayant déjà été commentée dans la partie introductive, on se référera maintenant à la figure 2 présentant un exemple d'implantation d'une tablette faisant partie d'un équipement de réalité virtuelle selon l'invention.
10 Dans l'exemple représenté à la figure 2, l'opérateur (11) est installé dans un siège automobile (7) placé dans une chambre d'immersion analogue à celle représentée à la figure 1. Le siège (7) est comme on l'a vu équipé d'un capteur de position (9) qui permet au système de réalité virtuelle de l'intégrer à la scène en l'utilisant par exemple pour définir le référentiel utilisé. L'opérateur (11) peut interagir directement 15 quelques éléments physiques de base représentant un poste de conduite tels qu'un volant (15). Selon l'invention, l'équipement de réalité virtuel est équipé d'au moins un dispositif de contact (17) positionné à côté du siège (7). Le dispositif (17) selon l'invention est ici défini comme étant un dispositif de contact dans le sens où il est destiné à être perçu principalement par le toucher et non pas par la vision. Ce 20 dispositif de contact (17) comprend une plaque transparente (en verre, plexiglas ou autre) formant une tablette (19) dont le positionnement en un emplacement prédéterminé est assuré par l'intermédiaire d'un support (21) réglable. La tablette (19) est transparente au moins en partie afin que l'opérateur (11) puisse voir au travers d'elle les écrans sur lesquels sont projetés les images destinées à former 25 des objets virtuels en 3D devant ses yeux. La tablette (19) est positionnée de telle sorte à se trouver physiquement à l'endroit où va apparaître l'objet virtuel à tester ou évaluer. De préférence, l'objet virtuel concerné est une interface homme-machine. Ainsi, comme illustré à la figure 3, lorsque l'opérateur (11) veut toucher ledit objet virtuel (23) apparaissant devant ses yeux au travers de la tablette (19), il 30 dirige naturellement son doigt vers la représentation visuelle jusqu'à rencontrer la surface de ladite tablette (19) exactement au moment où il croit toucher l'objet5 virtuel (23). L'opérateur (11) a donc l'impression de toucher l'objet virtuel (23). De préférence, l'équipement de réalité virtuelle selon l'invention comprend en outre, comme nous le verrons plus loin, des moyens de détection de la position du doigt de l'opérateur (11) sur la tablette (19) lorsque celui-ci entre en contact avec sa surface.
On aura compris que par rapport aux dispositifs tactiles rencontrés dans l'art antérieur, l'invention est remarquable en ce que le dispositif de contact (17) de l'équipement de réalité virtuelle n'assure que la fonction tactile et non pas l'affichage des images (25) stéréoscopiques. L'affichage des images (25) selon l'invention est et reste assuré par les écrans (3) rétroprojetés. La transparence d'au moins une partie du dispositif de contact (17) est une des caractéristiques essentielles de l'invention. Elle permet à l'opérateur (11) de voir les écrans (3) rétroprojetés au travers dudit dispositif (17) et donc de voir un objet virtuel (23) en lieu et place dudit dispositif (17). Selon l'invention au moins une partie du dispositif de contact (17) est transparent, de préférence au moins la tablette (19) est transparente. De préférence encore, la tablette (19) est transparente dans sa majeur partie ou du moins dans les parties sur lesquelles sont destinées à se superposer les objets virtuels (23) avec lesquels l'opérateur (11) sera amené à interagir.
On aura compris que la tablette (19) doit être préalablement positionnée de façon à se trouver exactement à l'endroit où s'afficheront les éléments virtuels (23) avec lesquels l'opérateur (11) sera amené à interagir. Le positionnement de la tablette (19) dans l'espace peut être assuré par un support réglable (21) dont un exemple de réalisation est illustré à la figure 4. Un tel support (21) présente idéalement des axes gradués pour permettre le positionnement manuel de la tablette (19) selon toutes les directions de l'espace. La position de la tablette (19) est déterminée selon le référentiel de la scène et en fonction le cas échéant du positionnement d'autres objets physiques tels qu'un siège automobile (7). On notera au passage que si l'invention est ici décrite en relation avec un simulateur d'habitacle automobile, ceci ne constitue en aucun cas une restriction d'utilisation de l'équipement de réalité virtuelle selon l'invention. L'emploi de l'équipement selon l'invention dans le cadre d'un système immersif total ou partiel en chambre d'immersion et/ou la présence d'autres objets physiques n'est pas nécessaire à la mise en oeuvre de l'invention.
Le plan formé par la tablette (19) est également orientable selon différentes directions de sorte à coïncider avec l'objet virtuel qui va lui être superposé. Dans notre exemple de réalisation, le dispositif de contact (17) présente une seule tablette formant un seul plan pour le contact avec le doigt de l'opérateur (11). Néanmoins, l'homme du métier pourra envisager aisément la mise en oeuvre de dispositifs de contact (17) selon l'invention comprenant plusieurs tablettes jointives ou non, et destinées à être positionnées dans un même plan ou dans des plans différents qu'ils soient parallèles ou non. De même, le dispositif de contact (17) selon notre exemple de réalisation est plat, mais l'homme du métier peut envisager d'utiliser des dispositifs de contact présentant des tablettes non planes et par exemple des tablettes présentant une surface concave, convexe, voire même hémisphérique. La forme et les dimensions définissant la surface de chaque tablette sont connues du système gérant l'affichage de la scène virtuelle et permet comme nous le verrons de convertir les coordonnées (X, Y) de position du doigt de l'opérateur sur la tablette en coordonnées (X, Y, Z) dans le référentiel de la scène virtuelle.
L'homme du métier peut envisager d'autres solutions pour déterminer la position et/ou l'orientation de la ou des tablettes (19) du dispositif de contact (17) selon l'invention. Par exemple il peut associer au dispositif de contact (17) au moins un capteur de position (ou cible) qui sera détectée par le système de capture de position de l'équipement de réalité virtuelle au même titre que les lunettes (13) de l'opérateur (11) ou le siège (7) sur lequel il est installé. De manière connue, ces capteurs de position (27) peuvent être détectés par caméra infrarouge ou se présenter sous forme de capteurs électromagnétique. Un plan étant défini par trois points, chaque tablette (19) sera préférentiellement associée à trois capteurs (27a, 27b, 27c) de position. Il en est de même lorsque que la surface est non plane mais présente une courbure déterminée. Ces capteurs (27a, 27b, 27c) sont de préférence amovibles ou transparents afin de ne pas interférer avec l'affichage de l'objet virtuel. Ils sont placés en des endroits prédéterminés de la tablette (19), de préférence sur sa périphérie. On aura compris que le positionnement et l'orientation de la ou des tablettes (19) des dispositifs de contact (17) est une opération préalable à l'utilisation de l'équipement de réalité virtuelle, et que la position de la tablette (19) est fixe durant cette utilisation. Il est en effet essentiel que le logiciel qui gère la scène virtuelle connaisse précisément le positionnement physique de la tablette (19) par rapport à un point de référence de la scène. Préférentiellement, le point de référence utilisé est le point de repère déterminé par le capteur de position (9) sur le siège (7).
Selon une mise en oeuvre préférée de l'invention, l'équipement de réalité virtuelle comprend en outre des moyens de détection de la position d'au moins un doigt de l'opérateur (11) sur le dispositif de contact (17) lorsque celui-ci entre en contact avec ce dernier. Selon un premier mode de réalisation de l'invention illustré à la figure 5, la position du doigt de l'opérateur sur la surface d'un dispositif de contact (17), composé d'une tablette transparente (29) portée par support réglable formé par un trépied (31), est capturée par un ensemble de caméras (33a, 33b, 33c, 33d) couplées à un logiciel d'analyse pour effectuer cette opération de capture de position. Ces caméras (33a, 33b, 33c, 33d) peuvent être des caméras infrarouges et/ou des caméras vidéo. Elles sont par exemple au nombre de quatre. On notera que dans cet exemple de réalisation, la tablette (19) se présente sous forme d'une simple plaque de verre ou de plastique transparente, c'est-à-dire qu'elle ne présente pas elle-même de moyens de détection de la position du doigt. Ladite position du doigt de l'opérateur (11) est capturée par les caméras (33). Ici, la tablette (19) a pour fonction principale de servir de butée au doigt de l'opérateur (11) et donc d'arrêter son mouvement.
Toutefois, selon un mode de réalisation préféré de l'invention, les moyens de détection de la position du doigt de l'opérateur (11) comprennent des moyens de détection de contact associés à la tablette (19) et de préférence n'altérant pas la transparente de ladite tablette (19). Ainsi il est possible d'utiliser une tablette tactile (19) mettant en oeuvre par exemple des films résistif ou capacitif. Ces technologies sont bien connues de l'homme du métier et ne seront pas détaillées plus avant. De même, l'homme du métier peut envisager la mise en oeuvre de toute autre technologie permettant une détection de contact comme par exemple des technologies à ondes de surfaces etc., pour autant on l'aura compris que la tablette (19) reste transparente au moins à l'endroit où elle est destinée à se superposer à l'objet virtuel.
Le dispositif de contact (17) comprend des moyens pour transmettre les coordonnées de position du doigt de l'opérateur (11) au système gérant l'affichage de la scène virtuelle. Par exemple, comme illustré sur la figure 2, les moyens de détection de contact sont alors reliés à un ordinateur (35) -nommé PC1- qui transmet l'information, à savoir les coordonnées d'appui sur la tablette (19), au logiciel de l'ordinateur (37) -nommé PC2- qui gère l'affichage de la scène virtuelle.
Ainsi, quand le doigt de l'opérateur (11) touche la tablette (19), les moyens de détection de contact (ou les caméras (33) le cas échéant) déterminent les coordonnées de position (X, Y) du doigt dans le plan de la tablette (19). Or, la position de la tablette (19) par rapport au siège (ou tout autre élément de référence de la scène virtuelle) étant connue et communiquée au logiciel qui gère la scène virtuelle en 3D, ce dernier est capable de convertir les coordonnées (X, Y) fournies par le dispositif de contact (17) en coordonnées (X, Y, Z) dans le référentiel en trois dimensions de la scène virtuelle. Il peut ainsi en déduire sur quel élément virtuel l'opérateur (11) a voulu appuyer, et peut alors déclencher l'action qui aura au préalable été programmée pour réagir à cet événement. Par exemple, cela permet d'allumer un poste de radio virtuel au moment où le bouton virtuel ON sera virtuellement touché par l'opérateur (11). L'invention est remarquable en ce qu'elle permet de déterminer avec précision à quel endroit l'opérateur (11) a cherché à toucher l'objet virtuel (23), puisque l'opérateur (11) va réellement toucher un objet en lieu et place de l'objet virtuel (23), il peut tester de manière réaliste et naturelle l'accessibilité ou l'ergonomie associée à cet objet virtuel (23).
Les systèmes de réalité virtuelle permettent d'évaluer, quasiment comme dans la réalité, des situations qui existent sous forme de données numériques 3D, sans avoir recours à la réalisation de maquettage ou prototypes physiques. Il en résulte un gain de temps, coût et qualité dans la conception et la mise au point. L'invention est remarquable en ce qu'elle offre des une possibilité supplémentaire d'exploitation d'un système CAVETM en permettant aux ingénieurs développant les IHM des véhicules de tester de façon très naturelle les configurations éventuelles de telles interfaces sans avoir recours à des maquettages physiques.
L'invention ne se limite pas aux modes de réalisation décrits dans le présent mémoire et donnés à titre d'exemple, mais englobe toutes les variantes envisageables par l'homme du métier dans le cadre de la définition qui en a été donnée.20

Claims (15)

  1. REVENDICATIONS1. Equipement de réalité virtuelle comprenant au moins un écran (3) et un système gérant l'affichage d'une scène virtuelle par un affichage stéréoscopique sur ledit écran (3) d'images (25) permettant à au moins un objet virtuel (23) d'apparaitre en trois dimensions devant un opérateur (11) portant des lunettes (13) de vision stéréoscopique, caractérisé en ce que ledit équipement comprend également au moins un dispositif de contact (17) comprenant au moins une tablette (19, 29) au moins en partie transparente disposée de sorte à ce que l'opérateur puisse visualiser lesdites images (25) affichées par l'écran (3) au travers de ladite tablette (19, 29) et positionnée à l'endroit où l'objet virtuel (23) est destiné à apparaitre devant l'opérateur (11).
  2. 2. Equipement selon la revendication 1 caractérisé en ce qu'il comprend en outre des moyens de détection de la position d'au moins un doigt de l'opérateur (11) sur ledit dispositif de contact (17) lorsque celui-ci entre en contact avec ce dernier.
  3. 3. Equipement selon l'une des revendications 1 ou 2 caractérisé en ce que le dispositif de contact (17) comprend un support réglable (21, 31) permettant le positionnement et/ou l'orientation de la ou des tablettes (19, 29).
  4. 4. Equipement selon l'une des revendications 1 à 3 caractérisé en ce que la tablette (19, 29) présente une surface plane. 25
  5. 5. Equipement selon l'une des revendications 1 à 4 caractérisé en ce qu'au moins un capteur de position (27), de préférence amovible, est associé au dispositif de contact (17), de préférence trois capteurs de position (27a, 27b, 27c) sont associés à la tablette (19, 29) du dispositif de contact (17) afin de 30 transmettre au système sa position et/ou son orientation.
  6. 6. Equipement de réalité virtuelle selon l'une des revendications 1 à 5 caractérisé en ce que les moyens de détection de la position du doigt de l'opérateur (11) comprennent un ensemble de caméras (33a, 33b, 33c, 33d) couplées à un logiciel d'analyse.
  7. 7. Equipement de réalité virtuelle selon la revendication 6 caractérisé en ce que l'ensemble de caméras (33a, 33b, 33c, 33d) comprend au moins une caméra infrarouge et/ou au moins une caméra vidéo. 10
  8. 8. Equipement de réalité virtuelle selon l'une des revendications 1 à 5 caractérisé en ce que lesdits moyens de détection de la position du doigt de l'opérateur (11) comprennent des moyens de détection de contact associés à la tablette (19), de préférence, les moyens de détection de contact sont transparents. 15
  9. 9. Equipement de réalité virtuelle selon la revendication 8 caractérisé en ce que les moyens de détection de contact comprennent un film capacitif ou résistif.
  10. 10. Equipement de réalité virtuelle selon l'une des revendications 1 à 9 20 caractérisé en ce qu'il comprend des moyens pour transmettre les coordonnées de position du doigt de l'opérateur au système gérant l'affichage de la scène virtuelle.
  11. 11. Equipement de réalité virtuelle selon l'une des revendications 1 à 10 25 caractérisé en ce que le système gérant l'affichage de la scène virtuelle est configuré pour convertir la position (X, Y) du doigt sur le dispositif de contact (17) en coordonnées (X, Y, Z) dans le référentiel en trois dimensions de la scène virtuelle. 30
  12. 12. Utilisation d'un dispositif de contact (17) dans un équipement de réalité virtuelle comprenant au moins un écran (3) et un système gérant l'affichage d'une scène virtuelle par un affichage stéréoscopique sur ledit écran (3) d'images (25) permettant à au moins un objet virtuel (23) d'apparaitre en5trois dimensions devant un opérateur (11) portant des lunettes (13) de vision stéréoscopique, caractérisé en ce que ledit dispositif de contact (17) est au moins en partie transparent et en ce qu'il est positionné de telle sorte à ce que l'opérateur (11) puisse voir au moins un écran (3) dudit équipement au travers dudit dispositif de contact (17).
  13. 13. Utilisation d'un dispositif de contact (17) selon la revendication 12 caractérisé en ce que la position dans le référentiel en trois dimensions de la scène virtuelle d'un objet virtuel (23) est calculé, en ce que ledit dispositif de contact (17) comprend au moins une tablette (19, 29) au moins en partie transparente et en ce que l'on positionne et/ou oriente ladite tablette (19, 29) de telle sorte à ce que sa surface soit placée à l'endroit où l'opérateur (11) a l'illusion que se trouve la surface de l'objet virtuel (23)
  14. 14. Utilisation d'un dispositif de contact (17) selon la revendication 13 caractérisé en ce que le contact du doigt de l'opérateur (11) sur la surface de la tablette (19, 29) définit un point de contact et en ce que les coordonnées de ce point de contact sont capturées par des moyens de détection de la position du doigt et sont converties par le système gérant la scène virtuelle en coordonnées en trois dimensions dans le référentiel de la scène virtuelle.
  15. 15. Utilisation d'un dispositif de contact (17) selon l'une des revendications 12 à 14 caractérisé en ce que l'objet virtuel (23) est la représentation d'une Interface Homme-Machine.25
FR1151421A 2011-02-22 2011-02-22 Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle Expired - Fee Related FR2971864B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1151421A FR2971864B1 (fr) 2011-02-22 2011-02-22 Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1151421A FR2971864B1 (fr) 2011-02-22 2011-02-22 Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle

Publications (2)

Publication Number Publication Date
FR2971864A1 true FR2971864A1 (fr) 2012-08-24
FR2971864B1 FR2971864B1 (fr) 2015-06-26

Family

ID=44548019

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1151421A Expired - Fee Related FR2971864B1 (fr) 2011-02-22 2011-02-22 Equipement de realite virtuelle equipe d'un dispositif de contact et utilisation d'un tel dispositif dans un equipement de realite virtuelle

Country Status (1)

Country Link
FR (1) FR2971864B1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3023626A3 (fr) * 2014-07-11 2016-01-15 Renault Sas Dispositif de navigation en realite virtuelle comportant une interface haptique
CN106898178A (zh) * 2017-01-08 2017-06-27 广东工业大学 一种基于可穿戴设备的考试综合分析系统
WO2019025371A1 (fr) * 2017-08-03 2019-02-07 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196317A (ja) * 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> 情報入力方式
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
WO2008030880A1 (fr) * 2006-09-06 2008-03-13 Apple Inc. Procédés de détermination d'une position de curseur à partir d'un contact de doigt avec un écran tactile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196317A (ja) * 1985-02-27 1986-08-30 Nippon Telegr & Teleph Corp <Ntt> 情報入力方式
US6842175B1 (en) * 1999-04-22 2005-01-11 Fraunhofer Usa, Inc. Tools for interacting with virtual environments
WO2008030880A1 (fr) * 2006-09-06 2008-03-13 Apple Inc. Procédés de détermination d'une position de curseur à partir d'un contact de doigt avec un écran tactile

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ENCARNACAO L M ET AL: "A translucent sketchpad for the Virtual Table exploring motion-based gesture recognition", COMPUTER GRAPHICS FORUM BLACKWELL PUBLISHERS FOR EUROGRAPHICS ASSOC. UK, vol. 18, no. 3, 1999, XP002666733, ISSN: 0167-7055 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3023626A3 (fr) * 2014-07-11 2016-01-15 Renault Sas Dispositif de navigation en realite virtuelle comportant une interface haptique
CN106898178A (zh) * 2017-01-08 2017-06-27 广东工业大学 一种基于可穿戴设备的考试综合分析系统
WO2019025371A1 (fr) * 2017-08-03 2019-02-07 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif
FR3069936A1 (fr) * 2017-08-03 2019-02-08 Renault S.A.S Interaction tactile avec des ihm dans un environnement immersif

Also Published As

Publication number Publication date
FR2971864B1 (fr) 2015-06-26

Similar Documents

Publication Publication Date Title
US9740005B2 (en) Selectively pairing an application presented in virtual space with a physical display
CA2942652C (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d&#39;utilisateurs et procede associe
EP3227760A1 (fr) Projection de pointeur destiné à une entrée d&#39;utilisateur naturelle
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
FR2878641A1 (fr) Procede de navigation automatique contrainte vers des regions d&#39;interet d&#39;une image
WO2014161775A1 (fr) Dispositif pour interagir, sans contact, avec un appareil électronique et/ou informatique, et appareil équipé d&#39;un tel dispositif
WO2016042256A1 (fr) Dispositif et procédé d&#39;orchestration de surfaces d&#39;affichage, de dispositifs de projection et de dispositifs d&#39;intéraction spatialisés 2d et 3d pour la création d&#39;environnements intéractifs
CN105391889A (zh) 数据处理装置、数据处理系统和数据处理装置的控制方法
FR2971864A1 (fr) Equipement de realite virtuelle equipe d&#39;un dispositif de contact et utilisation d&#39;un tel dispositif dans un equipement de realite virtuelle
FR2975198A1 (fr) Dispositif d&#39;affichage pour occultation dans systeme de realite virtuelle
WO2018002186A1 (fr) Procédé de commande et interface de commande pour véhicule automobile
EP3918446A1 (fr) Procédé de génération d&#39;un retour sensitif pour une interface et interface associée
US20190197737A1 (en) Color analysis and control using an electronic mobile device transparent display screen integral with the use of augmented reality glasses
FR3023626A3 (fr) Dispositif de navigation en realite virtuelle comportant une interface haptique
FR2894684A1 (fr) Systeme de visualisation pour la manipulation d&#39;un objet
FR3071635A1 (fr) Procede creant une interface projetee tangible pour la selection, la visualisation 3d et la commande des plats du menu directement depuis la table du restaurant, ainsi qu&#39;un dispositif pour la mise en oeuvre du procede.
Yamaguchi et al. Holographic 3D touch sensing display
FR3014228A1 (fr) Systeme de detection virtuelle
EP1124212B1 (fr) Procédé et dispositif de présentation visuelle d&#39;un espace virtuel à trois dimentsions simulant un véhicule automobile
WO2017141228A1 (fr) Interactions réalistes basées sur une gui avec gui virtuelle d&#39;objets 3d virtuels
FR2947348A1 (fr) Dispositif pour manipuler et visualiser un objet virtuel
FR3121251A3 (fr) Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur
WO2016087407A1 (fr) Procédé d&#39;étalonnage d&#39;un système de restitution visuelle en réalité augmentée comprenant au moins un dispositif d&#39;affichage partiellement transparent, par rapport à son utilisateur, et système associé
Miyazaki et al. Visual Feedback Using Semitransparent Mirror to Enhance Depth Perception of Aerial Image in Floating Touch Display
ALEXIS et al. Direct interaction with holographic light field displays enabled by 3D touch and gesture detection

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

CA Change of address

Effective date: 20180312

CD Change of name or company name

Owner name: PEUGEOT CITROEN AUTOMOBILES SA, FR

Effective date: 20180312

Owner name: LIGHT AND SHADOWS, FR

Effective date: 20180312

PLFP Fee payment

Year of fee payment: 10

ST Notification of lapse

Effective date: 20211005