FR3020153A1 - NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT - Google Patents

NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT Download PDF

Info

Publication number
FR3020153A1
FR3020153A1 FR1453606A FR1453606A FR3020153A1 FR 3020153 A1 FR3020153 A1 FR 3020153A1 FR 1453606 A FR1453606 A FR 1453606A FR 1453606 A FR1453606 A FR 1453606A FR 3020153 A1 FR3020153 A1 FR 3020153A1
Authority
FR
France
Prior art keywords
user
head
environment
movement
navigation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1453606A
Other languages
French (fr)
Other versions
FR3020153B1 (en
Inventor
Paul George
Andras Kemeny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR1453606A priority Critical patent/FR3020153B1/en
Publication of FR3020153A1 publication Critical patent/FR3020153A1/en
Application granted granted Critical
Publication of FR3020153B1 publication Critical patent/FR3020153B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

Système de navigation (10) en environnement virtuel dans un environnement immersif (12), comprenant une unité de contrôle (18) comportant des données d'environnement, des moyens de captage (16) de mouvements de la tête d'un utilisateur et des moyens de captation de saisie d'une portion d'environnement dans le champ de vision de l'utilisateur, Caractérisé en ce que le système est apte à modifier en rotation l'environnement dans le horizon de l'utilisateur selon un mode de commande lié au pivotement de la tête de l'utilisateur selon un axe du corps (21).A navigation system (10) in a virtual environment in an immersive environment (12), comprising a control unit (18) having environment data, means (16) for sensing the movements of a user's head and capturing means for capturing an environment portion in the user's field of vision, characterized in that the system is able to rotate the environment in the user's horizon according to a related control mode pivoting of the user's head along an axis of the body (21).

Description

ROTATION EGOCENTRIQUE NATURELLE EN ENVIRONNEMENT VIRTUEL Domaine technique de l'invention La présente invention concerne un système de navigation dans un espace virtuel immersif.TECHNICAL FIELD OF THE INVENTION The present invention relates to a navigation system in an immersive virtual space.

La présente invention concerne plus particulièrement un système de navigation en environnement virtuel immersif apte à diminuer le mal du simulateur lors d'un déplacement en rotation. Etat de la technique L'une des tâches essentielles que l'on souhaite réaliser en environnement virtuel est le déplacement du point de vue. Alors que la manette a été adoptée par le domaine du jeu vidéo, son utilisation dans un contexte plus immersif soulève des problèmes de mal du simulateur qui s'apparente à des nausées. Par exemple dans un CAVE qui comprend une salle de base sensiblement carrée, limitée par trois parois verticales jointes et comprises entre un plafond et un plancher, et équipée de caméras ou capteurs aux coins du plafond et/ou du plancher de ladite salle et de rétroprojecteurs pour diffuser des images de l'environnement, le déplacement dudit point de vue est susceptible de générer des perturbations chez un utilisateur naviguant dans ladite salle.The present invention more particularly relates to a navigation system in immersive virtual environment adapted to reduce the evil of the simulator during a rotational movement. STATE OF THE ART One of the essential tasks that one wishes to perform in a virtual environment is the displacement of the point of view. While the controller has been adopted by the video game industry, its use in a more immersive context raises problems of simulator-like nausea. For example in a CAVE which comprises a substantially square basic room, limited by three vertical walls joined and between a ceiling and a floor, and equipped with cameras or sensors at the corners of the ceiling and / or floor of said room and overhead projectors to diffuse images of the environment, the displacement of said point of view is likely to generate disturbances in a user navigating in said room.

Dans les jeux vidéo, un unique écran est souvent utilisé et le champ de vision du joueur est suffisamment faible pour ne pas l'immerger totalement. Ledit joueur est donc moins sujet auxdites nausées. A l'inverse, un utilisateur navigant dans un environnement virtuel immersif comme un CAVE est fréquemment sujet au mal du simulateur, le mouvement perçu visuellement lors du déplacement virtuel rentrant en conflit avec le mouvement perçu par le système vestibulaire. Le mouvement le plus susceptible d'engendrer le mal du simulateur est la rotation. En effet, le cerveau de l'utilisateur habitué à se déplacer dans le monde réel s'attend à recevoir des informations de son système vestibulaire, par exemple des mesures d'accélération, cohérentes avec celles estimées par le système visuel. En l'absence de restitutions fines de ces effets physiques par un système adéquat par un simulateur dynamique par exemple, le cerveau déclenche des symptômes ressemblant à ceux du mal du transport. Quand on bouge avec le monde, il n'y a pas de mal du simulateur, on reste visuellement rattaché au monde physique visuel. En environnement virtuel immersif, notamment dans le CAVE, la modification de l'environnement visuel est dissocié du déplacement physique et l'utilisateur n'est donc pas contraint à se déplacer physiquement pour naviguer dans ledit environnement virtuel. Un utilisateur peut également naviguer dans un environnement virtuel immersif à l'aide d'un dispositif de visualisation tel qu'un casque de réalité virtuelle ou de réalité augmentée. Ledit dispositif peut aussi générer du mal de simulateur et représente un enjeu financier important.In video games, a single screen is often used and the player's field of vision is weak enough not to fully immerse him. Said player is therefore less subject to said nausea. Conversely, a user navigating in an immersive virtual environment such as a CAVE is frequently subject to simulator pain, the movement perceived visually during the virtual movement conflicting with the movement perceived by the vestibular system. The movement most likely to cause simulator harm is rotation. Indeed, the brain of the user accustomed to moving in the real world expects to receive information from his vestibular system, for example acceleration measurements, consistent with those estimated by the visual system. In the absence of fine renditions of these physical effects by a suitable system by a dynamic simulator for example, the brain triggers symptoms resembling those of motion sickness. When you move with the world, there is no harm in the simulator, it remains visually related to the visual world. In an immersive virtual environment, particularly in the CAVE, the modification of the visual environment is dissociated from the physical displacement and the user is therefore not forced to physically move to navigate in said virtual environment. A user can also navigate an immersive virtual environment using a viewing device such as a virtual reality headset or augmented reality headset. The device can also generate simulator pain and represents a significant financial challenge.

Le mal du simulateur est bien connu dans le domaine des environnements virtuels et il est le sujet de nombreux travaux scientifiques conduisant à des publications dont celle de La Viola sur le mal du simulateur de janvier 2000. Pour réduire le mal du simulateur, il est connu de réassocier la perception visuelle avec un déplacement physique.The evil simulator is well known in the field of virtual environments and is the subject of many scientific studies leading to publications including that of La Viola on the evil simulator of January 2000. To reduce the harm of the simulator, it is known to re-associate visual perception with physical displacement.

On distingue deux principales catégories de moyens pour se déplacer en environnement virtuel : -les dispositifs de compensation de mouvement : Ils permettent à l'utilisateur de se déplacer naturellement sans avoir à déclencher de commandes. Le tapis roulant omnidirectionnel Cyberwalk ou la Cybersphère sont des exemples, et il existe bien d'autres systèmes (tapis de billes hémi sphérique, réseau de tuiles mouvantes, chaussures actives, bras robots fixés aux pieds etc.). La plupart de ces dispositifs ont l'inconvénient d'être imposants ou intrusifs. -les métaphores de navigation : Ce sont des lois de commandes de dispositifs souvent déjà existants (manettes, gants de réalité virtuelle, etc.) qui reflètent un processus de la vie réelle facilitant leur apprentissage et leur utilisation. Il en existe de nombreuses, par exemple la marche sur place qui consiste à mimer la marche pour avancer.There are two main categories of means to move in a virtual environment: -the motion compensation devices: They allow the user to move naturally without having to trigger commands. Examples include the Cyberwalk omnidirectional treadmill or the Cybersphere, and there are many other systems (semicircular ball mat, moving tile network, active shoes, robot arms attached to the feet, etc.). Most of these devices have the disadvantage of being large or intrusive. -the navigation metaphors: These are laws of control of devices that are often already existing (joysticks, virtual reality gloves, etc.) that reflect a real-life process that facilitates their learning and use. There are many of them, for example walking on the spot, which consists in mimicking the march to advance.

La marche sur place redirigée est une solution aux problèmes d'immersion dus aux faces manquantes du CAVE, elle fait tourner l'environnement imperceptiblement pour que l'utilisateur n'ait jamais à s'orienter vers la face manquante. Le compagnon virtuel est un animal virtuel dirigé par des rênes, il tracte l'utilisateur et permet les rotations.Redirected on-site walking is a solution to immersion problems due to the missing faces of the CAVE, it makes the environment run imperceptibly so that the user never has to turn to the missing face. The virtual companion is a virtual animal led by reins, it tows the user and allows rotations.

Par exemple, « Grabbing the Air » en anglais ou « saisie de l'espace » est une métaphore de navigation dans laquelle l'utilisateur peut saisir l'air avec sa main, le ramener vers lui pour faire défiler le décor, et faire un mouvement latéral pour le faire tourner autour de lui. Un inconvénient de ce système est qu'il ne réduit pas le mal du simulateur car le cerveau de l'utilisateur ne reçoit pas des informations de son système vestibulaire cohérentes avec celles estimées par le système visuel. La publication US-Al 2004/0102676 divulgue ainsi un système de couplage entre l'environnement visuel et la navigation afin de réduire le mal des transports. Ledit système nécessite plusieurs dispositifs matériels tels qu'un gyroscope, des accéléromètres, un système de positionnement connu sous la désignation de GPS ou « Global Positioning System » en anglais, des capteurs optiques et des capteurs de vibrations et plusieurs logiciels pour réduire le dit mal des transports. Un inconvénient du système divulgué est la nécessité d'utiliser de nombreux dispositifs matériels ce qui entraine des coûts élevés ainsi qu'un contrôle sophistiqué de l'ensemble des dispositifs. Bref résumé de l'invention Un but de l'invention est de pallier ces inconvénients et l'invention a pour objet un système de navigation en rotation dans un environnement virtuel 30 immersif.For example, "Grabbing the Air" is a navigation metaphor in which the user can grab the air with his hand, bring it back to him to scroll through the scenery, and make a lateral movement to rotate around him. A disadvantage of this system is that it does not reduce the harm of the simulator because the brain of the user does not receive information from his vestibular system consistent with those estimated by the visual system. The publication US-Al 2004/0102676 thus discloses a coupling system between the visual environment and navigation in order to reduce motion sickness. This system requires several hardware devices such as a gyroscope, accelerometers, a positioning system known as GPS or "Global Positioning System" in English, optical sensors and vibration sensors and several software to reduce the said evil transports. A disadvantage of the system disclosed is the need to use many hardware devices which leads to high costs and sophisticated control of all devices. BRIEF SUMMARY OF THE INVENTION An object of the invention is to overcome these drawbacks and the object of the invention is a system for rotating navigation in an immersive virtual environment.

L'objet de l'invention porte sur la réduction du mal de simulateur pour tout déplacement virtuel de l'observateur piloté par un dispositif de navigation qui génère du mal de simulateur dans la mesure où il génère un conflit visuovestibulaire. Ledit déplacement peut être décomposé en un déplacement linéaire et un déplacement rotationnel. Pour les déplacements linéaires, des moyens de réduction de mal de simulateur peuvent être appliqués à travers une modulation de vitesse de déplacement. L'objet de l'invention est la réduction du mal du simulateur pour le déplacement en rotation.The object of the invention relates to the reduction of simulator harm for any virtual movement of the observer controlled by a navigation device that generates simulator trouble in that it generates a visuovestibular conflict. Said displacement can be decomposed into a linear displacement and a rotational displacement. For linear displacements, simulator harm reduction means can be applied through motion velocity modulation. The object of the invention is the reduction of simulator sickness for rotational movement.

L'objet de l'invention est donc de fournir un moyen de tourner dans un environnement virtuel immersif de façon efficace, confortable et sans gêne visuo-vestibulaire (mal du simulateur). Dans toute la suite du document, -le point de vue de l'utilisateur comprend les coordonnées spatiales d'un point représentatif de la vision de l'utilisateur, ce point peut être par exemple un point médian disposé entre les yeux de l'utilisateur. -l'horizon de l'utilisateur comprend l'environnement visuel virtuel disposé devant l'utilisateur observable depuis le point de vue. -l'axe du corps de l'utilisateur est défini pour désigner l'axe autour duquel la tête dudit utilisateur peut pivoter. L'objet de l'invention est caractérisé plus particulièrement par un système de navigation dans un environnement virtuel immersif comprenant une unité de contrôle comportant des données d'environnement, des moyens de captage de mouvements d'un utilisateur et des moyens de captation de saisie d'une portion de l'environnement virtuel devant l'utilisateur, caractérisé en ce que le système est apte à modifier en rotation l'horizon virtuel de l'utilisateur selon une commande liée au pivotement de la tête selon un axe du corps. De manière avantageuse, l'horizon virtuel de l'utilisateur ou l'environnement visuel virtuel disposé devant l'utilisateur est modifié en rotation selon une commande liée au pivotement de la tête de l'utilisateur selon l'axe du corps, ainsi le cerveau de l'utilisateur perçoit des informations de son système vestibulaire cohérentes avec celles estimées par le système visuel, ce qui réduit de façon significative, voire supprime les risques de mal de simulateur en fonction de temps de réponse du système. Selon d'autres caractéristiques de l'invention : - les moyens de captation de saisie d'une portion de l'environnement virtuel devant l'utilisateur sont liés aux mouvements de la tête de l'utilisateur pour modifier ledit environnement devant l'utilisateur consécutif à un 10 mouvement de rotation selon un axe du corps de sa tête. De manière avantageuse, les moyens de captation de saisie d'une portion de l'environnement devant l'utilisateur nécessaires pour la navigation virtuelle permettent de saisir virtuellement ladite portion d'environnement et de l'entrainer en rotation avec le pivotement de la tête selon l'axe du corps. Ainsi, 15 le pivotement de la tête est apte à entrainer la rotation de l'environnement visuel virtuel devant l'utilisateur. De cette manière, lorsque ladite tête se remet en position normale, l'utilisateur aura devant lui un autre horizon virtuel. Ledit utilisateur est donc acteur de ladite rotation dudit horizon et son cerveau perçoit des informations de son système vestibulaire cohérentes avec celles estimées 20 par le système visuel. - les moyens de captation de saisie sont activés par un mouvement d'activation d'une partie de la face de l'utilisateur. Avantageusement, la saisie de la portion d'environnement devant l'utilisateur est activée par une commande liée à un mouvement d'activation 25 d'une partie de la face de l'utilisateur, ce qui réduit des moyens de commande du système. Le système ne nécessite donc pas l'utilisation de nombreux équipements. - les moyens de captation de saisie sont désactivés par un mouvement de désactivation d'une partie de la face de l'utilisateur consécutif au mouvement 30 d'activation.The object of the invention is therefore to provide a means of turning in an immersive virtual environment efficiently, comfortably and without visual-vestibular discomfort (sinew of the simulator). Throughout the rest of the document, the user's point of view includes the spatial coordinates of a representative point of the user's vision, this point may be for example a midpoint disposed between the user's eyes. . the user's horizon comprises the virtual visual environment arranged in front of the user observable from the point of view. the axis of the user's body is defined to designate the axis around which the head of said user can pivot. The object of the invention is characterized more particularly by a navigation system in an immersive virtual environment comprising a control unit comprising environment data, means for capturing movements of a user and capture capture means a portion of the virtual environment in front of the user, characterized in that the system is able to rotate the virtual horizon of the user according to a command related to the pivoting of the head along an axis of the body. Advantageously, the virtual horizon of the user or the virtual visual environment arranged in front of the user is changed in rotation according to a command related to the pivoting of the user's head along the axis of the body, thus the brain The user perceives information from his vestibular system consistent with that estimated by the visual system, which significantly reduces or even eliminates the risks of simulator sickness as a function of system response time. According to other characteristics of the invention: the capturing means for capturing a portion of the virtual environment in front of the user are linked to the movements of the user's head to modify said environment in front of the consecutive user at a rotational movement along an axis of the body of his head. Advantageously, the capturing means for capturing a portion of the environment in front of the user necessary for the virtual navigation makes it possible to virtually grasp said portion of the environment and to drive it in rotation with the pivoting of the head according to the axis of the body. Thus, the pivoting of the head is able to cause the rotation of the virtual visual environment in front of the user. In this way, when said head returns to normal position, the user will have before him another virtual horizon. Said user is therefore involved in said rotation of said horizon and his brain perceives information from his vestibular system consistent with that estimated by the visual system. the capture capture means are activated by an activation movement of part of the face of the user. Advantageously, the input of the environment portion in front of the user is activated by a command linked to an activation movement of a part of the face of the user, which reduces the control means of the system. The system does not require the use of many equipment. the capture capturing means are deactivated by a deactivation movement of a part of the face of the user following the activation movement.

Avantageusement, la portion d'environnement devant l'utilisateur est relâchée par une commande liée à un mouvement de désactivation d'une partie de la face de l'utilisateur, ce qui réduit des moyens de commande du système. Le système ne nécessite donc pas l'utilisation de nombreux équipements. - l'horizon de l'utilisateur est modifié en rotation selon un angle sensiblement égal à l'angle de pivotement de la tête entre le mouvement d'activation et le mouvement de désactivation. Avantageusement, le pivotement de la tête consécutif à un mouvement d'activation est apte à entrainer en rotation la portion d'environnement virtuel devant l'utilisateur qui peut donc contrôler rapidement et efficacement ladite rotation. L'angle de rotation de l'environnement est sensiblement égal à l'angle de pivotement de la tête ce qui permet de régler au mieux l'amplitude de rotation dudit environnement visuel virtuel en fonction de l'utilisateur. - le mouvement d'activation comprend un évènement lié à la tête déclenché par l'utilisateur. Avantageusement, le déclenchement de la saisie de l'environnement devant l'utilisateur est effectif suite à un évènement particulier déclenché par l'utilisateur. Ceci permet la prise en compte d'évènements différents de déclenchement de ladite saisie en fonction éventuellement de l'utilisateur. -le mouvement de désactivation comprend un évènement lié à la tête déclenché par l'utilisateur. Avantageusement, l'arrêt de la rotation de l'environnement devant l'utilisateur est effectif suite à un évènement particulier déclenché par l'utilisateur. Ceci permet la prise en compte d'évènements différents d'arrêt de ladite rotation en fonction éventuellement de l'utilisateur. - l'évènement lié à la tête est compris dans une liste comportant un clin d'oeil, un serrage des dents, une activation cérébrale, une grimace. Avantageusement, l'évènement de déclenchement de la saisie ou d'arrêt de la rotation est compris dans une liste comprenant plusieurs mimiques ou déformations du visage déclenchées consciemment par l'utilisateur. Lesdites déformations peuvent être facilement reconnues et détectées par le système, ce qui améliore la réactivité du système. - le procédé de navigation du système de navigation comprend : -une étape de scrutation du visage de l'utilisateur, -une étape d'activation de saisie de l'environnement devant l'utilisateur, -une étape de rotation dudit environnement lié au pivotement de la tête selon l'axe du corps, -une étape de désactivation de saisie de l'environnement.Advantageously, the environment portion in front of the user is released by a command related to a deactivation movement of a portion of the face of the user, which reduces control means of the system. The system does not require the use of many equipment. - The horizon of the user is rotated at an angle substantially equal to the pivot angle of the head between the activation movement and the deactivation movement. Advantageously, the pivoting of the head consecutive to an activation movement is able to rotate the portion of the virtual environment in front of the user who can therefore quickly and efficiently control said rotation. The angle of rotation of the environment is substantially equal to the pivot angle of the head which allows to better adjust the rotation amplitude of said virtual visual environment according to the user. the activation movement comprises an event linked to the head triggered by the user. Advantageously, the triggering of the input of the environment in front of the user is effective following a particular event triggered by the user. This allows the taking into account of different events triggering said input optionally depending on the user. the deactivation movement comprises an event linked to the head triggered by the user. Advantageously, the stop of the rotation of the environment in front of the user is effective following a particular event triggered by the user. This makes it possible to take into account different events of stopping said rotation, possibly depending on the user. - The event related to the head is included in a list with a wink, a tightening of teeth, a cerebral activation, a grimace. Advantageously, the event triggering the seizure or stopping of the rotation is included in a list comprising several mimicry or facial deformations triggered consciously by the user. Said deformations can be easily recognized and detected by the system, which improves the responsiveness of the system. the method of navigation of the navigation system comprises: a step of scanning the user's face; a step of activating the input of the environment in front of the user; a step of rotating said environment related to the pivoting. of the head along the axis of the body, a step of deactivating the input of the environment.

De manière avantageuse, le procédé de navigation du système de navigation comprend : -une étape de scrutation de la face de l'utilisateur par des moyens de captage. Ladite étape de scrutation se déroule tout au long de la navigation de l'utilisateur dans l'environnement virtuel immersif. Pendant ladite étape de scrutation, les moyens de captage vérifient si l'utilisateur ne déclenche pas un mouvement d'activation ou de désactivation. -une étape de saisie de l'environnement devant l'utilisateur. Les moyens de captage permettent de positionner le point de vue de l'utilisateur et l'horizon devant l'utilisateur. Ladite étape est déclenchée par un mouvement d'activation de la part de l'utilisateur. -une étape de rotation dudit environnement devant l'utilisateur lié au pivotement de la tête selon l'axe du corps consécutive à l'étape de saisie. Le pivotement de la tête de l'utilisateur entraine de manière avantageuse l'environnement devant l'utilisateur en rotation ; aussi le cerveau de l'utilisateur perçoit mieux des informations de son système vestibulaire cohérentes avec celles estimées par le système visuel, ce qui réduit avantageusement les risques de mal du simulateur. - une étape de désactivation de saisie de l'environnement.Advantageously, the navigational method of the navigation system comprises: a step of scanning the face of the user by means of sensing. Said scanning step takes place throughout the navigation of the user in the immersive virtual environment. During said scanning step, the sensing means checks whether the user does not trigger an activation or deactivation movement. a step of entering the environment in front of the user. The sensing means make it possible to position the point of view of the user and the horizon in front of the user. Said step is triggered by an activation movement on the part of the user. a step of rotating said environment in front of the user related to the pivoting of the head along the axis of the body consecutive to the inputting step. The pivoting of the user's head advantageously drives the environment in front of the user in rotation; also the brain of the user perceives better information of his vestibular system coherent with those estimated by the visual system, which advantageously reduces the risks of harm of the simulator. a step of deactivating the entry of the environment.

Lors de cette étape, un calcul est effectué pour redéfinir un nouvel horizon disposé devant l'utilisateur lorsque sa tête revient à sa position normale après le pivotement. L'utilisateur a ainsi effectué une action volontaire avec sa tête pour modifier l'environnement visuel virtuel devant lui, ce qui a pour effet de réduire les risques de mal du simulateur. Brève description des figures D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit pour la compréhension de laquelle on se reportera aux dessins annexés dans lesquels : -la figure 1 est une vue schématique d'une salle immersive avec un utilisateur navigant dans un environnement virtuel. -les figures 2a, 2b, 2c, 2e, 2f sont des vues schématiques de modification en rotation de l'environnement visuel virtuel devant l'utilisateur. Description détaillée des figures Dans la description qui va suivre, des chiffres de référence identiques désignent des pièces identiques ou ayant des fonctions similaires. Selon la figure 1 qui présente un mode de réalisation de l'invention, un utilisateur 11 peut naviguer de façon virtuelle dans un environnement immersif tel que un CAVE qui est une salle immersive 12 comprenant trois parois verticales 14 jointes disposées entre un plafond 13 et un plancher 15 et équipée de caméras 17 et de capteurs 16 aux coins du plafond et/ou du plancher de ladite salle et de rétroprojecteurs (non représentés) pour diffuser des images de l'environnement enregistrées dans une mémoire d'une unité de contrôle 18. Lesdits capteurs et projecteurs sont reliés à ladite unité de contrôle.In this step, a calculation is performed to redefine a new horizon disposed in front of the user when his head returns to its normal position after pivoting. The user has thus made a voluntary action with his head to change the virtual visual environment in front of him, which has the effect of reducing the risk of harm of the simulator. BRIEF DESCRIPTION OF THE FIGURES Other features and advantages of the invention will become apparent on reading the detailed description which follows for the understanding of which reference will be made to the appended drawings in which: FIG. 1 is a schematic view of a room immersive with a user navigating in a virtual environment. FIGS. 2a, 2b, 2c, 2e, 2f are schematic views of rotation modification of the virtual visual environment in front of the user. DETAILED DESCRIPTION OF THE FIGURES In the following description, like reference numerals designate like parts or having similar functions. According to FIG. 1 which presents an embodiment of the invention, a user 11 can navigate virtually in an immersive environment such as a CAVE which is an immersive room 12 comprising three vertical walls 14 joined arranged between a ceiling 13 and a floor 15 and equipped with cameras 17 and sensors 16 at the corners of the ceiling and / or floor of said room and overhead projectors (not shown) to broadcast images of the environment recorded in a memory of a control unit 18. Said sensors and projectors are connected to said control unit.

L'unité de contrôle commande la projection en continu d'images d'environnement pour former l'horizon virtuel de l'utilisateur. L'horizon virtuel de l'utilisateur est apte à être modifié suivant la navigation dudit utilisateur ainsi que par les déplacements du point de vue de l'utilisateur. Pour pouvoir définir ledit point de vue ainsi que ledit horizon virtuel, l'utilisateur peut être muni d'une paire de lunettes 19 comportant une boule 20 recouverte de feuille argentée, ladite boule étant susceptible d'être repérée par les capteurs 16 de la salle immersive. La position spatiale de la boule peut alors être facilement détectée ainsi que la direction de la vision de l'utilisateur. Le système de navigation 10 dans l'environnement virtuel selon l'invention comprend des moyens de captation de saisie d'une portion de l'environnement virtuel nécessaires pour simuler un déplacement de l'utilisateur dans ledit environnement virtuel. Lesdits moyens de captation de saisie permettent ainsi à l'utilisateur de sélectionner une portion de l'espace virtuel pour ensuite la manipuler en rotation autour d'un axe selon sa convenance. Pour modifier l'horizon en rotation de l'utilisateur, l'utilisateur doit donc initialiser une sélection de la portion d'environnement dans l'horizon de l'utilisateur, puis de faire glisser en rotation ladite sélection et ensuite de relâcher ladite sélection. Pour faciliter ladite navigation, lesdits moyens de captation de saisie sont liés aux mouvements de la tête de l'utilisateur. Les capteurs 16 sont aptes à détecter lesdits mouvements de la tête qui comprennent d'une part des mouvements de la face de l'utilisateur et d'autre part des mouvements dans l'espace de ladite tête. Les mouvements de la face de l'utilisateur peuvent comprendre par exemple un clin d'oeil ou un serrage des dents, une activation cérébrale, une grimace, c'est-à-dire une mimique ou un signe distinctif sur ladite face pour permettre une association entre ledit signe et une commande interprétable par l'unité de contrôle 18. L'utilisateur peut ainsi disposer de plusieurs commandes immanentes et interprétables par l'unité de contrôle 18. Les mouvements dans l'espace de la tête sont détectés également par les capteurs 16 de la salle immersive afin de pouvoir définir le point de vue ainsi que le champ de vison de l'utilisateur. Les informations de détection par lesdits capteurs sont ensuite transmises de manière préférentielle en temps réel par lesdits capteurs 16 à l'unité de contrôle 18 qui est apte à effectuer des calculs pour définir l'horizon virtuel de l'utilisateur et de contrôler les projections des images par les rétroprojecteurs. Selon la figure 2b, la portion de l'environnement virtuel sélectionnée est de manière préférentielle en face de la tête de l'utilisateur. L'utilisateur tourne donc sa tête vers ladite portion d'environnement. Selon les figures 2c et 2e, le système de navigation peut reconnaitre un premier mouvement de la face comme une commande d'activation ou d'initialisation de la sélection et un second mouvement de la face comme une commande de désactivation qui doit suivre une commande d'activation. Le mouvement d'activation 22 dans l'exemple présenté est une fermeture d'un ceil et le mouvement de désactivation 23 est l'ouverture du même ceil. Selon la figure 2d, entre la commande d'activation et la commande de désactivation, le système de navigation analyse les mouvements de la tête dans l'espace et particulièrement le pivotement de ladite tête autour de l'axe du corps 21. Le pivotement de la tête autour de l'axe du corps entraine une rotation de la portion d'environnement sélectionnée ainsi que de l'environnement visuel virtuel devant l'utilisateur. L'angle de rotation 24 est de manière préférentielle sensiblement égal à l'angle de pivotement 25 de la tête, cependant ledit angle de rotation peut être proportionnel à l'angle de la tête afin d'avoir un compromis entre une atténuation du mal du simulateur et une facilité à effectuer les mouvements de tête. Puis, ainsi que représentée dans la figure 2e, lorsque l'utilisateur déclenche la commande de désactivation, le système est apte à projeter des images d'un nouvel horizon devant l'utilisateur quand la tête revient depuis la position de pivotement vers une position normale. On entend par position normale de la tête une position médiane de ladite tête entre les positions extrêmes de pivotement à droite et à gauche. Ledit procédé de navigation comprend donc : -une étape de scrutation de la face de l'utilisateur. Cette étape se déroule de façon continue pendant toute la navigation de l'utilisateur dans la salle immersive. Pendant ladite étape de scrutation, les moyens de captage vérifient si l'utilisateur ne déclenche pas un mouvement d'activation 22 ou de désactivation 23. La fréquence de scrutation est naturellement fonction des moyens de captage mais elle peut être supérieure à 10hz, ce qui est largement pertinent pour capter les mouvements intentionnels de la part de l'utilisateur. Pendant l'étape de scrutation, l'unité de contrôle du système est apte à calculer et à commander les projetions des images d'environnement dans l'horizon de l'utilisateur. -une étape d'activation de la sélection. Ladite étape d'activation sélectionne une portion de l'environnement virtuel dans l'horizon de l'utilisateur. Les moyens de captage permettent de positionner le point de vue de l'utilisateur et l'horizon de l'utilisateur. -une étape de rotation de ladite portion d'environnement virtuel sélectionnée ainsi que de l'environnement virtuel. Ladite rotation est effectuée selon un axe vertical sensiblement orthogonal au plan du plancher 15 de la salle immersive et selon un angle 24 sensiblement égal à l'angle de pivotement de la tête 25 autour de l'axe du corps. -une étape de désactivation de saisie de l'environnement. Le système est alors apte à projeter le nouvel horizon de l'utilisateur quand la tête de l'utilisateur revient de la position pivotée vers la position normale. Les figures 2a, 2b, 2c, 2e, 2f représentent un exemple du procédé de modification en rotation de l'environnement virtuel devant l'utilisateur selon l'invention. Selon la figure 2a, l'utilisateur 11 navigue dans l'environnement virtuel le long d'une route et l'utilisateur aborde par exemple un virage. La tête de l'utilisateur est en position normale. Son horizon est donc disposé devant lui. Selon la figure 2b, l'utilisateur tourne la tête pour regarder la ligne de ladite route après le virage. Son horizon est alors modifié et prend en compte une portion d'environnement disposée dans la ligne de ladite route après le virage. Le système de navigation calcule et projette les images de la portion d'environnement disposée dans l'horizon de l'utilisateur.The control unit controls the continuous projection of environmental images to form the virtual horizon of the user. The virtual horizon of the user is able to be modified according to the navigation of said user as well as by the movements of the point of view of the user. In order to be able to define said point of view as well as said virtual horizon, the user may be provided with a pair of glasses 19 having a ball 20 covered with silver foil, said ball being able to be identified by the sensors 16 of the room immersive. The spatial position of the ball can then be easily detected as well as the direction of vision of the user. The navigation system 10 in the virtual environment according to the invention comprises capturing means for capturing a portion of the virtual environment necessary to simulate a user's movement in said virtual environment. Said capture capture means thus allow the user to select a portion of the virtual space and then manipulate it in rotation about an axis according to its convenience. To modify the rotating horizon of the user, the user must therefore initialize a selection of the portion of environment in the horizon of the user, then to rotate said selection and then release said selection. To facilitate said navigation, said capture means capture are related to the movements of the head of the user. The sensors 16 are able to detect said movements of the head which comprise on the one hand movements of the face of the user and on the other hand movements in the space of said head. The movements of the face of the user may comprise for example a wink or a tightening of the teeth, a cerebral activation, a grimace, that is to say a mimic or a distinctive sign on said face to allow a association between said sign and a command interpretable by the control unit 18. The user can thus have several commands immanent and interpretable by the control unit 18. The movements in the space of the head are also detected by the sensors 16 of the immersive room in order to be able to define the point of view as well as the field of vision of the user. The detection information by said sensors is then preferentially transmitted in real time by said sensors 16 to the control unit 18 which is able to perform calculations to define the virtual horizon of the user and to control the projections of the images by overhead projectors. According to FIG. 2b, the portion of the virtual environment selected is preferentially in front of the user's head. The user therefore turns his head towards said portion of environment. According to FIGS. 2c and 2e, the navigation system can recognize a first movement of the face as an activation or initialization command of the selection and a second movement of the face as a deactivation command which must follow a command of activation. The activation movement 22 in the example presented is a closing of a eye and the disabling movement 23 is the opening of the same eye. According to FIG. 2d, between the activation command and the deactivation command, the navigation system analyzes the movements of the head in space and particularly the pivoting of said head about the axis of the body. the head around the body axis causes a rotation of the selected environment portion and the virtual visual environment in front of the user. The angle of rotation 24 is preferably substantially equal to the pivoting angle 25 of the head, however said angle of rotation can be proportional to the angle of the head in order to have a compromise between an attenuation of the pain of the head. simulator and ease to perform head movements. Then, as shown in FIG. 2e, when the user triggers the deactivation command, the system is able to project images of a new horizon in front of the user when the head returns from the pivoting position to a normal position. . By normal position of the head is meant a middle position of said head between the extreme positions of pivoting right and left. Said navigation method therefore comprises: a step of scanning the face of the user. This step takes place continuously throughout the user's navigation in the immersive room. During said scanning step, the sensing means verify whether the user does not trigger an activation 22 or deactivation movement 23. The scanning frequency is naturally a function of the sensing means but may be greater than 10 Hz, which is largely relevant for capturing intentional movements on the part of the user. During the scanning step, the system control unit is able to calculate and control the projects of the environment images in the user's horizon. a step of activating the selection. Said activation step selects a portion of the virtual environment in the user's horizon. The sensing means make it possible to position the point of view of the user and the horizon of the user. a step of rotating said portion of virtual environment selected as well as the virtual environment. Said rotation is performed along a vertical axis substantially orthogonal to the plane of the floor 15 of the immersive room and at an angle 24 substantially equal to the pivot angle of the head 25 around the axis of the body. a step of deactivating the input of the environment. The system is then able to project the new horizon of the user when the head of the user returns from the rotated position to the normal position. FIGS. 2a, 2b, 2c, 2e, 2f represent an example of the method of modification in rotation of the virtual environment in front of the user according to the invention. According to FIG. 2a, the user 11 navigates in the virtual environment along a road and the user approaches, for example, a turn. The user's head is in the normal position. His horizon is therefore laid before him. According to Figure 2b, the user turns his head to look at the line of said road after the turn. Its horizon is then modified and takes into account a portion of environment disposed in the line of said road after the turn. The navigation system calculates and projects the images of the portion of environment disposed in the horizon of the user.

Selon la figure 2c, l'utilisateur déclenche l'activation de la sélection par un signe distinctif sur son visage. Ledit signe est détecté par les moyens de captage 16. La portion d'environnement disposée en face de l'utilisateur au moment de l'activation est alors sélectionnée.According to Figure 2c, the user triggers the activation of the selection by a distinctive sign on his face. Said sign is detected by the sensing means 16. The environmental portion disposed opposite the user at the time of activation is then selected.

Selon la figure 2d, l'utilisateur peut alors tourner la tête et tirer en rotation la portion d'environnement sélectionnée. Selon la figure 2e, l'utilisateur déclenche la désactivation et la tête de l'utilisateur peut revenir à la position normale. Le système peut alors calculer et afficher un nouvel horizon devant l'utilisateur.According to Figure 2d, the user can then turn the head and rotate the selected portion of environment. According to Figure 2e, the user triggers the deactivation and the user's head can return to the normal position. The system can then calculate and display a new horizon in front of the user.

L'horizon de l'utilisateur a ainsi effectué une rotation selon l'axe vertical selon un angle 24 égal à l'angle de pivotement 25 de la tête autour de l'axe du corps, ledit pivotement étant défini entre les moments de détection du mouvement d'activation 22 et de détection du mouvement de désactivation 23. La tête de l'utilisateur a effectué un pivotement entrainant la rotation de la portion de l'environnement virtuel et le cerveau perçoit de ce fait des informations de son système vestibulaire cohérentes avec celles estimées par le système visuel en vue de l'atténuation voire l'annulation du mal du simulateur. L'objectif de l'invention est atteint : le système de navigation et le procédé de navigation selon l'invention permettent de réduire voire d'annuler le mal du simulateur dans un déplacement en rotation de l'environnement virtuel, ce type de déplacement est le plus susceptible de produire le mal du simulateur. L'invention n'est cependant pas réduite au mode de réalisation présenté ci-avant et l'homme du métier saura apporter toute variante conforme à son esprit. Par exemple, l'environnement virtuel immersif peut comprendre un casque de navigation virtuelle qui comporte des moyens de captage des mouvements de la tête de l'utilisateur.The horizon of the user has thus rotated along the vertical axis at an angle equal to the pivot angle of the head about the axis of the body, said pivoting being defined between the moments of detection of the activation movement 22 and detection of the deactivation movement 23. The user's head has pivoted causing the rotation of the portion of the virtual environment and the brain thus perceives information from its vestibular system coherent with those estimated by the visual system for the attenuation or cancellation of the simulator. The object of the invention is achieved: the navigation system and the navigation method according to the invention make it possible to reduce or even cancel the simulator harm in a rotational displacement of the virtual environment, this type of displacement is most likely to produce simulator harm. The invention is however not reduced to the embodiment presented above and the skilled person will be able to provide any variant within his mind. For example, the immersive virtual environment may comprise a virtual navigation helmet that includes means for capturing movements of the user's head.

Claims (9)

REVENDICATIONS1. Système de navigation (10) dans un environnement virtuel immersif (12), comprenant une unité de contrôle (18) comportant des données d'environnement, des moyens de captage (16) de mouvements de la tête d'un 5 utilisateur, et des moyens de captation de saisie d'une portion de l'environnement virtuel dans l' horizon de l'utilisateur, Caractérisé en ce que le système est apte à modifier en rotation l'horizon de l'utilisateur selon un mode de commande lié au pivotement de la tête de l'utilisateur selon un axe du corps (21). 10REVENDICATIONS1. A navigation system (10) in an immersive virtual environment (12), comprising a control unit (18) having environment data, means for sensing (16) movements of a user's head, and capturing means for capturing a portion of the virtual environment in the horizon of the user, characterized in that the system is able to modify in rotation the horizon of the user according to a control mode linked to the pivoting of the user's head along an axis of the body (21). 10 2. Système de navigation (10) selon la revendication 1, caractérisé en ce que les moyens de captation de saisie sont liés aux mouvements de la tête de l'utilisateur pour modifier ledit horizon de l'utilisateur consécutif à un mouvement de rotation de sa tête selon l'axe du corps (21).2. navigation system (10) according to claim 1, characterized in that the capture means capture are related to the movements of the head of the user to modify said horizon of the user following a rotational movement of his head along the axis of the body (21). 3. Système de navigation (10) selon la revendication 2 caractérisé 15 en ce que les moyens de captation de saisie sont activés par un mouvement d'activation (22) d'une partie de la face de l'utilisateur.3. navigation system (10) according to claim 2 characterized in that the capture means capture are activated by an activation movement (22) of a portion of the face of the user. 4. Système de navigation (10) selon la revendication 3, caractérisé en ce que les moyens de captation de saisie sont désactivés par un mouvement de désactivation (23) d'une partie de la face de l'utilisateur 20 consécutif au mouvement d'activation.4. Navigation system (10) according to claim 3, characterized in that the input capturing means are deactivated by a deactivation movement (23) of a portion of the face of the user 20 consecutive to the movement of activation. 5. Système de navigation (10) selon la revendication 4, caractérisé en ce que l'horizon de l'utilisateur est modifié en rotation selon un angle (24) sensiblement égal à l'angle de pivotement (25) de la tête entre le mouvement d'activation et le mouvement de désactivation. 255. navigation system (10) according to claim 4, characterized in that the horizon of the user is rotated at an angle (24) substantially equal to the pivot angle (25) of the head between the activation movement and deactivation movement. 25 6. Système de navigation (10) selon l'une quelconque des revendications 2 à 5, caractérisé en ce que le mouvement d'activation (22) comprend un évènement lié à la tête déclenché par l'utilisateur.Navigation system (10) according to any one of claims 2 to 5, characterized in that the activation movement (22) comprises an event related to the head triggered by the user. 7. Système de navigation (10) selon l'une quelconque des revendications 2 à 6, caractérisé en ce que le mouvement de désactivation (23) 30 comprend un évènement lié à la tête déclenché par l'utilisateur.Navigation system (10) according to any one of claims 2 to 6, characterized in that the deactivation movement (23) comprises a user-related event related to the head. 8. Système de navigation (10) selon l'une quelconque des revendications 6 ou 7, caractérisé en ce que l'évènement lié à la tête est compris dans une liste comportant un clin d'oeil, un serrage des dents, une activation cérébrale, une grimace.8. navigation system (10) according to any one of claims 6 or 7, characterized in that the event related to the head is included in a list with a snap, a tightening of teeth, brain activation , a grimace. 9. Procédé de navigation d'un système de navigation (10) selon l'une quelconque des revendications 1 à 8, caractérisé en ce que ledit procédé comprend : -une étape de scrutation du visage de l'utilisateur, -une étape d'activation de saisie de l'environnement devant l'utilisateur, -une étape de rotation dudit environnement lié au pivotement de la tête selon l'axe du corps, -une étape de désactivation de saisie de l'environnement.9. Navigation method of a navigation system (10) according to any one of claims 1 to 8, characterized in that said method comprises: a step of scanning the face of the user, a step of activation of input of the environment in front of the user, a step of rotation of said environment related to the pivoting of the head along the axis of the body, a step of deactivating input of the environment.
FR1453606A 2014-04-22 2014-04-22 NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT Active FR3020153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1453606A FR3020153B1 (en) 2014-04-22 2014-04-22 NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1453606A FR3020153B1 (en) 2014-04-22 2014-04-22 NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT

Publications (2)

Publication Number Publication Date
FR3020153A1 true FR3020153A1 (en) 2015-10-23
FR3020153B1 FR3020153B1 (en) 2017-08-25

Family

ID=50877498

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1453606A Active FR3020153B1 (en) 2014-04-22 2014-04-22 NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT

Country Status (1)

Country Link
FR (1) FR3020153B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033731A1 (en) * 1998-12-10 2000-06-15 Andrew Junker Brain-body actuated system
US20120050140A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display control
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033731A1 (en) * 1998-12-10 2000-06-15 Andrew Junker Brain-body actuated system
US20120050140A1 (en) * 2010-08-25 2012-03-01 Border John N Head-mounted display control
US20120188148A1 (en) * 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System

Also Published As

Publication number Publication date
FR3020153B1 (en) 2017-08-25

Similar Documents

Publication Publication Date Title
US10955914B2 (en) Gaze-based object placement within a virtual reality environment
EP3465680B1 (en) Automatic audio attenuation on immersive display devices
US10649212B2 (en) Ground plane adjustment in a virtual reality environment
CN108475120B (en) Method for tracking object motion by using remote equipment of mixed reality system and mixed reality system
CN108073276B (en) Dragging virtual elements for augmented and/or virtual reality environments
CN107209386B (en) Augmented reality view object follower
EP3137976B1 (en) World-locked display quality feedback
KR102194164B1 (en) Holographic object feedback
EP3172649B1 (en) Anti-trip when immersed in a virtual reality environment
US9904055B2 (en) Smart placement of virtual objects to stay in the field of view of a head mounted display
US10339700B2 (en) Manipulating virtual objects on hinged multi-screen device
FR3020153A1 (en) NATURAL EGOCENTRIC ROTATION IN A VIRTUAL ENVIRONMENT
FR3120719A1 (en) Rotational navigation in virtual environment with visual reference
WO2022201922A1 (en) Information processing apparatus, information processing method, and information processing system
FR3023020A1 (en) METHOD FOR MANAGING AN INTERFACE

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

CA Change of address

Effective date: 20221121

PLFP Fee payment

Year of fee payment: 10