EP3577531A1 - Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle - Google Patents

Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle

Info

Publication number
EP3577531A1
EP3577531A1 EP18707070.1A EP18707070A EP3577531A1 EP 3577531 A1 EP3577531 A1 EP 3577531A1 EP 18707070 A EP18707070 A EP 18707070A EP 3577531 A1 EP3577531 A1 EP 3577531A1
Authority
EP
European Patent Office
Prior art keywords
signal
screen
space
known position
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP18707070.1A
Other languages
German (de)
English (en)
Inventor
Matthieu MIKA
Christophe MION
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PSA Automobiles SA
Original Assignee
PSA Automobiles SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PSA Automobiles SA filed Critical PSA Automobiles SA
Publication of EP3577531A1 publication Critical patent/EP3577531A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Definitions

  • the invention relates to immersive virtual reality systems.
  • immersive virtual reality systems are increasingly being used to immerse users in virtual environments. This is particularly the case, although not exclusively, in the field of vehicles, possibly of the automotive type.
  • Such an immersion may be intended, for example, to teach a user to evolve in a particular environment or to use objects or functions present in a particular environment, or to analyze the behavior of a user in a particular environment, or to observe a particular environment according to the position of a user in relation to the latter.
  • an immersive system includes:
  • At least one target that can be secured to a user (or sometimes an object) that is able to move in a predefined space
  • detection means able to detect the current position of this target in this predefined space and to deliver a signal representative of this current position
  • At least one display means responsible for displaying on at least one screen, installed in the predefined space, images (possibly three-dimensional (or 3D)) intended for this screen, and
  • processing means responsible for defining, in real time for each associated screen, three-dimensional (possibly stereoscopic) images of a chosen environment, as a function of the current position of the / each target and the position of the associated screen in the predefined space.
  • This time difference or delay results from the processing time of signals and data, the transmission time of signals, data and images, the graphical rendering time of computers and the time difference between the instant where the user is placed in a new position and the moment when the detection means detect the target (and therefore the user) in this new position.
  • the invention is therefore particularly intended to improve the situation.
  • an analysis device intended to perform analyzes in an immersive virtual reality system comprising:
  • detection means able to detect the current position of this target in this space and to deliver a first signal representative of this current position
  • At least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, and
  • processing means responsible for defining images for this screen as a function of the detected position of the object.
  • a first sensor capable of generating a second signal when the object reaches a known position in this space
  • a second sensor capable of generating a third signal in the event of detection of an image change displayed on the screen, subsequent to the detection of the object in this known position by the detection means
  • analysis means coupled at least to the first and second sensors and suitable for determining a first instant of reception of the second signal and a second instant of reception of the third signal, then determining a first time difference (or latency) between the first and second reception instants determined.
  • the analysis device according to the invention may comprise other characteristics that can be taken separately or in combination, and in particular:
  • its analysis means may also be coupled to the detection means and processing means, and suitable for determining a third instant of reception of a first signal representative of the known position detected by the detection means, and a second time difference between the first and third reception instants determined, this second time difference being representative of a detection delay of the target in the known position by the detection means;
  • its analysis means may be able to determine a third time difference between the first and second time differences determined, this third time difference being representative of at least one image generation duration by the processing means during a change image;
  • its second sensor may be able to detect a variation in light intensity resulting from a change of image displayed on the screen
  • it may comprise a rail on which is able to move the object and which is adapted to be placed in the space so that the object can move to the known position; it can comprise a support on which the rail is fixedly fixed;
  • the rail can be secured to the support so as to be inclined at a predefined acute angle with respect to a horizontal plane of the space, and thus allow an automatic gravitational displacement of the object with respect to the rail between a position of departure and at least the known position;
  • it can comprise electromagnetic means fixedly installed on the rail, and clean, on the one hand, to immobilize the object in the starting position when placed in a first state of attraction, and secondly releasing the object so that it can move to the known position when placed in a second non-attractive state;
  • its first sensor may be able to be placed in the vicinity of the known position and to generate the second signal when the object contacts it.
  • the invention also proposes an immersive virtual reality system comprising at least one target capable of being secured to an object capable of moving in a space, detection means able to detect the current position of the target in this space and to delivering a first signal representative of this current position, at least one display means responsible for displaying, on at least one screen, installed in the predefined space, images intended for this screen, processing means responsible for defining images for the screen according to at least this current position detected, and an analysis device of the type of that presented above.
  • FIG. 1 diagrammatically and functionally illustrates an example of an immersive virtual reality system coupled to an exemplary embodiment of an analysis device according to the invention
  • FIG. 2 diagrammatically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a starting position
  • FIG. 3 schematically and functionally illustrates the analysis device of FIG. 1 with its object to be detected placed in a known (final) position.
  • the object of the invention is in particular to propose a DA analysis device intended to perform analyzes in an immersive virtual reality system SI in order to determine at least the global latency time and the latter (SI).
  • the virtual reality immersive system SI is intended to immerse a user in a virtual environment representative of at least a part of a vehicle, possibly of the automotive type. (such as a car). But the invention is not limited to this type of virtual environment. It concerns indeed any type of virtual environment.
  • FIG. 1 shows schematically an example of an immersive (virtual reality) system SI associated with a predefined space EP in which at least a partial embodiment of an analysis device DA according to the invention is at least partially installed.
  • an immersive (virtual reality) system SI comprises at least one CD target, detection means MD, processing means MT, and at least one display means PI, EA.
  • Each CD target is adapted to be secured to a user (or sometimes an OM object of the DA analysis device) which is adapted to move in a predefined EP space.
  • the detection means MD are able to detect the current position of each target CD in the predefined space EP and to deliver a first signal s1 which is representative of this current position.
  • Each EA screen is installed in the predefined EP space.
  • the processing means MT are responsible for defining, in real time for each associated screen EA, possibly three-dimensional (and possibly stereoscopic) images of a chosen environment, as a function of the detected position of the object OM (function of the current position of the / each CD target) and the position of the associated EA screen in the space predefined EP.
  • the processing means MT are loaded, at the request of the latter (DA), to define for each associated screen EA a first image until the object OM has not was detected by the detection means MD in a known position p2 in the EP space (see FIG. 3), and a second image when the object OM was detected by the detection means MD in this known position p2.
  • the first image may be all white, and the second image may be all black.
  • Each display means PI, EA is responsible for displaying on at least one EA screen, installed in the predefined space EP, images that are intended for this screen EA. It should be noted that each display means may comprise an EA screen and at least one PI projector, or an EA screen and an LCD type panel with its associated electronic control means, for example.
  • the number of EA screens is generally between one and five.
  • Each EA screen is installed in the predefined EP space.
  • At least one computer is responsible for defining in real time three-dimensional (possibly stereoscopic) images of the chosen environment for at least one associated EA screen, depending on the current position of the CD targets (possibly a door PC targets) and the position of this associated EA screen in the predefined EP space.
  • each PI projector is responsible for projecting on the associated screen EA three-dimensional images determined by the associated computer and for this EA screen.
  • the immersive system SI comprises only a display means comprising an EA screen associated with a projector P1. However, it could comprise several (at least two) PI display means. , EA. Moreover, each display means is generally associated with its own processing means MT. But we could consider that the same processing means (very powerful) define images for several (at least two) display means.
  • SI immersive system comprises several targets secured to a PC target holder intended to be secured to a user or an OM object of the analysis device DA to move in the predefined space EP.
  • the target gate PC here comprises four CD targets whose positions must be determined at each measurement instant by the detection means MD in order to deduce at each instant of measurement the current position of the object OM.
  • the PC target gate may include any number of CD targets, provided that this number is at least one (1).
  • the detection means MD here comprise two cameras each associated with an emitter of infrared photons and capable of filming in the infrared.
  • Each emitter emits an infrared beam that will be reflected on the targets (or spheres) CD.
  • Each camera records images of the photons reflected on the targets (or spheres) CD, and sends each recorded image to an image analysis computer which will deduce the position in the space of the target target PC at the instant considered.
  • the MD detection means could include more than two cameras.
  • the processing means MT can be subdivided into several parts (here four (01 -04)), when they have to define stereoscopic 3D images for at least one means of processing.
  • display here a PI projector associated with an EA screen.
  • the second part 02 may be a computer responsible for defining the images for the left eye.
  • the third part 03 may be a computer responsible for defining the images for the right eye.
  • the fourth part 04 may be a computer responsible for transmitting synchronously to the display means (here a projector PI associated with an EA screen) the images defined by the second OR2 and third OR3 parts according to the same position in progress detected by the detection means MD.
  • the first part 01 may be a computer coupled to the detection means MD and here to the second 02 and third 03 computers, and responsible for controlling the second 02 and third 03 computers according to the current positions detected by the detection means MD .
  • a device DA analysis comprises, in addition to the OM object, at least a first sensor C1, a second sensor C2 and analysis means MA.
  • the analysis device DA can inform the processing means MT so that they define for each associated screen EA the first image until the OM object has been detected by the detection means MD in the known position p2, and a second image when the object OM has been detected by the detection means MD in this known position p2.
  • the object OM is mobile so that it can move in the (predefined) space EP.
  • it must be equipped with at least one CD target, possibly forming part of a target PC gate (as in the non-limiting example illustrated in Figures 1 to 3).
  • the first sensor C1 is capable of generating a second signal s2 when the object OM reaches a known position p2 in the space EP (see FIG. 3).
  • This first sensor C1 can, for example and as illustrated without limitation in FIGS. 1 to 3, be adapted to be placed in the vicinity of the known position p2 and to generate the second signal s2 when the object OM contacts it.
  • it may, for example, be of piezoelectric or capacitive or inductive or mechanical type. But in an alternative embodiment the detection could be done without contact (and therefore at a distance), for example by interrupting a light beam passing through the known position p2.
  • the second sensor C2 is capable of generating a third signal s3 when an image change displayed on the screen EA is detected.
  • display image change is meant here the replacement of a first image by a second image immediately distinguishable from the first image by at least one characteristic. For example, when the first image is all white and the second image is all black, the second sensor C2 can generate a third signal s3 when it detects on the EA screen the transition from white to black.
  • This second sensor C2 may, for example, be able to detect a variation in light intensity resulting from an image change displayed on the EA screen.
  • it may be a photodiode which delivers a third signal s3 when it detects not only white.
  • This first time difference and1 constitutes the overall latency time of the immersive system S1 since it is equal to the difference between the instant in which the object OM (representing a user) changes position (here is detected in p2 by the first sensor C1) and the instant i2 where is displayed on the screen EA the new (or second) image (for example all black and which represents the image resulting from the detection of the object OM in p2 by means of MD detection).
  • the known position p2 serves as a reference position with respect to which the analysis means MA determine the first time difference (or overall latency) and 1.
  • the analysis means MA when they receive at a time a second signal s2 generated by the first sensor C1, they record this instant as the first moment it, and when they receive at a moment a third signal s3 generated by the second sensor C2, they record this moment as second time i2.
  • the triggering of the image change is carried out automatically by the processing means MT (here the first part 01) when they receive MD detection means a first signal s1 representative of the known position p2 detected for the OM object.
  • the analysis means MA are part of a computer OR which is coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD (here via the first computer 01 means of MT treatment of the SI immersive system).
  • the analysis means MA could constitute an electronic equipment (for example comprising an oscilloscope and an electronic signal analysis circuit) coupled (directly or indirectly) to the first C1 and second C2 sensors and to the detection means MD of the immersive system.
  • the analysis means MA could be implanted in the processing means MT (for example in the first computer 01 which is coupled to the detection means MD). Therefore, these analysis means MA can be made in the form of software modules (or computer (or "software”)), or a combination of electronic circuits (or “hardware”) and software modules.
  • the analysis means MA when the analysis means MA are coupled to the detection means MD and processing means MT, they may also be suitable for determining a third instant i3 for receiving the first signal s1 which is representative of the known position p2 detected. For example, when the analysis means MA receive at a time a first signal s1 which represents the known position p2 detected, they record this instant as the third time i3. In this case, the analysis means MA are also able to determine a second time difference and 2 between the first 11th and third i3 instants of reception determined.
  • This second time difference and2 is representative of the detection delay of the target CD in the known position p2 by the detection means MD. Indeed, the moment it is the moment when the object OM (which materializes a user moving in the space EP) is found placed in a "new position" (here p2) and the moment i3 is the moment when the detection means MD detect the target (s) CD (and therefore the object OM) in this new position (here p2).
  • This second time difference and2 is particularly useful to know because it contributes significantly to the overall latency of the immersive system SI.
  • the analysis means MA may also be suitable for determining a third time difference and 3 between the first and second and second time differences determined.
  • This third time difference and3 is representative of at least the image generation duration by the MT processing means during a change of image (that is to say, following the receipt of the first signal s1 representative of p2).
  • This third time difference and 3 is also useful to know because it contributes significantly to the overall latency of the immersive system SI.
  • the analysis means MA may also be and possibly informed by each of the parts 01 to 04 of the processing means MT of the reception of a signal or instructions or of a data file and / or transmitting a signal or instructions or a data file to another equipment of the immersive system SI. This allows to deduce intermediate processing times which also participate in the overall latency of the immersive system SI. Thus, one can have all the contributions to the overall latency of the immersive system SI.
  • Moving the OM object can be done in different ways.
  • the analysis device DA may, for example, comprise a rail R on which is able to move the object OM and which is adapted to be placed in the space EP so that the object OM can move to the known position p2. In this case the displacement of the object OM is constrained.
  • this rail R may be a single axis, possibly of circular section but not necessarily.
  • the analysis device DA may also comprise a support SR on which the rail R is fixedly secured.
  • Such a support SR may, for example, be intended to be placed on the ground in the EP space. It can therefore allow a placement of the rail R in a position parallel to the ground or inclined at an acute angle predefined with respect to the ground and therefore with respect to a horizontal plane of the space EP (as illustrated without limitation in FIGS. 3).
  • the object OM In the first alternative (parallel), for the object OM to move from a starting position to the known position p2, it must either receive an initial pulse by a person, or be provided with an electric motor having preferably remotely controllable operation (eg example by wave).
  • the displacement of the object OM with respect to the rail R can be done automatically by gravitation between a starting position p1 (illustrated in FIGS. 1 and 2) and at least the known position p2 (illustrated in FIG. in Figure 3). In other words, the displacement results from the fall of the object OM along the rail R (along the arrow F1 of FIG. 2).
  • the angle of inclination of the rail R relative to the ground is equal to 90 °.
  • the analysis device DA may comprise electromagnetic means MEL fixedly installed on the rail R in the vicinity of the starting position p1.
  • electromagnetic means MEL are able, on the one hand, to immobilize the object OM in its starting position p1 when they are placed in a first state of attraction, and, on the other hand, to release the object OM so that it can move to the known position p2 when placed in a second non-attractive state.
  • These electromagnetic means MEL can, for example, be arranged in the form of an electromagnet which is attractive when it is supplied with current and not attractive when it is not supplied with current. Note that if the electromagnet is sufficiently powerful, it can also be used, when powered, to raise the OM object automatically from the known position p2 to its starting position p1.
  • Such electromagnetic means MEL may, for example, have an operation that is controllable remotely, possibly by wave. This control can be done via a computer coupled to the electromagnetic means MEL, and which is optionally that (OR) which can include the MA analysis means, or via a remote control. This allows a user to trigger the fall of the OM object to distance without jeopardizing the further detection in its fall by the MD detection means.
  • the first sensor C1 is fixedly secured to the rail R just below the known position p2 because the first sensor C1 provides contact detection.
  • the displacement of the object OM is not necessarily constrained, for example because of its attachment to a rail R.
  • the object OM is arranged in a manner to roll on the floor of the EP space.
  • it may comprise wheels which are possibly rotated by an electric motor.
  • the OM object moves from a starting position to the known position p2 by means of an initial pulse supplied by a person.
  • the operation of the latter induces the displacement of the object OM from a starting position to the known position p2.
  • This operation is then preferably remotely controllable (possibly by waves). This control can be done via a computer coupled to the object OM, and which is optionally that (OR) which can comprise the analysis means MA, or via a remote control.
  • the object OM may have a large number of arrangements, depending in particular on how it should move.
  • it may be made in the form of a part (possibly metal) of parallelepipedal general shape, either with a groove or coupling means adapted (s) to its movement along a R rail, either with wheels.
  • the movements could also be done on air cushion, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

Un dispositif (DA) analyse un système immersif de réalité virtuelle (SI) comprenant une cible (CD) solidarisée à un objet (OM), des moyens de détection (MD) délivrant un premier signal représentatif de la position en cours de la cible (CD), des moyens de traitement (MT) définissant des images en fonction de la position en cours détectée, et au moins un moyen d'affichage d'images (EA, PI). Ce dispositif (DA) comprend un premier capteur (C1) générant un deuxième signal lorsque l'objet (OM) parvient à une position connue, un second capteur (C2) générant un troisième signal lorsqu'il détecte un changement d'image affichée consécutif à la détection de l'objet (OM) dans cette position connue par les moyens de détection (MD), et des moyens d'analyse (MA) déterminant des premier et second instants de réception des deuxième et troisième signaux puis un premier écart temporel entre ces premier et deuxième instants de réception.

Description

DISPOSITIF D'ANALYSE POUR LA DETERMINATION D'UN TEMPS DE LATENCE D'UN SYSTEME IMMERSIF DE REALITIE VIRTUELLE
L'invention concerne les systèmes immersifs de réalité virtuelle.
Comme le sait l'homme de l'art, on utilise de plus en plus souvent des systèmes immersifs de réalité virtuelle afin d'immerger des utilisateurs dans des environnements virtuels. C'est notamment le cas, bien que non limitativement, dans le domaine des véhicules, éventuellement de type automobile. Une telle immersion peut être destinée, par exemple, à apprendre à un utilisateur à évoluer dans un environnement particulier ou à se servir d'objets ou fonctions présents dans un environnement particulier, ou à analyser le comportement d'un utilisateur dans un environnement particulier, ou encore à observer un environnement particulier en fonction de la position d'un utilisateur par rapport à ce dernier.
Habituellement un système immersif (de réalité virtuelle) comprend :
- au moins une cible propre à être solidarisée à un utilisateur (ou parfois un objet) qui est propre à se déplacer dans un espace prédéfini,
- des moyens de détection propres à détecter la position en cours de cette cible dans cet espace prédéfini et à délivrer un signal représentatif de cette position en cours,
- au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images (éventuellement tridimensionnelles (ou 3D)) destinées à cet écran, et
- des moyens de traitement chargés de définir en temps réel pour chaque écran associé des images tridimensionnelles (éventuellement stéréoscopiques) d'un environnement choisi, en fonction de la position en cours de la/chaque cible et de la position de l'écran associé dans l'espace prédéfini.
Lorsqu'un utilisateur utilise un tel système immersif, il s'aperçoit rapidement qu'il existe un écart temporel ou délai entre l'instant où il change de position et l'instant où il voit chaque image qui résulte de son changement de position sur chaque écran. Cet écart temporel ou délai, généralement appelé temps de latence, résulte des temps de traitement des signaux et données, des temps de transmission des signaux, données et images, du temps de rendu graphique des ordinateurs et de l'écart temporel entre l'instant où l'utilisateur se retrouve placé dans une nouvelle position et l'instant où les moyens de détection détectent la cible (et donc l'utilisateur) dans cette nouvelle position.
Généralement, plus ce temps de latence est important, plus l'utilisateur est gêné et peut faire l'objet de nausées, de vertiges ou de pertes d'équilibre. Il est donc important de connaître le temps de latence (global) d'un système immersif, et si possible les principaux paramètres qui y contribuent, si l'on veut le réduire à une valeur qui n'est pas gênante pour l'utilisateur (c'est-à-dire qui tend vers zéro). Or, les solutions connues permettant de déterminer ce temps de latence, comme par exemple celle décrite dans le document brevet US 2015/097803, ne sont pas suffisamment précises et ne permettent pas de connaître les principaux paramètres contributifs.
L'invention a donc notamment pour but d'améliorer la situation.
Elle propose notamment à cet effet un dispositif d'analyse destiné à faire des analyses dans un système immersif de réalité virtuelle comprenant :
- au moins une cible propre à être solidarisée à un objet propre à se déplacer dans un espace,
- des moyens de détection propres à détecter la position en cours de cette cible dans cet espace et à délivrer un premier signal représentatif de cette position en cours,
- au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images destinées à cet écran, et
- des moyens de traitement chargés de définir des images pour cet écran en fonction de la position détectée de l'objet.
Ce dispositif d'analyse se caractérise par le fait qu'il comprend :
- l'objet équipé de chaque cible,
- un premier capteur propre à générer un deuxième signal lorsque l'objet parvient à une position connue dans cet espace,
- un second capteur propre à générer un troisième signal en cas de détection d'un changement d'image affichée sur l'écran, consécutif à la détection de l'objet dans cette position connue par les moyens de détection, et
- des moyens d'analyse couplés au moins aux premier et second capteurs et propres à déterminer un premier instant de réception du deuxième signal et un deuxième instant de réception du troisième signal, puis à déterminer un premier écart temporel (ou temps de latence) entre les premier et deuxième instants de réception déterminés.
On peut ainsi quantifier de façon très précise le temps de latence global (ou premier écart temporel) du système immersif.
Le dispositif d'analyse selon l'invention peut comporter d'autres caractéristiques qui peuvent être prises séparément ou en combinaison, et notamment :
- ses moyens d'analyse peuvent être également couplés aux moyens de détection et moyens de traitement, et propres à déterminer un troisième instant de réception d'un premier signal représentatif de la position connue détectée par les moyens de détection, et un deuxième écart temporel entre les premier et troisième instants de réception déterminés, ce deuxième écart temporel étant représentatif d'un retard de détection de la cible dans la position connue par les moyens de détection ;
ses moyens d'analyse peuvent être propres à déterminer un troisième écart temporel entre les premier et deuxième écarts temporels déterminés, ce troisième écart temporel étant représentatif au moins d'une durée de génération d'image par les moyens de traitement lors d'un changement d'image ;
- son second capteur peut être propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur l'écran ;
- il peut comprendre un rail sur lequel est propre à se déplacer l'objet et qui est propre à être placé dans l'espace de sorte que l'objet puisse se déplacer jusqu'à la position connue ; il peut comprendre un support sur lequel est solidarisé fixement le rail ;
• le rail peut être solidarisé au support de manière à être incliné d'un angle aigu prédéfini par rapport à un plan horizontal de l'espace, et ainsi permettre un déplacement automatique par gravitation de l'objet par rapport au rail entre une position de départ et au moins la position connue ;
o il peut comprendre des moyens électromagnétiques installés fixement sur le rail, et propres, d'une part, à immobiliser l'objet dans la position de départ lorsqu'ils sont placés dans un premier état d'attraction, et, d'autre part, à libérer l'objet, de sorte qu'il puisse se déplacer vers la position connue, lorsqu'ils sont placés dans un second état non attractif ;
- son premier capteur peut être propre à être placé au voisinage de la position connue et à générer le deuxième signal lorsque l'objet le contacte.
L'invention propose également un système immersif de réalité virtuelle comprenant au moins une cible propre à être solidarisée à un objet propre à se déplacer dans un espace, des moyens de détection propres à détecter la position en cours de la cible dans cet espace et à délivrer un premier signal représentatif de cette position en cours, au moins un moyen d'affichage chargé d'afficher sur au moins un écran, installé dans l'espace prédéfini, des images destinées à cet écran, des moyens de traitement chargés de définir des images pour l'écran en fonction au moins de cette position en cours détectée, et un dispositif d'analyse du type de celui présenté ci-avant.
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés, sur lesquels :
- la figure 1 illustre schématiquement et fonctionnellement un exemple de système immersif de réalité virtuelle couplé à un exemple de réalisation d'un dispositif d'analyse selon l'invention,
- la figure 2 illustre schématiquement et fonctionnellement le dispositif d'analyse de la figure 1 avec son objet à détecter placé dans une position de départ, et - la figure 3 illustre schématiquement et fonctionnellement le dispositif d'analyse de la figure 1 avec son objet à détecter placé dans une position (finale) connue.
L'invention a notamment pour but de proposer un dispositif d'analyse DA destiné à faire des analyses dans un système immersif de réalité virtuelle SI afin de déterminer au moins le temps de latence global et1 de ce dernier (SI).
Dans ce qui suit, on considère, à titre d'exemple non limitatif, que le système immersif de réalité virtuelle SI est destiné à immerger un utilisateur dans un environnement virtuel représentatif d'une partie au moins d'un véhicule, éventuellement de type automobile (comme par exemple une voiture). Mais l'invention n'est pas limitée à ce type d'environnement virtuel. Elle concerne en effet tout type d'environnement virtuel.
On a schématiquement représenté sur la figure 1 un exemple de système immersif (de réalité virtuelle) SI associé à un espace prédéfini EP dans lequel est au moins partiellement installé un exemple de réalisation d'un dispositif d'analyse DA selon l'invention.
Comme illustré, un système immersif (de réalité virtuelle) SI comprend au moins une cible CD, des moyens de détection MD, des moyens de traitement MT, et au moins un moyen d'affichage PI, EA.
Chaque cible CD est propre à être solidarisée à un utilisateur (ou parfois un objet OM du dispositif d'analyse DA) qui est propre à se déplacer dans un espace prédéfini EP.
Les moyens de détection MD sont propres à détecter la position en cours de chaque cible CD dans l'espace prédéfini EP et à délivrer un premier signal s1 qui est représentatif de cette position en cours.
Chaque écran EA est installé dans l'espace prédéfini EP.
Les moyens de traitement MT sont chargés de définir en temps réel pour chaque écran EA associé des images éventuellement tridimensionnelles (et éventuellement stéréoscopiques) d'un environnement choisi, en fonction de la position détectée de l'objet OM (fonction de la position en cours de la/chaque cible CD) et de la position de l'écran EA associé dans l'espace prédéfini EP.
Pendant une analyse effectuée par le dispositif d'analyse DA, les moyens de traitement MT sont chargés, à la requête de ce dernier (DA), de définir pour chaque écran EA associé une première image tant que l'objet OM n'a pas été détecté par les moyens de détection MD dans une position connue p2 dans l'espace EP (voir figure 3), et une seconde image lorsque l'objet OM a été détecté par les moyens de détection MD dans cette position connue p2. A titre d'exemple non limitatif, la première image peut être toute blanche, et la seconde image peut être toute noire.
Chaque moyen d'affichage PI, EA est chargé d'afficher sur au moins un écran EA, installé dans l'espace prédéfini EP, des images qui sont destinées à cet écran EA. On notera que chaque moyen d'affichage peut comprendre un écran EA et au moins un projecteur PI, ou bien un écran EA et une dalle de type LCD avec ses moyens de contrôle électroniques associés, par exemple.
Le nombre d'écrans EA est généralement compris entre un et cinq. Chaque écran EA est installé dans l'espace prédéfini EP. Au moins un ordinateur est chargé de définir en temps réel des images tridimensionnelles (éventuellement stéréoscopiques) de l'environnement choisi pour au moins un écran EA qui lui est associé, en fonction de la position en cours des cibles CD (éventuellement d'un porte cibles PC) et de la position de cet écran EA associé dans l'espace prédéfini EP. En présence de projecteur(s) PI, chaque projecteur PI est chargé de projeter sur l'écran EA associé des images tridimensionnelles déterminées par l'ordinateur associé et destinées à cet écran EA.
Dans l'exemple illustré non limitativement sur la figure 1 , le système immersif SI ne comprend qu'un moyen d'affichage comportant un écran EA associé à un projecteur Pl. Mais il pourrait comprendre plusieurs (au moins deux) moyens d'affichage PI, EA. Par ailleurs, chaque moyen d'affichage est généralement associé à ses propres moyens de traitement MT. Mais on pourrait envisager que les mêmes moyens de traitement (très puissants) définissent des images pour plusieurs (au moins deux) moyens d'affichage.
De préférence, et comme illustré non limitativement sur la figure 1 , le système immersif SI comprend plusieurs cibles solidarisées fixement à un porte cibles PC destiné à être solidarisé à un utilisateur ou à un objet OM du dispositif d'analyse DA devant se déplacer dans l'espace prédéfini EP. On notera que le porte cibles PC comprend ici quatre cibles CD dont les positions doivent être déterminées à chaque instant de mesure par les moyens de détection MD afin d'en déduire à chaque instant de mesure la position en cours de l'objet OM. Mais le porte cibles PC peut comprendre n'importe quel nombre de cibles CD, dès lors que ce nombre est au moins égal à un (1 ).
Par exemple, les moyens de détection MD comprennent ici deux caméras associées chacune à un émetteur de photons infrarouges et capables de filmer dans l'infrarouge. Chaque émetteur émet un faisceau infrarouge qui va se réfléchir sur les cibles (ou sphères) CD. Chaque caméra enregistre des images des photons réfléchis sur les cibles (ou sphères) CD, et envoie chaque image enregistrée à un ordinateur d'analyse d'images qui va en déduire la position dans l'espace du porte cibles PC à l'instant considéré. Mais les moyens de détection MD pourraient comprendre plus de deux caméras.
On notera également, comme illustré non limitativement sur la figure 1 , que les moyens de traitement MT peuvent être subdivisés en plusieurs parties (ici quatre (01 -04)), lorsqu'ils doivent définir des images 3D stéréoscopiques pour au moins un moyen d'affichage (ici un projecteur PI associé à un écran EA). La deuxième partie 02 peut être un ordinateur chargé de définir les images pour l'œil gauche. La troisième partie 03 peut être un ordinateur chargé de définir les images pour l'œil droit. La quatrième partie 04 peut être un ordinateur chargé de transmettre de façon synchronisée au moyen d'affichage (ici un projecteur PI associé à un écran EA) les images définies par les deuxième OR2 et troisième OR3 parties en fonction d'une même position en cours détectée par les moyens de détection MD. La première partie 01 peut être un ordinateur couplé aux moyens de détection MD et, ici, aux deuxième 02 et troisième 03 ordinateurs, et chargé de piloter ces deuxième 02 et troisième 03 ordinateurs en fonction des positions en cours détectées par les moyens de détection MD.
Comme illustré non limitativement sur les figures 1 à 3, un dispositif d'analyse DA, selon l'invention, comprend, en complément de l'objet OM, au moins un premier capteur C1 , un second capteur C2 et des moyens d'analyse MA.
Par exemple, au début d'une analyse le dispositif d'analyse DA peut en informer les moyens de traitement MT afin qu'ils définissent pour chaque écran EA associé la première image tant que l'objet OM n'a pas été détecté par les moyens de détection MD dans la position connue p2, et une seconde image lorsque l'objet OM a été détecté par les moyens de détection MD dans cette position connue p2.
L'objet OM est mobile afin de pouvoir se déplacer dans l'espace (prédéfini) EP. De plus, comme indiqué plus haut, il doit être équipé d'au moins une cible CD, faisant éventuellement partie d'un porte cibles PC (comme dans l'exemple non limitatif illustré sur les figures 1 à 3).
Le premier capteur C1 est propre à générer un deuxième signal s2 lorsque l'objet OM parvient à une position connue p2 dans l'espace EP (voir figure 3).
Ce premier capteur C1 peut, par exemple et comme illustré non limitativement sur les figures 1 à 3, être propre à être placé au voisinage de la position connue p2 et à générer le deuxième signal s2 lorsque l'objet OM le contacte. A cet effet, il peut, par exemple, être de type piézoélectrique ou capacitif ou inductif ou encore mécanique. Mais dans une variante de réalisation la détection pourrait se faire sans contact (et donc à distance), par exemple par interruption d'un faisceau lumineux passant par la position connue p2.
Le second capteur C2 est propre à générer un troisième signal s3 en cas de détection d'un changement d'image affichée sur l'écran EA. On entend ici par « changement d'image affichée » le remplacement d'une première image par une seconde image immédiatement différentiable de la première par au moins une caractéristique. Par exemple, lorsque la première image est toute blanche et la seconde image est toute noire, le second capteur C2 peut générer un troisième signal s3 lorsqu'il détecte sur l'écran EA la transition du blanc au noir.
Ce second capteur C2 peut, par exemple, être propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur l'écran EA. A cet effet, il peut s'agir d'une photodiode qui ne délivre un troisième signal s3 que lorsqu'elle ne détecte pas que du blanc.
Les moyens d'analyse MA sont couplés au moins aux premier C1 et second C2 capteurs, ainsi que de préférence aux moyens de détection MD et moyens de traitement MT. Ils sont propres à déterminer un premier instant il de réception du deuxième signal s2 (généré par le premier capteur C1 ), et un deuxième instant i2 de réception du troisième signal s3 (généré par le second capteur C2), puis à déterminer un premier écart temporel et1 entre ces premier il et deuxième i2 instants de réception déterminés (soit et1 = il - i2).
Ce premier écart temporel et1 constitue le temps de latence global du système immersif SI puisqu'il est égal à la différence entre l'instant il où l'objet OM (représentant un utilisateur) change de position (ici est détecté en p2 par le premier capteur C1 ) et l'instant i2 où s'affiche sur l'écran EA la nouvelle (ou seconde) image (par exemple toute noire et qui représente l'image résultant de la détection de l'objet OM en p2 par les moyens de détection MD).
On comprendra que la position connue p2 sert de position de référence par rapport à laquelle les moyens d'analyse MA déterminent le premier écart temporel (ou temps de latence global) et1 .
Par exemple, lorsque les moyens d'analyse MA reçoivent à un instant un deuxième signal s2 généré par le premier capteur C1 , ils enregistrent cet instant en tant que premier instant il , et lorsqu'ils reçoivent à un instant un troisième signal s3 généré par le second capteur C2, ils enregistrent cet instant en tant que deuxième instant i2.
Pendant une analyse, le déclenchement du changement d'image est réalisé automatiquement par les moyens de traitement MT (ici la première partie 01 ) lorsqu'ils reçoivent des moyens de détection MD un premier signal s1 représentatif de la position connue p2 détectée pour l'objet OM.
Dans l'exemple illustré non limitativement sur les figures 1 à 3, les moyens d'analyse MA font partie d'un ordinateur OR qui est couplé (directement ou indirectement) aux premier C1 et second C2 capteurs et aux moyens de détection MD (ici via le premier ordinateur 01 des moyens de traitement MT du système immersif SI). Mais cela n'est pas obligatoire. En effet, dans une variante ils pourraient constituer un équipement électronique (par exemple comprenant un oscilloscope et un circuit électronique d'analyse de signaux) couplé (directement ou indirectement) aux premier C1 et second C2 capteurs et aux moyens de détection MD du système immersif SI. Dans une autre variante, les moyens d'analyse MA pourraient être implantés dans les moyens de traitement MT (par exemple dans le premier ordinateur 01 qui est couplé aux moyens de détection MD). Par conséquent, ces moyens d'analyse MA peuvent être réalisés sous la forme de modules logiciels (ou informatiques (ou encore « software »)), ou bien d'une combinaison de circuits électroniques (ou « hardware ») et de modules logiciels.
On notera que lorsque les moyens d'analyse MA sont couplés aux moyens de détection MD et moyens de traitement MT, ils peuvent être également propres à déterminer un troisième instant i3 de réception du premier signal s1 qui est représentatif de la position connue p2 détectée. Par exemple, lorsque les moyens d'analyse MA reçoivent à un instant un premier signal s1 qui représente la position connue p2 détectée, ils enregistrent cet instant en tant que troisième instant i3. Dans ce cas, les moyens d'analyse MA sont également propres à déterminer un deuxième écart temporel et2 entre les premier il et troisième i3 instants de réception déterminés.
Ce deuxième écart temporel et2 est représentatif du retard de détection de la cible CD dans la position connue p2 par les moyens de détection MD. En effet, l'instant il est l'instant où l'objet OM (qui matérialise un utilisateur se déplaçant dans l'espace EP) se retrouve placé dans une « nouvelle position » (ici p2) et l'instant i3 est l'instant où les moyens de détection MD détectent la/les cible(s) CD (et donc l'objet OM) dans cette nouvelle position (ici p2). Ce deuxième écart temporel et2 est particulièrement utile à connaître du fait qu'il contribue de façon importante au temps de latence global du système immersif SI.
On notera également que les moyens d'analyse MA peuvent être aussi propres à déterminer un troisième écart temporel et3 entre les premier et1 et deuxième et2 écarts temporels déterminés. Ce troisième écart temporel et3 est représentatif au moins de la durée de génération d'image par les moyens de traitement MT lors d'un changement d'image (c'est-à-dire consécutivement à la réception du premier signal s1 représentatif de p2). Ce troisième écart temporel et3 est également utile à connaître du fait qu'il contribue de façon importante au temps de latence global du système immersif SI.
On notera également que les moyens d'analyse MA peuvent être également et éventuellement informés par chacune des parties 01 à 04 des moyens de traitement MT de la réception d'un signal ou d'instructions ou d'un fichier de données et/ou de la transmission d'un signal ou d'instructions ou d'un fichier de données vers un autre équipement du système immersif SI. Cela permet d'en déduire des temps intermédiaires de traitement qui participent également au temps de latence global du système immersif SI. Ainsi, on peut disposer de toutes les contributions au temps de latence global du système immersif SI.
Le déplacement de l'objet OM peut se faire de différentes manières.
Ainsi, le dispositif d'analyse DA peut, par exemple, comprendre un rail R sur lequel est propre à se déplacer l'objet OM et qui est propre à être placé dans l'espace EP de sorte que l'objet OM puisse se déplacer jusqu'à la position connue p2. Dans ce cas le déplacement de l'objet OM est contraint. On notera que ce rail R peut être un simple axe, éventuellement de section circulaire mais pas nécessairement.
Par exemple, et comme illustré non limitativement sur les figures 1 à 3, le dispositif d'analyse DA peut également comprendre un support SR sur lequel est solidarisé fixement le rail R.
Un tel support SR peut, par exemple, être destiné à être placé sur le sol dans l'espace EP. Il peut donc permettre un placement du rail R dans une position parallèle au sol ou inclinée d'un angle aigu prédéfini par rapport au sol et donc par rapport à un plan horizontal de l'espace EP (comme illustré non limitativement sur les figures 1 à 3).
Dans la première alternative (parallèle), pour que l'objet OM se déplace d'une position de départ vers la position connue p2, il doit soit recevoir une impulsion initiale par une personne, soit être muni d'un moteur électrique ayant de préférence un fonctionnement contrôlable à distance (par exemple par voie d'ondes).
Dans la seconde alternative (inclinaison), le déplacement de l'objet OM par rapport au rail R peut se faire automatiquement par gravitation entre une position de départ p1 (illustrée sur les figures 1 et 2) et au moins la position connue p2 (illustrée sur la figure 3). En d'autres termes, le déplacement résulte de la chute de l'objet OM le long du rail R (suivant la flèche F1 de la figure 2).
On notera que dans l'exemple illustré non limitativement sur les figures 1 à 3, l'angle d'inclinaison du rail R par rapport au sol (ici horizontal) est égal à 90° . Cela permet d'utiliser un support SR simple tel qu'un trépied, par exemple. Mais cet angle pourrait être inférieur à 90° , et par exemple égal à 45° ou 60° .
On notera également, comme illustré non limitativement sur les figures 1 à 3, que dans la seconde alternative (inclinaison), le dispositif d'analyse DA peut comprendre des moyens électromagnétiques MEL installés fixement sur le rail R au voisinage de la position de départ p1 . Ces moyens électromagnétiques MEL sont propres, d'une part, à immobiliser l'objet OM dans sa position de départ p1 lorsqu'ils sont placés dans un premier état d'attraction, et, d'autre part, à libérer l'objet OM, de sorte qu'il puisse se déplacer vers la position connue p2, lorsqu'ils sont placés dans un second état non attractif. Ces moyens électromagnétiques MEL peuvent, par exemple, être agencés sous la forme d'un électroaimant qui est attractif lorsqu'il est alimenté en courant et non attractif lorsqu'il n'est pas alimenté en courant. On notera que si l'électroaimant est suffisamment puissant, il peut être également utilisé, lorsqu'il est alimenté en courant, pour faire remonter l'objet OM automatiquement de la position connue p2 jusqu'à sa position de départ p1 .
De tels moyens électromagnétiques MEL peuvent, par exemple, avoir un fonctionnement qui est contrôlable à distance, éventuellement par voie d'ondes. Ce contrôle peut se faire via un ordinateur couplé aux moyens électromagnétiques MEL, et qui est éventuellement celui (OR) qui peut comprendre les moyens d'analyse MA, ou via une télécommande. Cela permet en effet à un utilisateur de déclencher la chute de l'objet OM à distance sans risque de gêner la poursuite de sa détection dans sa chute par les moyens de détection MD.
On notera que dans l'exemple illustré non limitativement sur les figures 1 à 3, le premier capteur C1 est solidarisé fixement au rail R juste en dessous de la position connue p2 du fait que ce premier capteur C1 assure une détection par contact.
On notera également que le déplacement de l'objet OM n'est pas obligatoirement contraint, par exemple du fait de sa solidarisation à un rail R. En effet, dans une variante de réalisation on peut envisager que l'objet OM soit agencé de manière à rouler sur le sol de l'espace EP. Par exemple, il peut comprendre des roues qui sont éventuellement entraînées en rotation par un moteur électrique.
En l'absence de moteur électrique, l'objet OM se déplace d'une position de départ vers la position connue p2 au moyen d'une impulsion initiale fournie par une personne. En présence, d'un moteur électrique la mise en fonctionnement de ce dernier induit le déplacement de l'objet OM d'une position de départ vers la position connue p2. Ce fonctionnement est alors préférentiellement contrôlable à distance (éventuellement par voie d'ondes). Ce contrôle peut se faire via un ordinateur couplé à l'objet OM, et qui est éventuellement celui (OR) qui peut comprendre les moyens d'analyse MA, ou via une télécommande.
L'objet OM peut présenter de très nombreux agencements, dépendant notamment de la façon dont il doit se déplacer. A titre d'exemple, il peut être réalisé sous la forme d'une pièce (éventuellement métallique) de forme générale parallélépipédique, soit avec une rainure ou des moyens de couplage adapté(e)(s) à son déplacement le long d'un rail R, soit avec des roues. Les déplacements pourraient également se faire sur coussin d'air, par exemple.

Claims

REVENDICATIONS
1 . Système immersif de réalité virtuelle (SI) comprenant i) au moins une cible (CD) propre à être solidarisée à un objet (OM) propre à se déplacer dans un espace (EP), ii) des moyens de détection (MD) propres à détecter la position en cours de ladite cible (CD) dans ledit espace (EP) et à délivrer un premier signal représentatif de cette position en cours, iii) au moins un moyen d'affichage (EA, PI) chargé d'afficher sur au moins un écran (EA), installé dans ledit espace prédéfini (EP), des images destinées à cet écran (EA), et iv) des moyens de traitement (MT) chargés de définir des images pour ledit écran (EA) en fonction au moins de ladite position en cours détectée, caractérisé en ce qu'il comprend en outre un dispositif d'analyse (DA) comprenant i) ledit objet (OM) équipé de ladite cible (CD), ii) un premier capteur (C1 ) propre à générer un deuxième signal lorsque ledit objet (OM) parvient à une position connue dans ledit espace (EP), iii) un second capteur (C2) propre à générer un troisième signal en cas de détection d'un changement d'image affichée sur ledit écran (EA), consécutif à la détection dudit objet (OM) dans cette position connue par lesdits moyens de détection (MD), et iv) des moyens d'analyse (MA) couplés au moins auxdits premier (C1 ) et second (C2) capteurs et propres à déterminer un premier instant de réception dudit deuxième signal et un deuxième instant de réception dudit troisième signal, puis à déterminer un premier écart temporel entre lesdits premier et deuxième instants de réception déterminés.
2. Système selon la revendication 1 , caractérisé en ce que lesdits moyens d'analyse (MA) sont également couplés auxdits moyens de détection (MD) et moyens de traitement (MT), et propres à déterminer un troisième instant de réception d'un premier signal représentatif de ladite position connue détectée par lesdits moyens de détection (MD), et un deuxième écart temporel entre lesdits premier et troisième instants de réception déterminés, ce deuxième écart temporel étant représentatif d'un retard de détection de ladite cible (CD) dans ladite position connue par lesdits moyens de détection (MD).
3. Système selon la revendication 2, caractérisé en ce que lesdits moyens d'analyse (MA) sont propres à déterminer un troisième écart temporel entre lesdits premier et deuxième écarts temporels déterminés, ce troisième écart temporel étant représentatif au moins d'une durée de génération d'image par lesdits moyens de traitement (MT) lors d'un changement d'image.
4. Système selon l'une des revendications 1 à 3, caractérisé en ce que ledit second capteur (C2) est propre à détecter une variation d'intensité lumineuse résultant d'un changement d'image affichée sur ledit écran (EA).
5. Système selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend un rail (R) sur lequel est propre à se déplacer ledit objet (OM) et propre à être placé dans ledit espace (EP) de sorte que ledit objet (OM) puisse se déplacer jusqu'à ladite position connue.
6. Système selon la revendication 5, caractérisé en ce qu'il comprend un support (SR) sur lequel est solidarisé fixement ledit rail (R).
7. Système selon la revendication 6, caractérisé en ce que ledit rail (R) est solidarisé audit support (SR) de manière à être incliné d'un angle aigu prédéfini par rapport à un plan horizontal dudit espace (EP), et ainsi permettre un déplacement automatique par gravitation dudit objet (OM) par rapport audit rail (R) entre une position de départ et au moins ladite position connue.
8. Système selon la revendication 7, caractérisé en ce qu'il comprend des moyens électromagnétiques (MEL) installés fixement sur ledit rail (R), et propres i) à immobiliser ledit objet (OM) dans ladite position de départ lorsqu'ils sont placés dans un premier état d'attraction, et ii) à libérer ledit objet (OM), de sorte qu'il puisse se déplacer vers ladite position connue, lorsqu'ils sont placés dans un second état non attractif.
9. Système selon l'une des revendications 1 à 8, caractérisé en ce que ledit premier capteur (C1 ) est propre à être placé au voisinage de ladite position connue et à générer ledit deuxième signal lorsque ledit objet (OM) le contacte.
EP18707070.1A 2017-02-01 2018-01-25 Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle Withdrawn EP3577531A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1750820A FR3062488B1 (fr) 2017-02-01 2017-02-01 Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realite virtuelle
PCT/FR2018/050170 WO2018142044A1 (fr) 2017-02-01 2018-01-25 Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle

Publications (1)

Publication Number Publication Date
EP3577531A1 true EP3577531A1 (fr) 2019-12-11

Family

ID=58501677

Family Applications (1)

Application Number Title Priority Date Filing Date
EP18707070.1A Withdrawn EP3577531A1 (fr) 2017-02-01 2018-01-25 Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle

Country Status (5)

Country Link
US (1) US10551911B2 (fr)
EP (1) EP3577531A1 (fr)
CN (1) CN110291487B (fr)
FR (1) FR3062488B1 (fr)
WO (1) WO2018142044A1 (fr)

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2662318C (fr) * 2009-01-17 2014-12-02 Lockheed Martin Corporation Environnement collaboratif d'immersion faisant appel a la capture de mouvements, a un visiocasque et a un environnement cave
US8339364B2 (en) * 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
FR2975198A1 (fr) * 2011-05-10 2012-11-16 Peugeot Citroen Automobiles Sa Dispositif d'affichage pour occultation dans systeme de realite virtuelle
CN103197757A (zh) * 2012-01-09 2013-07-10 癸水动力(北京)网络科技有限公司 一种沉浸式虚拟现实系统及其实现方法
US9841839B2 (en) 2013-10-07 2017-12-12 Tactual Labs Co. System for measuring latency on a touch device
US10007350B1 (en) * 2014-06-26 2018-06-26 Leap Motion, Inc. Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
DE202014103729U1 (de) * 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US9767574B2 (en) * 2014-08-22 2017-09-19 Applied Research Associates, Inc. Techniques for accurate pose estimation
EP3268883A4 (fr) * 2015-02-27 2019-01-02 Valorisation-Recherche, Limited Partnership Procédé et système permettant de traiter des signaux détectés à partir d'un utilisateur
US20190079480A1 (en) * 2015-03-17 2019-03-14 Whirlwind VR, Inc. System and Method for Delivery of Variable Flow Haptics in an Immersive Environment with Latency Control
EP3364270A4 (fr) * 2015-10-15 2018-10-31 Sony Corporation Dispositif de traitement d'information et procédé de traitement d'information
US10046234B2 (en) * 2015-10-20 2018-08-14 OBE Gaming Inc. Interactive movement tracking system applicable to articles of clothing
WO2017151778A1 (fr) * 2016-03-01 2017-09-08 ARIS MD, Inc. Systèmes et procédés permettant de rendre des environnements immersifs
US9928661B1 (en) * 2016-03-02 2018-03-27 Meta Company System and method for simulating user interaction with virtual objects in an interactive space
CN105807601A (zh) * 2016-03-10 2016-07-27 北京小鸟看看科技有限公司 一种测试虚拟现实设备延时的方法和系统

Also Published As

Publication number Publication date
US20190354167A1 (en) 2019-11-21
US10551911B2 (en) 2020-02-04
CN110291487A (zh) 2019-09-27
FR3062488A1 (fr) 2018-08-03
CN110291487B (zh) 2023-03-24
FR3062488B1 (fr) 2020-12-25
WO2018142044A1 (fr) 2018-08-09

Similar Documents

Publication Publication Date Title
CA2859900C (fr) Procede d'estimation de flot optique a partir d'un capteur asynchrone de lumiere
US9945936B2 (en) Reduction in camera to camera interference in depth measurements using spread spectrum
KR20160126060A (ko) 편광 시선 추적
EP3152593B1 (fr) Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif
FR2902527A1 (fr) Dispositif de localisation tridimentionnelle de sources de rayonnement
EP3152592A1 (fr) Dispositif de detection a plan horizontal d'obstacles et procede de detection mettant en oeuvre un tel dispositif
EP2757530A1 (fr) Procédé et dispositif de détection de chute par analyse d'images
WO2018142043A1 (fr) Dispositif d'analyse pour la détermination d'un délai de détection contribuant à un temps de latence au sein d'un système immersif de réalité virtuelle
EP3577531A1 (fr) Dispositif d'analyse pour la determination d'un temps de latence d'un systeme immersif de realitie virtuelle
JP6149717B2 (ja) 撮像装置及び撮像方法
EP3999942A1 (fr) Procédé de commande d'une interface graphique pour afficher le lancer d'un projectile dans un environnement virtuel
EP3367353B1 (fr) Procédé de pilotage d'une caméra ptz, produit programme d'ordinateur et dispositif de pilotage associés
FR2975198A1 (fr) Dispositif d'affichage pour occultation dans systeme de realite virtuelle
EP3170205B1 (fr) Dispositif de détection de mouvement
WO2017149254A1 (fr) Dispositif d'interface homme machine avec des applications graphiques en trois dimensions
FR3033467A1 (fr) Camera adaptee pour travailler dans un environnement radioactif.
EP3577541B1 (fr) Dispositif d'analyse de la synchronisation d'images sur des voies d'affichage distinctes
FR3090950A1 (fr) Système de visualisation d’un espace de contrôle par rajout de frontières graphiques au niveau d’une image prise par une caméra
EP3839819A1 (fr) Assistant et procede d'assistance de recherche d'un element dans une zone
EP0528077A1 (fr) Système radar aéroporté muni d'une caméra pour poursuivre objets volants à basse altitude
FR3083906A1 (fr) Interface utilisateur pour un systeme d’alarme
WO2009121199A1 (fr) Procede et dispositif pour realiser une surface tactile multipoints a partir d'une surface plane quelconque et pour detecter la position d'un objet sur une telle surface
EP3853815A1 (fr) Dispositif, systeme et procede de localisation, par un module de traitement, d'un module d'acquisition par rapport a un equipement a controler
WO2015071426A1 (fr) Système et un procédé de caractérisation d'objets d'intérêt présents dans une scène
FR3051617A1 (fr) Systeme de prise de vue

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20190725

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

INTG Intention to grant announced

Effective date: 20200629

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: PSA AUTOMOBILES SA

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20201110