FR3104743A1 - Portable 3D content display device, system and method thereof. - Google Patents

Portable 3D content display device, system and method thereof. Download PDF

Info

Publication number
FR3104743A1
FR3104743A1 FR1914557A FR1914557A FR3104743A1 FR 3104743 A1 FR3104743 A1 FR 3104743A1 FR 1914557 A FR1914557 A FR 1914557A FR 1914557 A FR1914557 A FR 1914557A FR 3104743 A1 FR3104743 A1 FR 3104743A1
Authority
FR
France
Prior art keywords
display device
display
data
user
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1914557A
Other languages
French (fr)
Other versions
FR3104743B1 (en
Inventor
Guillaume Bataille
Bruno Arnaldi
Valérie GOURANTON
Jérémy LACOCHE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut National des Sciences Appliquees de Rennes
Orange SA
Original Assignee
Institut National des Sciences Appliquees de Rennes
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut National des Sciences Appliquees de Rennes, Orange SA filed Critical Institut National des Sciences Appliquees de Rennes
Priority to FR1914557A priority Critical patent/FR3104743B1/en
Publication of FR3104743A1 publication Critical patent/FR3104743A1/en
Application granted granted Critical
Publication of FR3104743B1 publication Critical patent/FR3104743B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

L’invention concerne un premier dispositif (12) portatif d’affichage optique de contenu 3D stéréoscopique, destiné à être porté par une tête d’un utilisateur (11). Le premier dispositif d’affichage portatif est configuré pour afficher une première représentation 3D de premières données, et pour calibrer un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve, ledit système de coordonnées 3D étant utilisé pour afficher ladite première représentation 3D desdites premières données, en mémorisant une position dans le système de coordonnées 3D d’au moins un deuxième dispositif d’affichage (13) configuré également pour afficher sur une surface d’affichage une deuxième représentation 3D de deuxièmes données en utilisant ledit système de coordonnées 3D. L’invention concerne également un système de restitution 3D et des procédés d’affichage 3D correspondants. Figure pour l’abrégé : Fig. 2The invention relates to a first portable optical display device (12) of stereoscopic 3D content, intended to be worn by a user's head (11). The first portable display device is configured to display a first 3D representation of first data, and to calibrate a 3D coordinate system representative of the actual environment in which the user is located, said 3D coordinate system being used to display said first 3D representation of said first data, by storing a position in the 3D coordinate system of at least one second display device (13) also configured to display on a display surface a second 3D representation of second data using said 3D coordinate system. The invention also relates to a 3D rendering system and corresponding 3D display methods. Figure for the abstract: Fig. 2

Description

Dispositif d’affichage portatif de contenu 3D, système et procédé correspondants.Portable 3D content display device, system and method thereof.

1. Domaine de l'invention1. Field of the invention

L'invention concerne les dispositifs de restitution de données de réalité virtuelle, et notamment les casques de réalité augmentée et écrans 3D.The invention relates to devices for restoring virtual reality data, and in particular to augmented reality headsets and 3D screens.

2. Art Antérieur2. Prior art

Il existe des dispositifs permettant la restitution de données de réalité virtuelle. De tels dispositifs comprennent par exemple les écrans stéréoscopiques qui affichent à un utilisateur une suite d’images destinées alternativement à l’œil droit et à l’œil gauche de l’utilisateur, créant ainsi une impression de relief 3D du contenu affiché. De tels écrans nécessitent que l’utilisateur portent des lunettes «3D» (dites actives ou passives selon la technologie de l’écran associé) qui permettent à chaque œil de l’utilisateur de ne recevoir que les images qui lui sont destinées.There are devices allowing the restitution of virtual reality data. Such devices include, for example, stereoscopic screens which display to a user a series of images intended alternately for the right eye and the left eye of the user, thus creating an impression of 3D relief of the content displayed. Such screens require the user to wear “3D” glasses (called active or passive depending on the technology of the associated screen) which allow each eye of the user to receive only the images intended for it.

Il existe également des écrans auto-stéréoscopiques qui permettent de restituer un contenu en relief à un utilisateur sans nécessité de lunettes portées par l’utilisateur.There are also auto-stereoscopic screens which make it possible to render relief content to a user without the need for glasses worn by the user.

De tels dispositifs d’affichage offrent à l’utilisateur une impression 3D du contenu affiché. Toutefois, ces dispositifs sont limités par les problèmes d’occlusions qui apparaissent lors de la restitution d’un contenu en 3D. En effet, le rendu 3D perçu par l’utilisateur lors de l’affichage du contenu par ces dispositifs est limité par l’environnement réel dans lequel l’utilisateur se trouve, notamment par des objets placés entre l’utilisateur et l’écran ou la surface de projection. Par exemple, si un objet est placé entre l’utilisateur et un écran stéréoscopique, l’utilisateur ne pourra pas percevoir d’effet 3D devant l’objet, l’objet réel créant une occlusion dans les données de réalité virtuelle affichées.Such display devices provide the user with a 3D impression of the displayed content. However, these devices are limited by the occlusion problems that appear when rendering 3D content. Indeed, the 3D rendering perceived by the user when displaying the content by these devices is limited by the real environment in which the user finds himself, in particular by objects placed between the user and the screen or the projection surface. For example, if an object is placed between the user and a stereoscopic screen, the user will not be able to perceive a 3D effect in front of the object, the real object creating an occlusion in the virtual reality data displayed.

D’autres dispositifs, tels que les casques de réalité augmentée, permettent également de restituer des données de réalité virtuelle et procurer à l’utilisateur porteur d’un tel casque une impression 3D des données restituées. Toutefois, il est à noter que de tels casques présentent également des inconvénients lorsque des objets réels de l’environnement de l’utilisateur sont situés dans l’espace d’affichage du casque. Notamment, un contenu de réalité virtuelle ne peut être affiché que devant un objet réel placé dans l’espace d’affichage du casque. Un contenu de réalité virtuelle affiché par le casque peut alors comporter des incohérences de rendu 3D lorsque la prise en compte par le casque de l’un objet réel est erronée ou absente, typiquement quand l’objet réel est placé entre le casque et un objet virtuel du contenu de réalité virtuelle. En effet, la détection d’objets réels dans un environnement n’est pas très précise et inefficace dans le cas d’un objet réel en mouvement.Other devices, such as augmented reality headsets, also make it possible to restore virtual reality data and provide the user wearing such a headset with a 3D impression of the restored data. However, it should be noted that such headsets also have drawbacks when real objects from the user's environment are located in the display space of the headset. In particular, virtual reality content can only be displayed in front of a real object placed in the display space of the headset. Virtual reality content displayed by the headset may then include 3D rendering inconsistencies when the headset's consideration of a real object is erroneous or absent, typically when the real object is placed between the headset and an object virtual reality content. Indeed, the detection of real objects in an environment is not very precise and inefficient in the case of a real moving object.

L’impression d’immersion dans un environnement virtuel ressentie par l’utilisateur peut alors être diminuée lorsque l’utilisateur souhaite interagir sur un contenu projeté par le casque avec une certaine impression de distance pour l’utilisateur et que cet utilisateur se heurte à un objet réel de son environnement qui est à une distance plus proche que celle restituée par le casque.The impression of immersion in a virtual environment felt by the user can then be reduced when the user wishes to interact with content projected by the helmet with a certain impression of distance for the user and when this user comes up against a real object of its environment which is at a closer distance than that returned by the helmet.

Enfin, il est à noter que les casques de réalité augmentée ont un champ visuel de projection très limité par rapport au champ visuel humain.Finally, it should be noted that augmented reality headsets have a very limited projection visual field compared to the human visual field.

Il existe donc un besoin d’améliorer l’état de la technique.There is therefore a need to improve the state of the art.

3. Exposé de l'invention3. Disclosure of Invention

L'invention vient améliorer l'état de la technique. Elle concerne à cet effet un premier dispositif d’affichage 3D. Le premier dispositif d’affichage 3D est portatif en ce qu’il est destiné à être porté par une tête d’un utilisateur. Selon l‘invention, un tel premier dispositif d’affichage comporte notamment un module d’affichage configuré pour afficher une première représentation 3D de premières données et un calibreur d’un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve, ledit système de coordonnées 3D étant utilisé par le module d’affichage pour afficher ladite première représentation 3D desdites premières données, en mémorisant une position dans le système de coordonnées 3D d’au moins un deuxième dispositif d’affichage configuré pour afficher sur une surface d’affichage une deuxième représentation 3D de deuxièmes données en utilisant ledit système de coordonnées 3D.The invention improves the state of the art. To this end, it relates to a first 3D display device. The first 3D display device is portable in that it is intended to be worn by a user's head. According to the invention, such a first display device comprises in particular a display module configured to display a first 3D representation of first data and a calibrator of a 3D coordinate system representative of the real environment in which the user is located, said 3D coordinate system being used by the display module to display said first 3D representation of said first data, by storing a position in the 3D coordinate system of at least a second display device configured to display on a display surface a second 3D representation of second data using said 3D coordinate system.

L’invention propose ainsi un premier dispositif d’affichage, par exemple un dispositif d’affichage optique portatif tel qu’un casque de réalité augmentée, permettant d’améliorer le rendu 3D perçu par un utilisateur. Avantageusement, un tel premier dispositif d’affichage est utilisé conjointement à au moins un deuxième dispositif d’affichage, par exemple un écran stéréoscopique, pour restituer des données en 3D. Une telle restitution est réalisée à l’aide d’un système de coordonnées 3Dcommunde sorte que le rendu 3D des représentations 3D restituées par chacun des deux dispositifs soit cohérent pour l’utilisateur.The invention thus proposes a first display device, for example a portable optical display device such as an augmented reality headset, making it possible to improve the 3D rendering perceived by a user. Advantageously, such a first display device is used together with at least one second display device, for example a stereoscopic screen, to restore 3D data. Such a restitution is carried out using a common 3D coordinate system so that the 3D rendering of the 3D representations restored by each of the two devices is consistent for the user.

De plus, chaque dispositif du système restitue des données dans son propre espace de projection. De tels espaces de projection sont complémentaires dans l’environnement dans lequel l’utilisateur se trouve. En effet, le premier dispositif d’affichage affiche des données dans un espace de projection situé face au regard de l’utilisateur, et proche de lui et dont les limites sont définies par les angles de champ de projection du système de projection du premier dispositif d’affichage.In addition, each device in the system renders data in its own projection space. Such projection spaces are complementary in the environment in which the user finds himself. Indeed, the first display device displays data in a projection space located facing the gaze of the user, and close to him and whose limits are defined by the projection field angles of the projection system of the first device display.

L’utilisation d’un deuxième dispositif d’affichage 3D sur une surface permet d’augmenter le champ de vision 3D fourni à l’utilisateur par le premier dispositif d’affichage. En effet, grâce au deuxième dispositif d’affichage, l’utilisateur dispose d’un rendu 3D dans un espace de restitution allant au-delà des limites du champ de projection du premier dispositif d’affichage.Using a second 3D display device on a surface increases the 3D field of view provided to the user by the first display device. Indeed, thanks to the second display device, the user has a 3D rendering in a restitution space going beyond the limits of the projection field of the first display device.

En cas d’objets réels placés dans l’environnement entre l’utilisateur et le deuxième dispositif d’affichage, le phénomène d’occlusion est limité. En effet, des données peuvent être affichées en 3D devant et derrière cet objet par rapport à l’utilisateur, grâce respectivement au premier dispositif d’affichage portatif et au deuxième dispositif d’affichage.In case of real objects placed in the environment between the user and the second display device, the phenomenon of occlusion is limited. Indeed, data can be displayed in 3D in front of and behind this object with respect to the user, thanks respectively to the first portable display device and to the second display device.

Selon un mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif comporte en outre un détecteur configuré pour détecter au moins une interaction utilisateur sur au moins un élément de la représentation 3D affichée par le deuxième dispositif d’affichage.According to a particular embodiment of the invention, the first portable display device further comprises a detector configured to detect at least one user interaction on at least one element of the 3D representation displayed by the second display device.

Selon un autre mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif comprend un module de communication configuré en outre pour transmettre au deuxième dispositif d’affichage au moins une donnée d’interaction.According to another particular embodiment of the invention, the first portable display device comprises a communication module further configured to transmit to the second display device at least one interaction datum.

Une telle donnée d’interaction correspond par exemple à la position de la tête ou d’une main de l’utilisateur. Selon cette variante de réalisation de l’invention, le deuxième dispositif d’affichage dispose, ainsi, des mêmes données de position de la tête et des mains de l’utilisateur que le premier dispositif d’affichage. Il peut ainsi adapter l’affichage des données 3D en fonction de ces positions.Such interaction data corresponds for example to the position of the head or of a hand of the user. According to this variant embodiment of the invention, the second display device thus has the same position data of the head and the hands of the user as the first display device. It can thus adapt the display of 3D data according to these positions.

Selon une autre variante, ou en complément de la variante précédente, la donnée d’interaction correspond à une information représentative d’une interaction utilisateur détectée par le premier dispositif d’affichage.According to another variant, or in addition to the previous variant, the interaction datum corresponds to information representative of a user interaction detected by the first display device.

Selon un autre mode particulier de réalisation de l’invention, le détecteur est configuré pour détecter ladite au moins une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage lorsqu’une main de l’utilisateur avec laquelle il interagit est détectée à une position située en dehors d’un champ de projection dudit premier dispositif d’affichage portatif.According to another particular embodiment of the invention, the detector is configured to detect said at least one user interaction on at least one element of the second 3D representation displayed by the second display device when a hand of the user with which it interacts is detected at a position located outside a projection field of said first portable display device.

Selon ce mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif utilise avantageusement les différences de champ entre son champ d’affichage selon lequel il affiche la représentation 3D et son champ de vision selon lequel il est apte à détecter la position des mains de l’utilisateur, pour déterminer si l’utilisateur interagit sur la représentation affichée par le premier dispositif d’affichage portatif ou bien sur la représentation affichée par le deuxième dispositif d’affichage.According to this particular embodiment of the invention, the first portable display device advantageously uses the field differences between its display field according to which it displays the 3D representation and its field of vision according to which it is capable of detecting the position of the hands of the user, to determine whether the user interacts on the representation displayed by the first portable display device or on the representation displayed by the second display device.

Selon un autre mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif une mémoire dans laquelle est mémorisé un emplacement d’au moins un élément de la deuxième représentation 3D affiché par le deuxième dispositif d’affichage dans le système de coordonnées 3D. Selon ce mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif a connaissance des emplacements dans le système de coordonnées 3D des éléments de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage et peut ainsi déterminer lors de la détection d’une interaction utilisateur dans l’environnement dans quelle représentation 3D l’utilisateur a interagit.According to another particular embodiment of the invention, the first portable display device has a memory in which is stored a location of at least one element of the second 3D representation displayed by the second display device in the 3D coordinates. According to this particular embodiment of the invention, the first portable display device is aware of the locations in the 3D coordinate system of the elements of the second 3D representation displayed by the second display device and can thus determine when detecting a user interaction in the environment in which 3D representation the user has interacted.

L’invention concerne également un deuxième dispositif d’affichage 3Dcomportant:The invention also relates to a second 3D display device comprising:

  • un module d’affichage configuré pour afficher une deuxième représentation 3D de deuxièmes données sur une surface d’affichage, eta display module configured to display a second 3D representation of second data on a display surface, and
  • un calibreur d’un système de coordonnées 3D utilisé pour afficher sur la surface d’affichage ladite deuxième représentation 3D desdites deuxièmes données, en mémorisant au moins une position dans le système de coordonnées 3D d’un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur et configuré pour afficher une première représentation 3D de premières données en utilisant ledit système de coordonnées 3D.a 3D coordinate system calibrator operable to display said second 3D representation of said second data on the display surface by storing at least one position in the 3D coordinate system of a first wearable display device by a head of a user and configured to display a first 3D representation of first data using said 3D coordinate system.

La surface d’affichage peut être comprise dans le deuxième dispositif d’affichage 3D ou bien être reliée à ce deuxième dispositif d’affichage 3D.The display surface may be included in the second 3D display device or else be connected to this second 3D display device.

Selon un mode particulier de réalisation de l’invention, le deuxième dispositif d’affichage 3D comprend en outre un module de modification de l’affichage de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage en fonction d’au moins une donnée d’interaction reçue en provenance du premier dispositif d’affichage.According to a particular embodiment of the invention, the second 3D display device further comprises a module for modifying the display of the second 3D representation displayed by the second display device as a function of at least one datum interaction received from the first display device.

Selon ce mode particulier de réalisation de l’invention, l’utilisateur peut interagir sur les deuxièmes données affichées par le deuxième dispositif d’affichage sans que celui-ci nécessite un mécanisme de détection des interactions utilisateur sur la deuxième représentation 3D affichée par le deuxième dispositif d’affichage. En effet, les interactions utilisateur sont ici détectées par le premier dispositif d’affichage portatif et transmises au deuxième dispositif d’affichage lorsqu’elles ne concernent pas les premières données affichées par le premier dispositif d’affichage portatif. Ainsi, il est possible d’utiliser un deuxième dispositif d’affichage simple, tel qu’un écran stéréoscopique ou auto-stéréoscopique, ne nécessitant pas de moyen supplémentaire.According to this particular embodiment of the invention, the user can interact on the second data displayed by the second display device without the latter requiring a mechanism for detecting user interactions on the second 3D representation displayed by the second display device. Indeed, the user interactions are here detected by the first portable display device and transmitted to the second display device when they do not concern the first data displayed by the first portable display device. Thus, it is possible to use a second simple display device, such as a stereoscopic or auto-stereoscopic screen, requiring no additional means.

Selon un mode particulier de réalisation de l’invention, la donnée d’interaction correspond à au moins l’une des données suivantes:According to a particular embodiment of the invention, the interaction datum corresponds to at least one of the following data:

  • une position de la tête ou d’une main de l’utilisateur,a position of the user's head or hand,
  • une information représentative d’une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage.information representative of a user interaction on at least one element of the second 3D representation displayed by the second display device.

Selon un autre mode particulier de réalisation de l’invention, le deuxième dispositif d’affichage 3D comprend en outre un module de communication pour transmettre au premier dispositif d’affichage portatif au moins un sous-ensemble d’éléments affichés dans la deuxième représentation 3D affichée par le deuxième dispositif d’affichage.According to another particular embodiment of the invention, the second 3D display device further comprises a communication module for transmitting to the first portable display device at least a subset of elements displayed in the second 3D representation displayed by the second display device.

L’invention concerne également un système de restitution 3D de données comprenant un premier dispositif d’affichage selon l’un quelconque des modes particuliers cités ci-dessus, et au moins un deuxième dispositif d’affichage selon l’un quelconque des modes particuliers cités ci-dessus.The invention also relates to a 3D data restitution system comprising a first display device according to any one of the particular modes mentioned above, and at least one second display device according to any one of the particular modes mentioned above.

L’invention concerne également un premier procédé d’affichage 3D, mis en œuvre par un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur. Un tel premier procédé d’affichage comporte:The invention also relates to a first 3D display method, implemented by a first display device intended to be worn by a head of a user. Such a first display method comprises:

  • un affichage, par le premier dispositif d’affichage, d’une première représentation 3D de premières données, eta display, by the first display device, of a first 3D representation of first data, and
  • un calibrage d’un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve, ledit système de coordonnées 3D étant utilisé pour afficher ladite première représentation 3D desdites premières données, le calibrage comprenant au moins la mémorisation d’une position dans le système de coordonnées 3D d’au moins un deuxième dispositif d’affichage configuré pour afficher sur une surface d’affichage une deuxième représentation 3D de deuxièmes données en utilisant ledit système de coordonnées 3D.a calibration of a 3D coordinate system representative of the real environment in which the user finds himself, said 3D coordinate system being used to display said first 3D representation of said first data, the calibration comprising at least the memorization of a position in the 3D coordinate system of at least a second display device configured to display on a display surface a second 3D representation of second data using said 3D coordinate system.

Selon un mode particulier de réalisation de l’invention, le premier procédé d’affichage 3D comprend en outre, la transmission par le premier dispositif d’affichage au deuxième dispositif d’affichage d’au moins une position de la tête ou d’une main de l’utilisateur.According to a particular embodiment of the invention, the first 3D display method further comprises the transmission by the first display device to the second display device of at least one position of the head or of a user's hand.

Selon un mode particulier de réalisation de l’invention, le premier procédé d’affichage 3D de données comprend en outre la détection d’au moins une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage et la transmission au deuxième dispositif d’affichage d’une information représentative de ladite interaction utilisateur détectée.According to a particular embodiment of the invention, the first method for displaying 3D data further comprises the detection of at least one user interaction on at least one element of the second 3D representation displayed by the second display device and transmitting to the second display device information representative of said detected user interaction.

Selon un autre mode particulier de réalisation de l’invention, le premier procédé d’affichage 3D comprend en outre l’obtention d’un sous-ensemble d’éléments affichés dans la deuxième représentation 3D affichée par le deuxième dispositif d’affichage, et la modification de la première représentation 3D affichée par le premier dispositif d’affichage pour afficher les éléments dudit sous-ensemble. Selon ce mode particulier de réalisation de l’invention, l’utilisateur peut manipuler des éléments d’un ensemble affiché par le deuxième dispositif d’affichage via le premier dispositif d’affichage portatif.According to another particular embodiment of the invention, the first 3D display method further comprises obtaining a subset of elements displayed in the second 3D representation displayed by the second display device, and modifying the first 3D representation displayed by the first display device to display the elements of said subset. According to this particular embodiment of the invention, the user can manipulate elements of a set displayed by the second display device via the first portable display device.

Selon un autre mode particulier de réalisation de l’invention, le premier procédé d’affichage 3D comprend en outre la détection d’une interaction utilisateur sur ledit sous-ensemble d’éléments affiché par le premier dispositif d’affichage portatif modifiant ledit sous-ensemble, et la transmission au deuxième dispositif d’affichage dudit sous-ensemble modifié.According to another particular embodiment of the invention, the first 3D display method further comprises the detection of a user interaction on said subset of elements displayed by the first portable display device modifying said sub- together, and transmitting said modified subset to the second display device.

L’invention concerne également un deuxième procédé d’affichage 3D, mis en œuvre par un deuxième dispositif d’affichage, le deuxième procédé d’affichage comprenant:The invention also relates to a second 3D display method, implemented by a second display device, the second display method comprising:

  • un affichage d’une deuxième représentation 3D de deuxièmes données sur une surface d’affichage,a display of a second 3D representation of second data on a display surface,
  • un calibrage d’un système de coordonnées 3D utilisé pour afficher sur la surface d’affichage ladite deuxième représentation 3D desdites deuxièmes données, le calibrage comprenant au moins la mémorisation d’une position dans le système de coordonnées 3D d’un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur et configuré pour afficher une première représentation 3D d’au moins des premières données en utilisant ledit système de coordonnées 3D.a calibration of a 3D coordinate system used to display on the display surface said second 3D representation of said second data, the calibration comprising at least the storage of a position in the 3D coordinate system of a first device of a display intended to be worn by a user's head and configured to display a first 3D representation of at least first data using said 3D coordinate system.

Selon un mode particulier de réalisation de l’invention, le deuxième procédé d’affichage 3D comprend en outre:According to a particular embodiment of the invention, the second 3D display method further comprises:

  • une réception par le deuxième dispositif d’affichage, en provenance du premier dispositif d’affichage, d’au moins une donnée d’interaction,a reception by the second display device, coming from the first display device, of at least one interaction datum,
  • une modification de l’affichage de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage en fonction de ladite au moins une donnée d’interaction reçue.a modification of the display of the second 3D representation displayed by the second display device as a function of said at least one interaction datum received.

Selon un autre mode particulier de réalisation de l’invention, le deuxième procédé d’affichage 3D comprend en outre la transmission au premier dispositif d’affichage d’au moins un sous-ensemble d’éléments affichés dans la deuxième représentation 3D affichée par le deuxième dispositif d’affichage.According to another particular embodiment of the invention, the second 3D display method further comprises the transmission to the first display device of at least one subset of elements displayed in the second 3D representation displayed by the second display device.

L'invention concerne aussi un programme d'ordinateur comportant des instructions pour la mise en œuvre du premier ou du deuxième procédé d’affichage 3D selon l'un quelconque des modes particuliers de réalisation décrits précédemment, lorsque ledit programme est exécuté par un processeur. Un tel programme peut utiliser n’importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.The invention also relates to a computer program comprising instructions for implementing the first or second 3D display method according to any one of the particular embodiments described above, when said program is executed by a processor. Such a program can use any programming language. It can be downloaded from a communication network and/or recorded on a computer-readable medium. This program may use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in partially compiled form, or in any other desirable form.

Selon encore un autre aspect, un support d'enregistrement ou support d'informations lisible par un ordinateur est proposé, qui comprend des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. Les supports d'enregistrement mentionnés ci-avant peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire de type Read-Only Memory (ROM), par exemple un CD- ROM ou une ROM de circuit microélectronique, une mémoire flash montée sur un support de stockage amovible, tel qu’une clé USB, ou encore une mémoire de masse magnétique de type Hard-Disk Drive (HDD) ou Solid-State Drive (SSD), ou une combinaison de mémoires fonctionnant selon une ou plusieurs technologies d’enregistrement de données. D'autre part, les supports d'enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. En particulier, le programme d’ordinateur proposé peut être téléchargé sur un réseau de type Internet.According to yet another aspect, a computer-readable recording medium or information carrier is provided which comprises instructions of a computer program as mentioned above. The recording media mentioned above can be any entity or device capable of storing the program. For example, the medium may comprise a storage means, such as a Read-Only Memory (ROM) type memory, for example a CD-ROM or a microelectronic circuit ROM, a flash memory mounted on a removable storage medium , such as a USB key, or else a magnetic mass memory of the Hard-Disk Drive (HDD) or Solid-State Drive (SSD) type, or a combination of memories operating according to one or more data recording technologies. On the other hand, the recording media may correspond to a transmissible medium such as an electrical or optical signal, which may be conveyed via an electrical or optical cable, by radio or by other means. In particular, the proposed computer program can be downloaded from an Internet type network.

Alternativement, les supports d'enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.Alternatively, the recording media may correspond to an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the method in question.

Les premier et deuxième procédés d’affichage 3D de données selon l'invention peut donc être mis en œuvre de diverses manières, notamment sous forme matérielle ou sous forme logicielle, ou être mise en œuvre sous forme d’une combinaison d’éléments matériels et logiciels.The first and second 3D data display methods according to the invention can therefore be implemented in various ways, in particular in hardware form or in software form, or be implemented in the form of a combination of hardware elements and software.

4. Liste des figures4. List of Figures

D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante d’un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels:Other characteristics and advantages of the invention will appear more clearly on reading the following description of a particular embodiment, given by way of a simple illustrative and non-limiting example, and the appended drawings, among which:

- la figure 1 illustre un exemple d’environnement de mise en œuvre de l’invention selon un mode particulier de réalisation de l’invention, - Figure 1 illustrates an example of an environment for implementing the invention according to a particular embodiment of the invention,

- la figure 2 illustre l’exemple de la figure 1 lors de la restitution de données en 3D à l’utilisateur, - figure 2 illustrates the example of figure 1 during the restitution of 3D data to the user,

- la figure 3 illustre schématiquement le champ de projection et le champ de détection d’un premier dispositif d’affichage selon un mode particulier de réalisation de l'invention, - Figure 3 schematically illustrates the projection field and the detection field of a first display device according to a particular embodiment of the invention,

- la figure 4 illustre schématiquement l’organisation des espaces de rendu réels et virtuels expérimentés par un utilisateur selon le mode particulier de réalisation de l’invention illustré par la figure 2, - Figure 4 schematically illustrates the organization of the real and virtual rendering spaces experienced by a user according to the particular embodiment of the invention illustrated by Figure 2,

- la figure 5 illustre de manière schématique la structure d'un premier dispositif d’affichage de données en 3D selon un mode de réalisation, - Figure 5 schematically illustrates the structure of a first 3D data display device according to one embodiment,

- la figure 6 illustre de manière schématique la structure d'un deuxième dispositif d’affichage de données en 3D selon un mode de réalisation, - Figure 6 schematically illustrates the structure of a second 3D data display device according to one embodiment,

- la figure 7A illustre des étapes des premier et deuxième procédés d’affichage 3D de données mis en œuvre respectivement par un premier dispositif d’affichage et par un deuxième dispositif d’affichage selon un mode de réalisation, - Figure 7A illustrates steps of the first and second 3D data display methods implemented respectively by a first display device and by a second display device according to one embodiment,

- la figure 7B illustre des étapes des premier et deuxième procédés d’affichage 3D de données mis en œuvre respectivement par un premier dispositif d’affichage et par un deuxième dispositif d’affichage selon un autre mode de réalisation, - Figure 7B illustrates steps of the first and second 3D data display methods implemented respectively by a first display device and by a second display device according to another embodiment,

- la figure 8 illustre un exemple d’environnement de mise en œuvre des procédés décrit en relation avec la figure 7B. FIG. 8 illustrates an example of an environment for implementing the methods described in relation to FIG. 7B.

5. Description d'un mode de réalisation de l'invention5. Description of an embodiment of the invention

La figure 1 illustre un exemple d’environnement (10) de mise en œuvre de l’invention selon un mode particulier de réalisation. L’environnement 10 comprend un utilisateur (11) équipé d’un premier dispositif d’affichage (12) de données en 3D stéréoscopique. Par exemple, un tel premier dispositif d’affichage est un dispositif optique portatif (12) tel qu’un casque de réalité augmentée adapté pour afficher à l’utilisateur des données dite de réalité virtuelle, tel qu’un casque à projection holographique (Microsoft Hololens®). Selon l’invention, le casque de réalité augmentée est un casque permettant à l’utilisateur de voir des données de réalité virtuelles affichées en 3D par le casque sur les optiques des lunettes du casque, ainsi que l’environnement réel dans lequel l’utilisateur se trouve. Le dispositif (12) portatif d’affichage optique constitue un premier dispositif d’affichage de données 3D du système de restitution illustré en figure 1.Figure 1 illustrates an example of an environment (10) for implementing the invention according to a particular embodiment. The environment 10 comprises a user (11) equipped with a first device (12) for displaying data in stereoscopic 3D. For example, such a first display device is a portable optical device (12) such as an augmented reality headset suitable for displaying so-called virtual reality data to the user, such as a holographic projection headset (Microsoft Hololens®). According to the invention, the augmented reality helmet is a helmet allowing the user to see virtual reality data displayed in 3D by the helmet on the optics of the glasses of the helmet, as well as the real environment in which the user is located. The portable optical display device (12) constitutes a first 3D data display device of the restitution system illustrated in FIG. 1.

L’environnement (10) comprend également au moins un deuxième dispositif d’affichage (13) de données 3D. Un tel deuxième dispositif d’affichage (13) peut être un écran stéréoscopique ou auto-stéréoscopique, ou encore tout type d’écran 3D permettant d’afficher en 3D des données à un utilisateur. Par exemple, il peut s’agir d’écrans installés dans une salle immersive. Lorsque le deuxième dispositif d’affichage (13) est un écran stéréoscopique, l’utilisateur est également muni d’une paire de lunettes correspondantes lui permettant de voir en relief les données affichées par l’écran (13).The environment (10) also includes at least one second display device (13) for 3D data. Such a second display device (13) can be a stereoscopic or auto-stereoscopic screen, or even any type of 3D screen making it possible to display data in 3D to a user. For example, these may be screens installed in an immersive room. When the second display device (13) is a stereoscopic screen, the user is also provided with a corresponding pair of glasses allowing him to see in relief the data displayed by the screen (13).

Ces lunettes peuvent être placées juste devant les verres du casque de réalité augmentée ou juste derrière par rapport à la direction du regard de l’utilisateur.These glasses can be placed just in front of the glasses of the augmented reality helmet or just behind with respect to the direction of the user's gaze.

Les dispositifs (12) et (13) de l’environnement (10) forment un système de restitution 3D selon l’invention. Un tel système permet à l’utilisateur de visualiser des données affichées en 3D selon plusieurs niveaux ou couches de restitution dans l’environnement.The devices (12) and (13) of the environment (10) form a 3D rendering system according to the invention. Such a system allows the user to visualize data displayed in 3D according to several levels or layers of restitution in the environment.

Afin d’avoir une cohérence dans le rendu 3D des données fourni par chaque dispositif, les dispositifs du système de restitution utilisent un même système de coordonnées 3D pour afficher la représentation 3D des données à l’utilisateur. Autrement dit, un point d’une représentation 3D affichée par le premier dispositif d’affichage portatif (12) correspond à un point de mêmes coordonnées 3D dans le système de coordonnées 3D utilisé par le deuxième dispositif d’affichage (13) pour afficher une représentation 3D, et inversement.In order to have consistency in the 3D rendering of the data provided by each device, the devices of the restitution system use the same 3D coordinate system to display the 3D representation of the data to the user. In other words, a point of a 3D representation displayed by the first portable display device (12) corresponds to a point of the same 3D coordinates in the 3D coordinate system used by the second display device (13) to display a 3D representation, and vice versa.

Pour cela, lors d’une phase d’initialisation, les dispositifs (12) et (13) réalisent une calibration selon laquelle ils enregistrent respectivement leur position dans le système de coordonnées 3D qu’ils utilisent pour l’affichage, ainsi que la position de l’autre dispositif.For this, during an initialization phase, the devices (12) and (13) carry out a calibration according to which they respectively record their position in the 3D coordinate system that they use for the display, as well as the position from the other device.

Par exemple, le point origine du système de coordonnées 3D correspond à la position initiale de l’utilisateur (11) portant le premier dispositif d’affichage portatif (12) dans l’environnement réel.For example, the origin point of the 3D coordinate system corresponds to the initial position of the user (11) carrying the first portable display device (12) in the real environment.

La position du premier dispositif d’affichage portatif peut évoluer au cours du temps en fonction des déplacements de l’utilisateur. La position de l’utilisateur est alors transmise par le premier dispositif d’affichage portatif (12) au deuxième dispositif d’affichage (13) régulièrement ou sur détection d’un changement de position, de sorte que le deuxième dispositif d’affichage (13) adapte la restitution des données 3D. Dans l’exemple de réalisation décrit ici, le deuxième dispositif d’affichage (13) est fixe, sa position reste donc fixe.The position of the first portable display device can change over time depending on the movements of the user. The position of the user is then transmitted by the first portable display device (12) to the second display device (13) regularly or upon detection of a change in position, so that the second display device ( 13) adapts the rendering of 3D data. In the embodiment described here, the second display device (13) is fixed, its position therefore remains fixed.

L’enregistrement de la position du deuxième dispositif d’affichage (13) par le premier dispositif d’affichage portatif (12) peut être fait manuellement lors de l’installation du deuxième dispositif d’affichage (13) dans l’environnement ou bien détectée par le premier dispositif d’affichage portatif (12). Pour afficher des données en 3D, le premier dispositif d’affichage portatif (12) établit une représentation 3D des données à restituer selon un système de coordonnées 3D représentatif de l’environnement réel dans lequel le premier dispositif d’affichage portatif (12) est placé. Le système de coordonnées 3D mémorisé par le premier dispositif d’affichage portatif (12) comprend une représentation virtuelle du deuxième dispositif d’affichage (13) localisée en fonction de la position du deuxième dispositif d’affichage (13) dans l’environnement réel.The recording of the position of the second display device (13) by the first portable display device (12) can be done manually during the installation of the second display device (13) in the environment or else detected by the first portable display device (12). To display 3D data, the first portable display device (12) establishes a 3D representation of the data to be rendered according to a 3D coordinate system representative of the real environment in which the first portable display device (12) is place. The 3D coordinate system stored by the first portable display device (12) comprises a virtual representation of the second display device (13) located according to the position of the second display device (13) in the real environment .

Selon les modes de réalisations de l’invention mis en œuvre, les données affichées par les dispositifs d’affichage peuvent être identiques ou différentes. Par la suite, on appellera «contenu global» l’ensemble des données affichées par tous les dispositifs du système de restitution.According to the embodiments of the invention implemented, the data displayed by the display devices may be identical or different. Thereafter, we will call “global content” the set of data displayed by all the devices of the restitution system.

Selon un mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif (12) et le deuxième dispositif d’affichage (13) restituent un même contenu en 3D, chaque dispositif réalisant la restitution d’une partie distincte des données d’un tel contenu. Par exemple, le deuxième dispositif d’affichage (13) affiche des deuxièmes données du contenu devant être restituées le plus loin de l’utilisateur et le premier dispositif d’affichage portatif (12) restitue des premières données du contenu devant être restituées plus près de l’utilisateur.According to a particular embodiment of the invention, the first portable display device (12) and the second display device (13) restore the same 3D content, each device restoring a distinct part of the data of such content. For example, the second display device (13) displays second data of the content to be rendered furthest from the user and the first handheld display device (12) renders first data of the content to be rendered closer of the user.

Selon ce mode particulier de réalisation de l’invention, les données restituées par chaque dispositif sont différentes mais appartiennent à un même contenu.According to this particular embodiment of the invention, the data returned by each device are different but belong to the same content.

Selon un autre mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif (12) et le deuxième dispositif d’affichage (13) restituent respectivement des premières données et des deuxièmes données distinctes. Par exemple, lorsque le contenu global restitué est un environnement de réalité virtuelle, le deuxième dispositif d’affichage (13) affiche des deuxièmes données de l’environnement de réalité virtuelle qui sont visibles de tous. Le premier dispositif d’affichage portatif (12) restitue quant à lui des premières données correspondant à des éléments virtuels d’enrichissement des deuxièmes données. Ces éléments virtuels (premières données) sont affichés en surimpression des deuxièmes données de l’environnement de réalité virtuelle affichées. De tels éléments virtuels sont par exemple des objets virtuels insérés dans l’environnement de réalité virtuelle spécifiquement pour l’utilisateur. Ces éléments virtuels ne sont pas visibles par d’autres utilisateurs qui seraient présents dans l’environnement réel de l’utilisateur. Les premières données sont ainsi personnalisées pour l’utilisateur porteur du premier dispositif d’affichage.According to another particular embodiment of the invention, the first portable display device (12) and the second display device (13) respectively restore first data and second distinct data. For example, when the global content rendered is a virtual reality environment, the second display device (13) displays second data of the virtual reality environment which is visible to all. The first portable display device (12) for its part restores first data corresponding to virtual elements for enriching the second data. These virtual elements (first data) are displayed superimposed on the second data of the virtual reality environment displayed. Such virtual elements are for example virtual objects inserted into the virtual reality environment specifically for the user. These virtual elements are not visible to other users who would be present in the user's real environment. The first data are thus personalized for the user carrying the first display device.

Ainsi, ce mode particulier de réalisation de l’invention permet d’afficher un contenu global personnalisé ou enrichi.Thus, this particular embodiment of the invention makes it possible to display personalized or enriched global content.

Selon un autre mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif (12) et le deuxième dispositif d’affichage (13) restituent des données complémentaires. Par exemple, lorsque le contenu global restitué est un environnement de réalité virtuelle, le deuxième dispositif d’affichage (13) affiche des deuxièmes données représentatives de l’environnement de réalité virtuelle. Certains éléments de l’environnement de réalité virtuelle peuvent ne pas être visibles par l’utilisateur, par exemple parce que ces éléments sont occlus par des objets réels placés dans l’environnement réel dans lequel l’utilisateur se trouve. Le premier dispositif d’affichage portatif (12) détecte la présence d’objets réels dans le champ de vision de l’utilisateur, et restitue alors les deuxièmes données de l’environnement de réalité virtuelle qui ne sont pas visibles de l’utilisateur lorsqu’elles sont affichées par le deuxième dispositif d’affichage (13). Ainsi, selon ce mode particulier de réalisation de l’invention, le premier dispositif d’affichage et le deuxième dispositif d’affichage affiche un même contenu (l’environnement de réalité virtuelle), une partie des premières données affichées par le premier dispositif d’affichage étant identiques à au moins une partie des deuxièmes données affichées par le deuxième dispositif d’affichage.According to another particular embodiment of the invention, the first portable display device (12) and the second display device (13) restore complementary data. For example, when the global content rendered is a virtual reality environment, the second display device (13) displays second data representative of the virtual reality environment. Certain elements of the virtual reality environment may not be visible to the user, for example because these elements are occluded by real objects placed in the real environment in which the user finds himself. The first portable display device (12) detects the presence of real objects in the field of vision of the user, and then restores the second data of the virtual reality environment which is not visible to the user when they are displayed by the second display device (13). Thus, according to this particular embodiment of the invention, the first display device and the second display device displays the same content (the virtual reality environment), part of the first data displayed by the first device the display being identical to at least a part of the second data displayed by the second display device.

La figure 1 illustre un environnement (10) comprenant un seul deuxième dispositif d’affichage (13). Dans d’autres modes particuliers de réalisation, le système de restitution selon l’invention peut comprendre plusieurs deuxièmes dispositifs d’affichage (13) associés et configurés pour afficher des deuxièmes données en 3D sur une surface d’affichage et/ou un ou plusieurs troisièmes dispositifs d’affichage configurés pour afficher des troisièmes données 3D entre la ou les surfaces d’affichages et l’utilisateur (par exemple, projecteurs holographiques 3D). Dans ce cas, chaque deuxième voire troisième dispositifs d’affichage (13) enregistre sa position et la position de tous les autres deuxièmes voire troisièmes dispositifs d’affichage (13) et du premier dispositif d’affichage portatif (12). De même, le premier dispositif d’affichage portatif (12) enregistre la position de tous les deuxièmes voire troisièmes dispositifs d’affichage (13) de l’environnement.Figure 1 illustrates an environment (10) comprising a single second display device (13). In other particular embodiments, the restitution system according to the invention may comprise several second display devices (13) associated and configured to display second data in 3D on a display surface and/or one or more third display devices configured to display third 3D data between the at least one display surface and the user (eg, 3D holographic projectors). In this case, each second or even third display device (13) records its position and the position of all the other second or even third display devices (13) and of the first portable display device (12). Likewise, the first portable display device (12) records the position of all the second or even third display devices (13) of the environment.

Les dispositifs du système de restitution 3D sont configurés pour communiquer entre eux de manière filaire ou sans fil.The devices of the 3D rendering system are configured to communicate with each other in a wired or wireless manner.

La figure 2 illustre schématiquement la restitution en 3D de données à un utilisateur dans l’environnement (10) par le système de restitution décrit ci-dessus. Sur la figure 2, on observe un premier espace 22 correspondant à un espace de restitution du premier dispositif d’affichage portatif (12) dans lequel il affiche la représentation 3D des premières données à restituer à l’utilisateur. Autrement dit, le premier espace 22 correspond à un espace de l’environnement réel dans lequel l’utilisateur a l’impression que les premières données sont restituées par le premier dispositif d’affichage portatif (12).FIG. 2 schematically illustrates the 3D restitution of data to a user in the environment (10) by the restitution system described above. In Figure 2, there is a first space 22 corresponding to a restitution space of the first portable display device (12) in which it displays the 3D representation of the first data to be returned to the user. In other words, the first space 22 corresponds to a space of the real environment in which the user has the impression that the first data is restored by the first portable display device (12).

La figure 2 comprend également un deuxième espace 20 correspondant à un espace de restitution 3D du deuxième dispositif d’affichage (13). Autrement dit, le deuxième espace 20 correspond à un espace de l’environnement réel dans lequel l’utilisateur a l’impression que les deuxièmes données sont restituées par le deuxième dispositif d’affichage (13).Figure 2 also includes a second space 20 corresponding to a 3D restitution space of the second display device (13). In other words, the second space 20 corresponds to a space of the real environment in which the user has the impression that the second data is restored by the second display device (13).

Dans l’exemple illustré en figure 2, un objet réel 21 (représenté schématiquement par un pavé vertical) est placé dans l’environnement (10) entre l’utilisateur (11) et le deuxième dispositif d’affichage (13). Selon l’invention, le phénomène d’occlusion provoqué par la présence de l’objet réel 21 dans le deuxième espace de restitution (20) du deuxième dispositif d’affichage (13) est limité. En effet, selon le mode particulier de réalisation décrit ici, le premier dispositif d’affichage portatif (12) comporte un détecteur de la présence d’objets réels placés dans l’environnement dans lequel l’utilisateur se trouve et plus particulièrement dans son champ de vision. Le premier dispositif d’affichage portatif (12) comporte un module de détermination du deuxième espace de l’environnement dans lequel le deuxième dispositif d’affichage (13) affiche la deuxième représentation 3D des deuxièmes données. Un tel module de détermination utilise la position, dans l’environnement 10, du deuxième dispositif d’affichage (13).In the example illustrated in FIG. 2, a real object 21 (represented schematically by a vertical block) is placed in the environment (10) between the user (11) and the second display device (13). According to the invention, the occlusion phenomenon caused by the presence of the real object 21 in the second restitution space (20) of the second display device (13) is limited. Indeed, according to the particular embodiment described here, the first portable display device (12) comprises a detector for the presence of real objects placed in the environment in which the user is located and more particularly in his field. of vision. The first portable display device (12) comprises a module for determining the second space of the environment in which the second display device (13) displays the second 3D representation of the second data. Such a determination module uses the position, in the environment 10, of the second display device (13).

Le premier dispositif d’affichage portatif (12) comporte un détecteur d’occlusion qui, à partir de la position de la tête de l’utilisateur (11), en déduit au moins une zone de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage (13) qui n’est pas visible par l’utilisateur (11).The first portable display device (12) comprises an occlusion detector which, from the position of the user's head (11), deduces therefrom at least one zone of the second 3D representation displayed by the second device display (13) which is not visible to the user (11).

Le premier dispositif d’affichage portatif (12) comporte un récepteur obtenant alors des premières données complémentaires correspondantes à la zone non-visible détectée et affiche une première représentation 3D de ces premières données complémentaires dans son premier espace de restitution (22). Comme le premier dispositif d’affichage portatif (12) et le deuxième dispositif d’affichage (13) utilisent le même système de coordonnées 3D, les deux représentations 3D, la première et la deuxième représentations 3D, sont cohérentes, et l’utilisateur a l’impression de visualiser une seule représentation 3D correspondant à une fusion de la première représentation 3D avec la deuxième représentation 3D.The first portable display device (12) comprises a receiver then obtaining first complementary data corresponding to the non-visible zone detected and displays a first 3D representation of these first complementary data in its first restitution space (22). Since the first portable display device (12) and the second display device (13) use the same 3D coordinate system, the two 3D representations, the first and the second 3D representations, are consistent, and the user has the impression of viewing a single 3D representation corresponding to a fusion of the first 3D representation with the second 3D representation.

Les premières données correspondantes de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage (13) qui ne sont pas visibles par l’utilisateur sont obtenues par le premier dispositif d’affichage portatif (12):
- soit à partir de la mémoire du premier dispositif d’affichage portatif (12) car les deux dispositifs, le premier et le deuxième dispositifs d’affichage, restituent un seul et même contenu constituées de données qui sont réparties en premières données et deuxièmes données (les premières données et les deuxièmes données correspondant à des données distinctes du contenu) pour être restituer respectivement par le premier et le deuxième dispositif d’affichage. Ainsi les données du contenu correspondant aux deuxièmes données de la zone non-visible détectée sont insérées aux premières données restituées par le premier dispositif d’affichage portatif.
- soit sur requête auprès du deuxième dispositif d’affichage (13).
The first corresponding data of the second 3D representation displayed by the second display device (13) which are not visible to the user are obtained by the first portable display device (12):
- either from the memory of the first portable display device (12) because the two devices, the first and the second display devices, restore a single and same content consisting of data which is divided into first data and second data (the first data and the second data corresponding to data distinct from the content) to be restored respectively by the first and the second display device. Thus the data of the content corresponding to the second data of the non-visible zone detected are inserted into the first data restored by the first portable display device.
- Either on request from the second display device (13).

Avantageusement, selon un mode particulier de réalisation de l’invention, le premier dispositif d’affichage portatif (12) comporte un périphérique d’interaction de l’utilisateur permettant à l’utilisateur d’interagir sur une partie des éléments de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage (13), lorsque ce deuxième dispositif d’affichage (13) ne dispose pas de détecteur d’interaction utilisateur sur la deuxième représentation 3D (par exemple une caméra couplée à l’écran).Advantageously, according to a particular embodiment of the invention, the first portable display device (12) comprises a user interaction peripheral allowing the user to interact on part of the elements of the second representation 3D displayed by the second display device (13), when this second display device (13) does not have a user interaction detector on the second 3D representation (for example a camera coupled to the screen).

En effet, comme représenté en figure 2, et décrit plus en détail en relation avec la figure 3, le premier dispositif d’affichage portatif (12) est équipé d’un détecteur d’interaction utilisateur. Ce détecteur d’interaction définit un espace d’interaction dans l’environnement réel dans lequel l’utilisateur peut interagir. De telles interactions peuvent par exemple être réalisées par une ouverture/fermeture de la main, ou des gestes particuliers déclenchant des actions sur les éléments représentés dans les représentations 3D.Indeed, as shown in Figure 2, and described in more detail in relation to Figure 3, the first portable display device (12) is equipped with a user interaction detector. This interaction detector defines an interaction space in the real environment in which the user can interact. Such interactions can for example be carried out by an opening/closing of the hand, or particular gestures triggering actions on the elements represented in the 3D representations.

La figure 3 illustre schématiquement un champ de projection et un champ de détection d’interaction d’un premier dispositif d’affichage portatif selon un mode particulier de réalisation de l'invention. Sur la figure 3, un utilisateur (11) est illustré schématiquement portant un casque (12) à projection holographique. Dans l’exemple illustré, le casque à projection holographique (12) comprend un dispositif de projection (non représenté) définissant un espace de restitution (22) et un détecteur d’interaction (non représenté) définissant un espace de détection d’interaction (24).FIG. 3 schematically illustrates a projection field and an interaction detection field of a first portable display device according to a particular embodiment of the invention. In Figure 3, a user (11) is shown schematically wearing a holographic projection headset (12). In the example illustrated, the holographic projection helmet (12) comprises a projection device (not shown) defining a restitution space (22) and an interaction detector (not shown) defining an interaction detection space ( 24).

Par exemple, le dispositif de projection comprend deux écrans pour projection holographique placés respectivement devant l'œil droit et l'œil gauche de l’utilisateur (11) du casque, ainsi que des projecteurs pour projeter des données, par exemple des données de réalité virtuelle.For example, the projection device comprises two screens for holographic projection placed respectively in front of the right eye and the left eye of the user (11) of the headset, as well as projectors for projecting data, for example reality data Virtual.

Un tel dispositif de projection définit ainsi un espace de restitution (22), illustré par des traits en pointillés sur la figure 3. Un tel espace de restitution (22) correspond à l’espace de restitution décrit en relation avec la figure 2. C’est un espace dans lequel l'utilisateur (11) a l'impression que les premières données de réalité virtuelle, par exemple des objets virtuels, sont affichés. Dans l'exemple de réalisation décrit ici, l'espace de restitution (22) est limité par le champ de vision du casque à projection holographique (12).Such a projection device thus defines a restitution space (22), illustrated by dotted lines in FIG. 3. Such a restitution space (22) corresponds to the restitution space described in relation with FIG. 2. C is a space in which the user (11) has the impression that the first virtual reality data, for example virtual objects, are displayed. In the embodiment described here, the restitution space (22) is limited by the field of vision of the holographic projection helmet (12).

Le détecteur d’interaction comprend par exemple une caméra 2D et des capteurs de profondeur, ou bien une caméra 2D+profondeur, placés sur le casque (12). Le détecteur d’interaction définit un espace de détection d’interaction (24, défini en trait plein sur la figure 3) qui est plus grand que l’espace de restitution (22).The interaction detector comprises for example a 2D camera and depth sensors, or else a 2D+depth camera, placed on the helmet (12). The interaction detector defines an interaction detection space (24, defined as a solid line in FIG. 3) which is larger than the restitution space (22).

Selon le mode de réalisation illustré sur la figure 3, lorsqu'une partie du corps de l'utilisateur du casque à projection holographique (12), par exemple une main (30), est dans l'espace de détection d’interaction (24), cette partie du corps est détectée par le détecteur d’interaction et peut manipuler des objets virtuels projetés. De même, si des objets réels sont placés dans l’espace de détection d’interaction, le détecteur d’interaction peut également les détecter et en tenir compte lors de la projection de premières données.According to the embodiment illustrated in FIG. 3, when a part of the body of the user of the holographic projection helmet (12), for example a hand (30), is in the interaction detection space (24 ), this part of the body is detected by the interaction detector and can manipulate projected virtual objects. Similarly, if real objects are placed in the interaction detection space, the interaction detector can also detect them and take them into account when projecting first data.

Le détecteur d’interaction et le dispositif de projection sont couplés à une unité de traitement du casque (12) (non représentée) qui est configurée pour traiter les premières données de réalité virtuelle, i.e. les données 2D ou 3D de la scène à projeter par le dispositif de projection, et les données capturées par le détecteur d’interaction, par exemple une partie du corps de l'utilisateur à détecter et/ou des éléments de l'environnement réels de l'utilisateur.The interaction detector and the projection device are coupled to a headset processing unit (12) (not shown) which is configured to process the first virtual reality data, i.e. the 2D or 3D data of the scene to be projected by the projection device, and the data captured by the interaction detector, for example a part of the user's body to be detected and/or elements of the user's real environment.

Comme illustré en figure 3, l'espace de restitution (22) et l'espace de détection d’interaction (24) peuvent être différents. Par exemple, en référence avec la figure 3, l'espace de détection d’interaction (24) est plus large que l'espace de restitution (22).As illustrated in figure 3, the restitution space (22) and the interaction detection space (24) can be different. For example, with reference to Figure 3, the interaction detection space (24) is larger than the restitution space (22).

Il apparaît ainsi qu'une partie du corps de l'utilisateur (11) peut être détectée dans l'espace de détection d’interaction (24) mais qu'elle ne soit pas dans l'espace de restitution (22). Une telle zone (25) de l’espace de détection d’interaction (24) dans laquelle une partie du corps de l'utilisateur (11) n’est pas dans l'espace de restitution (22), est illustrée hachurée sur la figure 3.It thus appears that a part of the user's body (11) can be detected in the interaction detection space (24) but that it is not in the restitution space (22). Such a zone (25) of the interaction detection space (24) in which a part of the body of the user (11) is not in the restitution space (22), is illustrated hatched on the figure 3.

Selon l’art antérieur, quand bien même l’espace de détection d’interaction est plus grand que l’espace de restitution, l’espace dans lequel l’utilisateur peut effectivement interagir est limité par l’espace de restitution (22). En effet, aucun élément de la représentation 3D projetée par le casque n’est restitué dans la zone 25, l’utilisateur ne peut alors pas interagir sur un élément de cette zone.According to the prior art, even if the interaction detection space is larger than the restitution space, the space in which the user can actually interact is limited by the restitution space (22). Indeed, no element of the 3D representation projected by the headset is rendered in zone 25, the user cannot then interact on an element of this zone.

Avantageusement, selon l’invention, l’utilisation d’un deuxième dispositif d’affichage (13) conjointement au premier dispositif d’affichage portatif (12) comme décrit en relation avec les figures 1 ou 2 permet d’agrandir l’espace dans lequel l’utilisateur peut effectivement interagir. En effet, le deuxième dispositif d’affichage (13) peut ainsi afficher des éléments de sa deuxième représentation 3D dans la zone 25, de sorte que l’utilisateur puisse ainsi interagir sur des éléments de la deuxième représentation 3D situés dans cette zone.Advantageously, according to the invention, the use of a second display device (13) together with the first portable display device (12) as described in relation to FIGS. 1 or 2 makes it possible to enlarge the space in which the user can actually interact. Indeed, the second display device (13) can thus display elements of its second 3D representation in the zone 25, so that the user can thus interact on elements of the second 3D representation located in this zone.

La figure 4 illustre schématiquement l’organisation des espaces de rendu réels et virtuels expérimentés par un utilisateur selon le mode particulier de réalisation de l’invention. Par exemple, un environnement (10’) comprend des deuxièmes dispositifs d’affichage (13’) tels que des murs immersifs placés sur 3 côtés de l’environnement (10’). Les deuxièmes dispositifs (13’) définissent un deuxième espace de restitution immersif (20’). L’environnement (10’) comprend une succession de couches réelles/virtuelles ordonnées comme suit (sur la figure 4, les couches virtuelles sont illustrées en traits hachurés): l’utilisateur (11’), le premier dispositif d’affichage portatif (12’) porté par l’utilisateur, le premier espace de restitution (22’) du dispositif portatif, un objet réel (21’) placé dans l’environnement, le deuxième espace de restitution immersive (20’).FIG. 4 schematically illustrates the organization of the real and virtual rendering spaces experienced by a user according to the particular embodiment of the invention. For example, an environment (10') includes second display devices (13') such as immersive walls placed on 3 sides of the environment (10'). The second devices (13') define a second immersive restitution space (20'). The environment (10') comprises a succession of real/virtual layers ordered as follows (in FIG. 4, the virtual layers are illustrated in hatched lines): the user (11'), the first portable display device ( 12') carried by the user, the first restitution space (22') of the portable device, a real object (21') placed in the environment, the second immersive restitution space (20').

La figure 5 illustre la structure simplifiée d'un premier dispositif d’affichage optique portatif D_PROJ de données selon un mode particulier de réalisation de l'invention. Un tel dispositif D_PROJ est configuré pour mettre en œuvre le premier procédé d’affichage 3D de données selon l'un quelconque des modes de réalisation décrits. Par exemple, le premier dispositif d’affichage optique portatif D_PROJ est un premier dispositif d’affichage portatif (12) tel que décrit en relation avec les figures 1-3.FIG. 5 illustrates the simplified structure of a first portable optical data display device D_PROJ according to a particular embodiment of the invention. Such a device D_PROJ is configured to implement the first 3D data display method according to any one of the embodiments described. For example, the first portable optical display device D_PROJ is a first portable display device (12) as described in relation to Figures 1-3.

Dans l’exemple non limitatif illustré sur la figure 5, le premier dispositif D_PROJ comprend une mémoire MEM, une unité de traitement UT, équipée par exemple d'un processeur PROC, et pilotée par le programme d'ordinateur PG stocké en mémoire MEM. Le programme d'ordinateur PG comprend des instructions pour mettre en œuvre les étapes du premier procédé d’affichage 3D de données, lorsque le programme est exécuté par le processeur PROC.In the non-limiting example illustrated in FIG. 5, the first device D_PROJ comprises a memory MEM, a processing unit UT, equipped for example with a processor PROC, and controlled by the computer program PG stored in memory MEM. The computer program PG includes instructions for implementing the steps of the first 3D data display method, when the program is executed by the processor PROC.

A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire avant d'être exécutées par le processeur PROC. Le processeur PROC de l'unité de traitement UT met notamment en œuvre le premier procédé d’affichage 3D de données selon l'un quelconque des modes de réalisation décrits ci-dessus en relation avec les figures 1-3, ou ci-dessous en relation avec les figures 7A ou 7B selon les instructions du programme d'ordinateur PG.On initialization, the code instructions of the computer program PG are for example loaded into a memory before being executed by the processor PROC. The processor PROC of the processing unit UT notably implements the first 3D data display method according to any one of the embodiments described above in relation to FIGS. 1-3, or below in relationship with Figures 7A or 7B according to the instructions of the computer program PG.

Pour cela, le premier dispositif D_PROJ comprend un détecteur de position CAPT configuré pour détecter la position de la tête et des mains d’un utilisateur porteur du premier dispositif d’affichage portatif D_PROJ.For this, the first device D_PROJ comprises a position detector CAPT configured to detect the position of the head and hands of a user wearing the first portable display device D_PROJ.

Le premier dispositif D_PROJ comprend également un dispositif de projection PROJ permettant de restituer visuellement une première représentation 3D des premières données à l'utilisateur, par exemple via une technique de projection holographique.The first device D_PROJ also comprises a projection device PROJ making it possible to visually restore a first 3D representation of the first data to the user, for example via a holographic projection technique.

Le premier dispositif D _PROJ comprend également un émetteur/récepteur ou module de communication COM permettant au premier dispositif D_PROJ de communiquer avec au moins un deuxième dispositif d’affichage. Notamment, l’unité de traitement UT est configurée pour communiquer avec le module de communication COM pour transmettre au deuxième dispositif d’affichage la position de la tête et des mains de l’utilisateur, et/ou une information représentative d’une interaction utilisateur, et/ou pour recevoir en provenance du deuxième dispositif d’affichage des premières données à restituer (notamment des deuxièmes données non visibles à intégrer aux premières données).The first device D_PROJ also comprises a transmitter/receiver or communication module COM enabling the first device D_PROJ to communicate with at least one second display device. In particular, the processing unit UT is configured to communicate with the communication module COM to transmit to the second display device the position of the head and the hands of the user, and/or information representative of a user interaction , and/or to receive from the second display device first data to be restored (in particular second non-visible data to be integrated into the first data).

Selon un mode particulier de réalisation de l'invention, le premier dispositif D_PROJ décrit précédemment est compris dans un terminal, par exemple un casque de réalité augmentée.According to a particular embodiment of the invention, the first device D_PROJ described above is included in a terminal, for example an augmented reality headset.

La figure 6 illustre la structure simplifiée d'un deuxième dispositif D_AFF d’affichage de données selon un mode particulier de réalisation de l'invention. Un tel deuxième dispositif D_AFF est configuré pour mettre en œuvre le deuxième procédé d’affichage 3D de données selon l'un quelconque des modes de réalisation décrits. Par exemple, le deuxième dispositif d’affichage D_AFF est le deuxième dispositif d’affichage (13) tel que décrit en relation avec les figures 1-2.FIG. 6 illustrates the simplified structure of a second data display device D_AFF according to a particular embodiment of the invention. Such a second device D_AFF is configured to implement the second 3D data display method according to any one of the embodiments described. For example, the second display device D_AFF is the second display device (13) as described in relation to figures 1-2.

Dans l’exemple non limitatif illustré sur la figure 6, le deuxième dispositif D_AFF comprend une mémoire MEM’, une unité de traitement UT’, équipée par exemple d'un processeur PROC’, et pilotée par le programme d'ordinateur PG’ stocké en mémoire MEM’. Le programme d'ordinateur PG’ comprend des instructions pour mettre en œuvre les étapes du deuxième procédé d’affichage 3D de données, lorsque le programme est exécuté par le processeur PROC’.In the non-limiting example illustrated in FIG. 6, the second device D_AFF comprises a memory MEM', a processing unit UT', equipped for example with a processor PROC', and controlled by the computer program PG' stored in memory MEM'. The computer program PG' includes instructions for implementing the steps of the second 3D data display method, when the program is executed by the processor PROC'.

A l'initialisation, les instructions de code du programme d'ordinateur PG’ sont par exemple chargées dans une mémoire avant d'être exécutées par le processeur PROC’. Le processeur PROC’ de l'unité de traitement UT’ met notamment en œuvre le deuxième procédé d’affichage 3D de données selon l'un quelconque des modes de réalisation décrits ci-dessus en relation avec les figures 1-3, ou ci-dessous en relation avec les figures 7A ou 7B selon les instructions du programme d'ordinateur PG’.On initialization, the code instructions of the computer program PG' are for example loaded into a memory before being executed by the processor PROC'. The processor PROC' of the processing unit UT' notably implements the second 3D data display method according to any one of the embodiments described above in relation to FIGS. 1-3, or below. below in relation to FIGS. 7A or 7B according to the instructions of the computer program PG'.

Pour cela, le deuxième dispositif D_AFF comprend une surface d’affichage ECR, par exemple un écran adapté pour afficher à un utilisateur une suite d’images destinées alternativement à l’œil droit et à l’œil gauche de l’utilisateur, créant ainsi une impression de relief 3D des données affichées.For this, the second device D_AFF comprises a display surface ECR, for example a screen suitable for displaying to a user a series of images intended alternately for the right eye and the left eye of the user, thus creating a 3D relief impression of the displayed data.

Selon un mode particulier de réalisation de l’invention, le deuxième dispositif D_AFF est couplé à une paire de lunettes 3D actives ou passives destinées à être portée par l’utilisateur pour percevoir l’effet 3D des deuxièmes données affichées. De telles lunettes 3D sont actives ou passives selon la technologie utilisée par le deuxième dispositif D_AFF pour restituer les deuxièmes données en 3D.According to a particular embodiment of the invention, the second device D_AFF is coupled to a pair of active or passive 3D glasses intended to be worn by the user to perceive the 3D effect of the second data displayed. Such 3D glasses are active or passive depending on the technology used by the second device D_AFF to restore the second data in 3D.

Le deuxième dispositif D_AFF comprend également un émetteur/récepteur ou module de communication COM’ permettant au dispositif D_AFF de communiquer avec un premier dispositif d’affichage (notamment optique) destiné à être porté par un utilisateur. Notamment, l’unité de traitement UT’ est configurée pour communiquer avec le module de communication COM’ pour recevoir en provenance du premier dispositif d’affichage optique la position de la tête et des mains de l’utilisateur, et/ou une information représentative d’une interaction utilisateur, et/ou pour transmettre au premier dispositif d’affichage des premières données à restituer (notamment des deuxièmes données non visibles à intégrer aux premières données).The second device D_AFF also comprises a transmitter/receiver or communication module COM' allowing the device D_AFF to communicate with a first display device (in particular optical) intended to be worn by a user. In particular, the processing unit UT' is configured to communicate with the communication module COM' to receive from the first optical display device the position of the user's head and hands, and/or representative information of a user interaction, and/or to transmit to the first display device first data to be restored (in particular second non-visible data to be integrated with the first data).

Selon un mode particulier de réalisation de l'invention, le deuxième dispositif D_AFF décrit précédemment est compris dans un écran.According to a particular embodiment of the invention, the second device D_AFF described above is included in a screen.

La figure 7A illustre des étapes des premier et deuxième procédés d’affichage 3D de données selon un mode de réalisation. Le premier procédé d’affichage3D est par exemple mis en œuvre par un premier dispositif d’affichage portatif (12) tel que décrit en relation avec les figures 1-3 et le deuxième procédé d’affichage 3D est par exemple mis en œuvre par le deuxième dispositif d’affichage (13) tel que décrit en relation avec les figures 1-2.Figure 7A illustrates steps of the first and second methods of 3D data display according to one embodiment. The first 3D display method is for example implemented by a first portable display device (12) as described in relation to FIGS. 1-3 and the second 3D display method is for example implemented by the second display device (13) as described in relation to Figures 1-2.

Lors d’une étape E70, le premier dispositif d’affichage optique portatif (12) initialise un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve.During a step E70, the first portable optical display device (12) initializes a 3D coordinate system representative of the real environment in which the user finds himself.

Lors d’une étape E71, le premier dispositif d’affichage optique portatif (12) transmet au deuxième dispositif d’affichage (13) la position du premier dispositif d’affichage optique portatif (12).During a step E71, the first portable optical display device (12) transmits to the second display device (13) the position of the first portable optical display device (12).

Lors d’une étape E72, le deuxième dispositif d’affichage (13) affiche une représentation 3D des données à restituer, par exemple un environnement de réalité virtuelle, ou bien une interface comprenant des éléments d’interaction.During a step E72, the second display device (13) displays a 3D representation of the data to be rendered, for example a virtual reality environment, or else an interface comprising interaction elements.

Lors d’une étape E73, le premier dispositif d’affichage optique portatif (12) affiche également une représentation 3D des données à restituer. Comme décrit plus haut, il peut s’agir des mêmes données, ou de données complémentaires.During a step E73, the first portable optical display device (12) also displays a 3D representation of the data to be restored. As described above, it may be the same data, or additional data.

L’étape E71 est mise en œuvre régulièrement ou sur détection d’un changement de position de la tête de l’utilisateur (par exemple mouvement de la tête ou déplacement de l’utilisateur dans l’environnement réel). Sur réception d’une nouvelle position de la tête de l’utilisateur en provenance du premier dispositif d’affichage optique portatif (12) lors de l’étape E71, le deuxième dispositif d’affichage (13) modifie la représentation 3D des données affichées afin de prendre en compte ce changement.Step E71 is implemented regularly or upon detection of a change in the position of the user's head (for example movement of the head or movement of the user in the real environment). Upon receipt of a new position of the user's head from the first portable optical display device (12) during step E71, the second display device (13) modifies the 3D representation of the data displayed to take this change into account.

Lors d’une étape E74, le premier dispositif d’affichage optique portatif (12) détecte une interaction utilisateur.During a step E74, the first portable optical display device (12) detects a user interaction.

Lors d’une étape E75, le premier dispositif d’affichage optique portatif (12) détermine si l’interaction utilisateur a été mise en œuvre sur un élément de la représentation 3D affichée par le deuxième dispositif d’affichage (13) ou resituée par le premier dispositif d’affichage optique portatif (12).During a step E75, the first portable optical display device (12) determines whether the user interaction has been implemented on an element of the 3D representation displayed by the second display device (13) or relocated by the first portable optical display device (12).

Si l’interaction utilisateur a été mise en œuvre sur un élément de la représentation 3D restituée par le premier dispositif d’affichage optique portatif (12), le premier dispositif d’affichage optique portatif (12) modifie en conséquence les données restituées.If the user interaction has been implemented on an element of the 3D representation rendered by the first portable optical display device (12), the first portable optical display device (12) modifies the rendered data accordingly.

Si l’interaction utilisateur a été mise en œuvre sur un élément de la représentation 3D affichée par le deuxième dispositif d’affichage (13), lors d’une étape E76, le premier dispositif d’affichage optique portatif (12) transmet au deuxième dispositif d’affichage (13) une information représentative de l’interaction utilisateur.If the user interaction has been implemented on an element of the 3D representation displayed by the second display device (13), during a step E76, the first portable optical display device (12) transmits to the second display device (13) information representative of the user interaction.

Lors d’une étape E77, le deuxième dispositif d’affichage (13) modifie l’affichage de la représentation 3D en fonction de l’interaction utilisateur reçue.During a step E77, the second display device (13) modifies the display of the 3D representation according to the user interaction received.

Les étapes E71 à E77 sont itérées tant que des données sont à restituer à l’utilisateur.Steps E71 to E77 are iterated as long as data is to be returned to the user.

La figure 7B illustre, en relation avec la figure 8, des étapes des premier et deuxième procédés d’affichage 3D de données selon un autre mode de réalisation.FIG. 7B illustrates, in relation to FIG. 8, steps of the first and second methods of 3D display of data according to another embodiment.

Dans ce mode particulier de réalisation de l’invention, le deuxième dispositif d’affichage (13) est configuré pour afficher un grand volume de données (800 sur la figure 8) à l’utilisateur et le premier dispositif d’affichage optique portatif (12) est utilisé par l’utilisateur pour interagir sur un sous-ensemble (810 sur la figure 8) des données affichées par le deuxième dispositif d’affichage (13). Les étapes des premier et deuxième procédés d’affichage sont similaires à celles décrites en relation avec la figure 7A et comprennent en outre les étapes décrites ci-dessous. On suppose ici que lors de l’étape E73, le premier dispositif d’affichage optique portatif (12) ne projette pas encore de données à l’utilisateur.In this particular embodiment of the invention, the second display device (13) is configured to display a large volume of data (800 in FIG. 8) to the user and the first portable optical display device ( 12) is used by the user to interact with a subset (810 in FIG. 8) of the data displayed by the second display device (13). The steps of the first and second display methods are similar to those described in connection with Figure 7A and further include the steps described below. It is assumed here that during step E73, the first portable optical display device (12) does not yet project data to the user.

Lors d’une étape E74’, le premier dispositif d’affichage optique portatif (12) détecte une interaction utilisateur sur la représentation 3D des données affichées par le deuxième dispositif d’affichage (13). Une telle interaction utilisateur correspond à une sélection par l’utilisateur d’un sous-groupe d’éléments parmi un groupe d’éléments de la représentation 3D affichée par le deuxième dispositif d’affichage (13).During a step E74′, the first portable optical display device (12) detects a user interaction on the 3D representation of the data displayed by the second display device (13). Such a user interaction corresponds to a selection by the user of a sub-group of elements from among a group of elements of the 3D representation displayed by the second display device (13).

Lors d’une étape E76’, le premier dispositif d’affichage optique portatif (12) transmet au deuxième dispositif d’affichage (13) une information représentative de l’interaction utilisateur. Lors d’une étape E77’, éventuellement, le deuxième dispositif d’affichage (13) modifie l’affichage de la représentation 3D, par exemple en modifiant visuellement la représentation des éléments sélectionnés, ou bien en supprimant les éléments sélectionnés de la représentation 3D affichée.During a step E76′, the first portable optical display device (12) transmits to the second display device (13) information representative of the user interaction. During a step E77', possibly, the second display device (13) modifies the display of the 3D representation, for example by visually modifying the representation of the selected elements, or else by deleting the selected elements from the 3D representation displayed.

Lors d’une étape E78, le deuxième dispositif d’affichage (13) transmet au premier dispositif d’affichage optique portatif (12) les éléments du sous-ensemble sélectionnés. Le premier dispositif d’affichage optique portatif (12) les reçoit et les enregistre en mémoire.During a step E78, the second display device (13) transmits to the first portable optical display device (12) the selected elements of the subset. The first portable optical display device (12) receives them and stores them in memory.

Lors d’une étape E79, le premier dispositif d’affichage optique portatif (12) restitue une représentation 3D des éléments reçus.During a step E79, the first portable optical display device (12) restores a 3D representation of the elements received.

Lors d’une étape E80, le premier dispositif d’affichage optique portatif (12) détecte une interaction utilisateur sur le sous-ensemble d’éléments restitué par le premier dispositif d’affichage optique portatif visant à modifier un ou des éléments du sous-ensemble. Lors de l’étape E80, le premier dispositif d’affichage optique portatif (12) modifie le ou les éléments du sous-ensemble et enregistre en mémoire la modification. L’étape E80 peut être itérée tant que l’utilisateur souhaite interagir sur les éléments du sous-ensemble.During a step E80, the first portable optical display device (12) detects a user interaction on the subset of elements restored by the first portable optical display device aimed at modifying one or more elements of the subset. together. During step E80, the first portable optical display device (12) modifies the element(s) of the subset and saves the modification in memory. Step E80 can be iterated as long as the user wishes to interact on the elements of the subset.

Lors d’une étape E81, le premier dispositif d’affichage optique portatif (12) détecte une interaction utilisateur visant à transmettre le sous-ensemble d’éléments modifiés au deuxième dispositif d’affichage (13). Lors de l’étape E81, le premier dispositif d’affichage optique portatif (12) transmet donc au deuxième dispositif d’affichage (13) le sous-ensemble d’éléments modifiés. Le deuxième dispositif d’affichage (13) enregistre le sous-ensemble modifié en mémoire et lors d’une étape E82, le deuxième dispositif d’affichage (13) modifie l’affichage de la représentation 3D pour afficher dans les éléments du sous-ensemble reçu.During a step E81, the first portable optical display device (12) detects a user interaction aimed at transmitting the subset of modified elements to the second display device (13). During step E81, the first portable optical display device (12) therefore transmits to the second display device (13) the subset of modified elements. The second display device (13) saves the modified sub-assembly in memory and during a step E82, the second display device (13) modifies the display of the 3D representation to display in the elements of the sub- set received.

Différents modes particuliers de réalisation de l'invention ont été décrits ci-dessus. Ces différents modes particuliers de réalisation de l'invention peuvent être mis en œuvre seuls ou en combinaison les uns avec les autres.Different particular embodiments of the invention have been described above. These different particular embodiments of the invention can be implemented alone or in combination with each other.

Claims (15)

Premier dispositif d’affichage 3D, destiné à être porté par une tête d’un utilisateur, le premier dispositif d’affichage comportant:
- un module d’affichage configuré pour afficher une première représentation 3D de premières données, et
- un calibreur d’un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve, ledit système de coordonnées 3D étant utilisé par le module d’affichage pour afficher ladite première représentation 3D desdites premières données, en mémorisant une position dans le système de coordonnées 3D d’au moins un deuxième dispositif d’affichage configuré pour afficher sur une surface d’affichage une deuxième représentation 3D de deuxièmes données en utilisant ledit système de coordonnées 3D.
First 3D display device, intended to be worn by a user's head, the first display device comprising:
- a display module configured to display a first 3D representation of first data, and
- a calibrator of a 3D coordinate system representative of the real environment in which the user finds himself, said 3D coordinate system being used by the display module to display said first 3D representation of said first data, by storing a position in the 3D coordinate system of at least a second display device configured to display on a display surface a second 3D representation of second data using said 3D coordinate system.
Premier dispositif d’affichage 3D selon la revendication 1, comportant en outre un détecteur d’au moins une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage.The first 3D display device according to claim 1, further comprising a detector of at least one user interaction on at least one element of the second 3D representation displayed by the second display device. Premier dispositif d’affichage 3D selon la revendication 2, dans lequel le détecteur est configuré pour détecter ladite au moins une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage lorsqu’une main de l’utilisateur avec laquelle il interagit est détectée à une position située en dehors d’un champ de projection dudit premier dispositif d’affichage portatif.The first 3D display device according to claim 2, wherein the detector is configured to detect said at least one user interaction on at least one element of the second 3D representation displayed by the second display device when a hand of the user with whom he interacts is detected at a position located outside a projection field of said first portable display device. Premier dispositif d’affichage 3D selon la revendication 3, comprenant en outre une mémoire dans laquelle est mémorisé un emplacement d’au moins un élément de la deuxième représentation 3D affiché par le deuxième dispositif d’affichage dans le système de coordonnées 3D.The first 3D display device according to claim 3, further comprising a memory in which is stored a location of at least one element of the second 3D representation displayed by the second display device in the 3D coordinate system. Deuxième dispositif d’affichage 3D, le deuxième dispositif d’affichage comportant:
- un module d’affichage configuré pour afficher une deuxième représentation 3D de deuxièmes données sur une surface d’affichage, et
- un calibreur d’un système de coordonnées 3D utilisé pour afficher sur la surface d’affichage ladite deuxième représentation 3D desdites deuxièmes données, en mémorisant au moins une position dans le système de coordonnées 3D d’un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur et configuré pour afficher une première représentation 3D de premières données en utilisant ledit système de coordonnées 3D.
A second 3D display device, the second display device comprising:
- a display module configured to display a second 3D representation of second data on a display surface, and
- a calibrator of a 3D coordinate system used to display on the display surface said second 3D representation of said second data, by storing at least one position in the 3D coordinate system of a first display device intended to be carried by a head of a user and configured to display a first 3D representation of first data using said 3D coordinate system.
Deuxième dispositif d’affichage 3D selon la revendication 5, comportant en outre un module de modification de l’affichage de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage en fonction d’au moins une donnée d’interaction reçue du premier dispositif d’affichage.Second 3D display device according to claim 5, further comprising a module for modifying the display of the second 3D representation displayed by the second display device as a function of at least one interaction datum received from the first device display. Deuxième dispositif d’affichage 3D selon la revendication 6, dans lequel ladite au moins donnée d’interaction comprend au moins l’une des données suivantes:
- une position de la tête ou d’une main de l’utilisateur,
- une information représentative d’une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage.
Second 3D display device according to claim 6, wherein said at least one interaction datum comprises at least one of the following data:
- a position of the user's head or hand,
- information representative of a user interaction on at least one element of the second 3D representation displayed by the second display device.
Système de restitution 3D de données comprenant:
- un premier dispositif d’affichage selon l’une quelconque des revendications 1 à 4,
- au moins un deuxième dispositif d’affichage selon l’une quelconque des revendications 5 à 7.
3D data restitution system including:
- a first display device according to any one of claims 1 to 4,
- at least one second display device according to any one of claims 5 to 7.
Premier procédé d’affichage 3D, mis en œuvre par un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur, le premier procédé d’affichage comportant:
- un affichage, par le premier dispositif d’affichage, d’une première représentation 3D de premières données, et
- un calibrage d’un système de coordonnées 3D représentatif de l’environnement réel dans lequel l’utilisateur se trouve, ledit système de coordonnées 3D étant utilisé pour afficher ladite première représentation 3D desdites premières données, le calibrage comprenant au moins la mémorisation d’une position dans le système de coordonnées 3D d’au moins un deuxième dispositif d’affichage configuré pour afficher sur une surface d’affichage une deuxième représentation 3D de deuxièmes données en utilisant ledit système de coordonnées 3D.
First 3D display method, implemented by a first display device intended to be worn by a head of a user, the first display method comprising:
- a display, by the first display device, of a first 3D representation of first data, and
- a calibration of a 3D coordinate system representative of the real environment in which the user finds himself, said 3D coordinate system being used to display said first 3D representation of said first data, the calibration comprising at least the memorization of a position in the 3D coordinate system of at least a second display device configured to display on a display surface a second 3D representation of second data using said 3D coordinate system.
Premier procédé d’affichage 3D selon la revendication 9, comprenant en outre:
- une détection d’au moins une interaction utilisateur sur au moins un élément de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage et,
- une transmission au deuxième dispositif d’affichage d’une information représentative de ladite interaction utilisateur détectée.
A first 3D display method according to claim 9, further comprising:
- detection of at least one user interaction on at least one element of the second 3D representation displayed by the second display device and,
- A transmission to the second display device of information representative of said detected user interaction.
Premier procédé d’affichage 3D de données selon l’une quelconque des revendications 9 ou 10, comprenant en outre:
- une obtention d’un sous-ensemble d’éléments affichés dans la deuxième représentation 3D affichée par le deuxième dispositif d’affichage,
- une modification de la première représentation 3D affichée par le premier dispositif d’affichage pour afficher les éléments dudit sous-ensemble.
A first 3D data display method according to any of claims 9 or 10, further comprising:
- obtaining a subset of elements displayed in the second 3D representation displayed by the second display device,
- a modification of the first 3D representation displayed by the first display device to display the elements of said subset.
Premier procédé d’affichage 3D de données selon la revendication 11, comprenant en outre:
- une détection d’une interaction utilisateur sur ledit sous-ensemble d’éléments affiché par le premier dispositif d’affichage modifiant ledit sous-ensemble,
- une transmission au deuxième dispositif d’affichage dudit sous-ensemble modifié.
A first 3D data display method according to claim 11, further comprising:
- detection of a user interaction on said subset of elements displayed by the first display device modifying said subset,
- A transmission to the second display device of said modified subset.
Deuxième procédé d’affichage 3D, mis en œuvre par un deuxième dispositif d’affichage, le deuxième procédé d’affichage 3D comprenant:
- un affichage d’une deuxième représentation 3D de deuxièmes données sur une surface d’affichage,
- un calibrage d’un système de coordonnées 3D utilisé pour afficher sur la surface d’affichage ladite deuxième représentation 3D desdites deuxièmes données, le calibrage comprenant au moins la mémorisation d’une position dans le système de coordonnées 3D d’un premier dispositif d’affichage destiné à être porté par une tête d’un utilisateur et configuré pour afficher une première représentation 3D d’au moins des premières données en utilisant ledit système de coordonnées 3D.
A second 3D display method, implemented by a second display device, the second 3D display method comprising:
- a display of a second 3D representation of second data on a display surface,
- a calibration of a 3D coordinate system used to display on the display surface said second 3D representation of said second data, the calibration comprising at least the storage of a position in the 3D coordinate system of a first device of a display intended to be worn by a user's head and configured to display a first 3D representation of at least first data using said 3D coordinate system.
Deuxième procédé d’affichage 3D selon la revendication 13, comprenant en outre:
- une réception par le deuxième dispositif d’affichage en provenance du premier dispositif d’affichage d’au moins une donnée d’interaction,
- une modification de l’affichage de la deuxième représentation 3D affichée par le deuxième dispositif d’affichage en fonction de ladite au moins une donnée d’interaction reçue.
A second 3D display method according to claim 13, further comprising:
- reception by the second display device from the first display device of at least one interaction datum,
- a modification of the display of the second 3D representation displayed by the second display device as a function of said at least one interaction datum received.
Programme d'ordinateur comportant des instructions pour la mise en œuvre du premier procédé d’affichage 3D selon l'une quelconque des revendications 9 à 12 ou du deuxième procédé d’affichage 3D selon l’une quelconque des revendications 13 ou 14, lorsque le programme est exécuté par un processeur.Computer program comprising instructions for implementing the first 3D display method according to any one of Claims 9 to 12 or the second 3D display method according to any one of Claims 13 or 14, when the program is executed by a processor.
FR1914557A 2019-12-17 2019-12-17 Portable 3D content display device, system and method thereof. Active FR3104743B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1914557A FR3104743B1 (en) 2019-12-17 2019-12-17 Portable 3D content display device, system and method thereof.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1914557A FR3104743B1 (en) 2019-12-17 2019-12-17 Portable 3D content display device, system and method thereof.
FR1914557 2019-12-17

Publications (2)

Publication Number Publication Date
FR3104743A1 true FR3104743A1 (en) 2021-06-18
FR3104743B1 FR3104743B1 (en) 2022-07-15

Family

ID=70456866

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1914557A Active FR3104743B1 (en) 2019-12-17 2019-12-17 Portable 3D content display device, system and method thereof.

Country Status (1)

Country Link
FR (1) FR3104743B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11875465B2 (en) 2019-03-21 2024-01-16 Orange Virtual reality data-processing device, system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180046245A1 (en) * 2016-08-11 2018-02-15 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments
US20180293041A1 (en) * 2015-10-08 2018-10-11 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293041A1 (en) * 2015-10-08 2018-10-11 Pcms Holdings, Inc. Methods and systems of automatic calibration for dynamic display configurations
US20180046245A1 (en) * 2016-08-11 2018-02-15 Microsoft Technology Licensing, Llc Mediation of interaction methodologies in immersive environments

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11875465B2 (en) 2019-03-21 2024-01-16 Orange Virtual reality data-processing device, system and method

Also Published As

Publication number Publication date
FR3104743B1 (en) 2022-07-15

Similar Documents

Publication Publication Date Title
FR2922323A1 (en) CROSS-MONITORING DEVICE FOR HIGH HEAD DISPLAYS
WO2005017602A2 (en) Three-dimensional image display system
FR3104743A1 (en) Portable 3D content display device, system and method thereof.
WO2013160255A1 (en) Display device suitable for providing an extended field of vision
CA2914360A1 (en) System for tracking the position of the shooting camera for shooting video films
WO2013144506A1 (en) Method and device for creating images
EP3935487A1 (en) Method and device for processing virtual-reality environment data
WO2014170482A1 (en) Method for generating an output video stream from a wide-field video stream
FR3107390A1 (en) Device, system and method for processing virtual reality data
FR3056770A1 (en) DEVICE AND METHOD FOR IMMERSION SHARING IN A VIRTUAL ENVIRONMENT
FR3077910A1 (en) METHOD FOR AIDING THE MAINTENANCE OF A COMPLEX SYSTEM
EP2713625A1 (en) Method and system for providing multimedia content, corresponding virtual machine, servers, communication terminal and computer program
EP1929777B1 (en) System and method for processing images by visual echo cancellation
FR3068803A1 (en) METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT
WO2022129752A1 (en) Methods and devices for immersing a user in an immersive scene and for processing 3d objects
EP3724749B1 (en) Device for augmented reality application
EP4349006A1 (en) Mixed-reality communication method, communication system, computer program, and information medium
FR3043295A1 (en) SPACE ENHANCED REALITY DEVICE FOR OFFICE ENVIRONMENT
WO2015150711A1 (en) Method of transmitting information via a video channel between two terminals
FR3013492A1 (en) METHOD USING 3D GEOMETRY DATA FOR PRESENTATION AND CONTROL OF VIRTUAL REALITY IMAGE IN 3D SPACE
EP3942390A1 (en) Virtual reality data-processing device, system and method
EP1124212A1 (en) Visual presentation method and device of a virtual 3-D space simulating a car
FR3127597A1 (en) MAN-MACHINE INTERFACE SYSTEM
EP2234003A2 (en) Method for identifying a single axis of rotation of a rotation movement
FR3050834A1 (en) DEVICE AND METHOD FOR IMMERSION SHARING IN A VIRTUAL ENVIRONMENT

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210618

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5