FR3068803A1 - METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT - Google Patents

METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT Download PDF

Info

Publication number
FR3068803A1
FR3068803A1 FR1758662A FR1758662A FR3068803A1 FR 3068803 A1 FR3068803 A1 FR 3068803A1 FR 1758662 A FR1758662 A FR 1758662A FR 1758662 A FR1758662 A FR 1758662A FR 3068803 A1 FR3068803 A1 FR 3068803A1
Authority
FR
France
Prior art keywords
hand
display
pointer
hands
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1758662A
Other languages
French (fr)
Inventor
Guillaume Bataille
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1758662A priority Critical patent/FR3068803A1/en
Publication of FR3068803A1 publication Critical patent/FR3068803A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

L'invention concerne un procédé de traitement de données d'un environnement de réalité virtuelle dans lequel au moins un objet virtuel est projeté dans un espace de projection par un dispositif de projection holographique. Le procédé comprend détecter une main d'un utilisateur du dispositif de projection holographique, déterminer si la main détectée est une main droite ou une main gauche, et générer, sur la base de la détermination si la main détectée est une main droite ou une main gauche, une commande d'affichage de données de l'environnement de réalité virtuelle.The invention relates to a method for processing data of a virtual reality environment in which at least one virtual object is projected into a projection space by a holographic projection device. The method includes detecting a hand of a user of the holographic projection device, determining whether the detected hand is a right hand or a left hand, and generating, based on the determination whether the detected hand is a right hand or a hand left, a data display command of the virtual reality environment.

Description

Procédé et dispositif de traitement de données d'un environnement de réalité virtuelle.Method and device for processing data from a virtual reality environment.

L'invention concerne le traitement de données de réalité augmentée ou réalité virtuelle mixte, destinées à être affichées par exemple par un affichage holographique.The invention relates to the processing of augmented reality or mixed virtual reality data, intended to be displayed for example by a holographic display.

Il existe des visiocasques ou lunettes de réalité virtuelle permettant d'afficher un environnement de réalité virtuelle mixte sous la forme d'hologrammes s'intégrant dans le champ de vision de l'utilisateur. Par exemple, le casque Microsoft® Hololens, illustré en figure 1, offre un tel affichage. Un tel casque est notamment équipé de capteurs, par exemple des caméras, permettant à l'utilisateur d'interagir de manière gestuelle sur les objets virtuels de l'environnement de réalité virtuelle projetés par le casque.There are headsets or virtual reality glasses for displaying a mixed virtual reality environment in the form of holograms integrating into the user's field of vision. For example, the Microsoft® Hololens helmet, illustrated in Figure 1, offers such a display. Such a helmet is in particular equipped with sensors, for example cameras, allowing the user to interact in a gestural manner on the virtual objects of the virtual reality environment projected by the helmet.

Pour interagir avec des objets virtuels projetés par un tel casque, un utilisateur utilise une de ses mains qu'il place devant un objet virtuel projeté dans le champ de vision du casque.To interact with virtual objects projected by such a helmet, a user uses one of his hands which he places in front of a virtual object projected in the field of vision of the helmet.

Afin d'activer la sélection d'un objet virtuel en vue d'une manipulation (déplacement de l'objet par exemple), le casque doit détecter que la main de l'utilisateur passe d'un état ouvert (illustré en figure 2A) à un état fermé (illustré en figure 2B) lorsqu'elle est placée sur l'objet à sélectionner. L'état ouvert de la main est détecté par l'ouverture de l'espace entre le pouce et l'index et l'état fermé de la main est détecté par la fermeture de l'espace entre le pouce et l'index.In order to activate the selection of a virtual object for manipulation (moving the object for example), the helmet must detect that the user's hand goes from an open state (illustrated in FIG. 2A) in a closed state (illustrated in FIG. 2B) when it is placed on the object to be selected. The open state of the hand is detected by the opening of the space between the thumb and the index finger and the closed state of the hand is detected by the closing of the space between the thumb and the index finger.

L'inconvénient d'un tel système est que l'utilisation d'une seule main pour l'interaction utilisateur n'est pas intuitive pour l'utilisateur du casque, notamment pour des actions de manipulation d'objets virtuels pour lesquelles l'utilisateur a tendance à vouloir utiliser ses deux mains comme il le ferait avec des objets réels.The disadvantage of such a system is that the use of one hand for user interaction is not intuitive for the user of the helmet, in particular for actions of manipulation of virtual objects for which the user tends to want to use both hands as they would with real objects.

De plus, l'utilisation d'une seule main pour la manipulation d'objets virtuels restreint le nombre d'actions possibles accessibles uniquement à partir de gestes réalisés avec une seule main. Afin d'augmenter le nombre d'actions possibles, il est alors parfois nécessaire d'ajouter dans le champ de projection du casque des menus permettant à l'utilisateur d'accéder à des actions supplémentaires. Toutefois, l'ajout de tels menus diminue l'impression d'immersion de l'utilisateur dans l'environnement de réalité virtuel projeté.In addition, the use of one hand for the manipulation of virtual objects limits the number of possible actions accessible only from gestures made with one hand. In order to increase the number of possible actions, it is sometimes necessary to add menus to the helmet projection field allowing the user to access additional actions. However, the addition of such menus reduces the user's impression of immersion in the projected virtual reality environment.

De plus, le mécanisme de sélection d'objet par ouverture/fermeture d'une main est sensible aux erreurs. En effet, la main de l'utilisateur peut être mal positionnée ou mal orientée par rapport aux capteurs du casque, ou mal positionnée par rapport à l'objet à sélectionner, ou bien l'utilisateur n'ouvre ou ne ferme pas assez l'espace entre le pouce et l'index, etc... Lorsque l'état ouvert/fermé de la main n'est pas correctement détecté, l'utilisateur ne peut alors pas manipuler l'objet virtuel comme il le souhaiterait. Dans ce cas, l'utilisateur n'a aucun moyen de savoir pourquoi la manipulation de l'objet virtuel n'est pas possible.In addition, the object selection mechanism by opening / closing a hand is sensitive to errors. Indeed, the user's hand may be badly positioned or badly oriented relative to the helmet sensors, or badly positioned relative to the object to be selected, or the user does not open or close the space between thumb and index finger, etc. When the open / closed state of the hand is not correctly detected, the user cannot then manipulate the virtual object as he would like. In this case, the user has no way of knowing why the manipulation of the virtual object is not possible.

Le casque Microsoft® Hololens permet d'afficher à l'utilisateur un retour visuel sous la forme d'un point ou cercle de couleur indiquant si l'objet virtuel survolé par la main est apte à être manipulé ou non. Cependant, aucune information n'est fournie à l'utilisateur indiquant l'état de détection de sa main.The Microsoft® Hololens headset allows the user to display visual feedback in the form of a colored dot or circle indicating whether the virtual object overflown by the hand is suitable for manipulation or not. However, no information is provided to the user indicating the detection status of his hand.

II existe donc un besoin d'améliorer la manipulation d'objets virtuels d'une scène de réalité virtuelle affichée par holographie.There is therefore a need to improve the manipulation of virtual objects of a virtual reality scene displayed by holography.

A cet effet, un procédé de traitement de données d'un environnement de réalité virtuelle est proposé. Le procédé proposé comprend : projeter par projection holographique au moins un objet virtuel dans un espace de projection d'un dispositif de projection holographique, détecter une main d'un utilisateur du dispositif de projection holographique, déterminer si la main détectée est une main droite ou une main gauche, et générer, sur la base de la détermination si la main détectée est une main droite ou une main gauche, une commande d’affichage de données de l’environnement de réalité virtuelle, la commande comprenant : lorsqu’il est déterminé que la main détectée est une main droite, commander l’affichage dans l'espace de projection d’un premier signal visuel placé à droite d'un pointeur d'objets affiché dans l'espace de projection, et lorsqu’il est déterminé que la main détectée est une main gauche, commander l’affichage dans l'espace de projection du premier signal visuel placé à gauche du pointeur d'objets affiché dans l'espace de projection.To this end, a method for processing data from a virtual reality environment is proposed. The proposed method comprises: projecting by holographic projection at least one virtual object into a projection space of a holographic projection device, detecting a hand of a user of the holographic projection device, determining whether the detected hand is a right hand or a left hand, and generating, based on the determination whether the detected hand is a right hand or a left hand, a command to display data of the virtual reality environment, the command comprising: when it is determined that the detected hand is a right hand, order the display in the projection space of a first visual signal placed to the right of an object pointer displayed in the projection space, and when it is determined that the detected hand is a left hand, order the display in the projection space of the first visual signal placed to the left of the object pointer displayed in the projection space.

La commande d’affichage selon le procédé proposé peut être configurée pour commander que le signal visuel représentatif de la détection d'une main soit restitué par affichage dans l’espace de projection à proximité d'un pointeur d'objets dans l'espace de projection. Un tel pointeur d'objets correspond à un signal visuel permettant à l'utilisateur de pointer un objet ou une zone dans l'espace de projection, et joue par exemple le rôle d'une souris, ou d'un curseur affiché sur un écran d’ordinateur individuel ou de tablette.The display control according to the proposed method can be configured to control that the visual signal representative of the detection of a hand is reproduced by display in the projection space near an object pointer in the projection space. projection. Such an object pointer corresponds to a visual signal allowing the user to point an object or an area in the projection space, and plays for example the role of a mouse, or of a cursor displayed on a screen. personal computer or tablet.

Des informations visuelles (pointeur, état de détection d’une main ou de chacune des deux mains de l’utilisateur) sont ainsi restituées à l'utilisateur dans une zone limitée, à proximité du pointeur. De plus, le reste de l'espace de projection n'est avantageusement pas pollué par l'affichage des différentes informations à restituer, permettant ainsi de maintenir pour l’utilisateur l'impression d'immersion dans l'environnement de réalité virtuelle.Visual information (pointer, detection status of one hand or of each of the two hands of the user) is thus restored to the user in a limited area, near the pointer. In addition, the rest of the projection space is advantageously not polluted by the display of the various information to be restored, thus allowing the user to maintain the impression of immersion in the virtual reality environment.

Avantageusement, la main détectée est identifiée en tant que main gauche ou main droite de sorte que le signal représentatif de la détection de la main peut être restitué sur le côté (gauche ou droit) correspondant du pointeur. Ainsi, l'utilisateur sait intuitivement à quelle main correspond le signal d'état d'une main affiché.Advantageously, the detected hand is identified as a left hand or a right hand so that the signal representative of the detection of the hand can be restored on the corresponding side (left or right) of the pointer. Thus, the user intuitively knows which hand corresponds to the status signal of a displayed hand.

Dans un ou plusieurs modes de réalisation, le procédé proposé comprend en outre une détermination d’un état d’ouverture de la main détectée, parmi un ensemble d’états prédéterminés. Cet ensemble d’états prédéterminés peut comprendre typiquement deux états, un état «fermé» et un état «ouvert». Le procédé proposé n’est cependant pas limité à ces deux états, et il pourra par exemple être déterminé que la main détectée se trouve dans un état «ouvert», «fermé», ou dans un ou plusieurs états intermédiaires entre ces deux états (par exemple un état «semi-ouvert», ou «semi-fermé»), selon le mode de réalisation choisi et notamment de la finesse de détection souhaitée pour les postures et actions de la main de l’utilisateur.In one or more embodiments, the proposed method further comprises determining a state of opening of the detected hand, from among a set of predetermined states. This set of predetermined states can typically include two states, a "closed" state and an "open" state. The proposed method is not however limited to these two states, and it can for example be determined that the detected hand is in an “open”, “closed” state, or in one or more intermediate states between these two states ( for example a “semi-open”, or “semi-closed” state), according to the embodiment chosen and in particular of the desired detection finesse for the postures and actions of the user's hand.

Dans ces modes de réalisation, la commande d’ouverture pourra tenir compte de l’état d’ouverture déterminé, et le premier signal être représentatif de la détection et de l’état d’ouverture déterminé pour la main détectée.In these embodiments, the opening command may take account of the determined opening state, and the first signal be representative of the detection and of the determined opening state for the detected hand.

La manipulation d'objets virtuels d'un environnement de réalité virtuelle est ainsi facilitée, à des degrés plus ou moins élevés en fonction du nombre de paramètres (état de la main détectée « droite » ou « gauche », état d’ouverture de la main détectée) pris en compte pour la commande d’affichage, par la mise en œuvre du procédé proposé.The manipulation of virtual objects in a virtual reality environment is thus facilitated, to varying degrees depending on the number of parameters (state of the detected hand "right" or "left", state of opening of the hand detected) taken into account for the display command, by implementing the proposed method.

L'affichage d'un signal représentatif d’un état d’ouverture d'une main détectée dans l'espace de projection permet avantageusement d'informer l'utilisateur de l'état de détection de cette main. L'utilisateur sait ainsi si sa main a correctement été détectée, et le cas échéant dans quel état (par exemple «ouvert» ou «fermé»). Il sait ainsi en fonction de l'état d'ouverture déterminé de la main si la manipulation d'objets est possible à l'aide de sa main.The display of a signal representative of an opening state of a hand detected in the projection space advantageously makes it possible to inform the user of the detection state of this hand. The user thus knows whether his hand has been correctly detected, and if so in what state (for example "open" or "closed"). He thus knows according to the determined state of opening of the hand if the manipulation of objects is possible using his hand.

Avantageusement, le même signal visuel est utilisé pour représenter à la fois quelle main (gauche ou droite) a été détectée et quel est l'état (ouvert/fermé) de la main détecté.Advantageously, the same visual signal is used to represent both which hand (left or right) has been detected and which is the state (open / closed) of the detected hand.

Selon un ou plusieurs modes de réalisation, le procédé comprend en outre: détecter une autre main de l’utilisateur du dispositif de projection holographique, déterminer un état d'ouverture de l'autre main détectée, dans lequel la commande d’affichage est en outre générée sur la base de l’état d’ouverture de l’autre main détectée, et comprend en outre : dans le cas où l'autre main détectée est une main droite, commander l’affichage dans l’espace de projection d’un deuxième signal visuel placé à droite du pointeur d'objets affiché dans l'espace de projection, et dans le cas où l'autre main détectée est une main gauche, commander l’affichage dans l’espace de projection du deuxième signal visuel placé à gauche du pointeur d'objets affiché dans l'espace de projection, et dans lequel le deuxième signal est représentatif de la détection et de l’état d’ouverture déterminé pour l’autre main détectée.According to one or more embodiments, the method further comprises: detecting another hand of the user of the holographic projection device, determining an opening state of the other detected hand, in which the display command is in additionally generated on the basis of the opening state of the other detected hand, and further comprises: in the case where the other detected hand is a right hand, control the display in the projection space of a second visual signal placed to the right of the object pointer displayed in the projection space, and in the case where the other detected hand is a left hand, control the display in the projection space of the second visual signal placed to the left of the object pointer displayed in the projection space, and in which the second signal is representative of the detection and of the opening state determined for the other detected hand.

Selon ce mode de réalisation, une deuxième main est détectée dans l'espace de projection. Avantageusement, l'ajout d'une deuxième main pour la manipulation d'objets virtuels permet à l'utilisateur une gestuelle plus intuitive pour la manipulation d'objets. De plus, chaque signal représentatif de l'état détecté/ouvert/fermé d'une main est restitué du côté (gauche/droit) correspondant à proximité du pointeur d'objets. Ainsi, l'utilisateur peut déterminer l'état de chacune de ses mains de manière indépendante.According to this embodiment, a second hand is detected in the projection space. Advantageously, the addition of a second hand for the manipulation of virtual objects allows the user a more intuitive gesture for the manipulation of objects. In addition, each signal representative of the detected / open / closed state with one hand is restored on the corresponding side (left / right) near the object pointer. Thus, the user can determine the state of each of his hands independently.

Dans un ou plusieurs modes de réalisation, la commande d’affichage peut comprendre en outre une commande d’affichage du pointeur d’objets sous la forme d'une ligne fermée, éventuellement courbe, par exemple de forme ovale ou circulaire, et comprend en outre une modification d’une couleur d’affichage du pointeur de sorte que dans le cas où le pointeur est affiché relativement à un objet pouvant être manipulé par l'utilisateur, le pointeur est affiché selon une première couleur, et dans le cas où le pointeur est affiché relativement à un objet ne pouvant pas être manipulé par l'utilisateur, le pointeur est affiché selon une deuxième couleur.In one or more embodiments, the display command can further comprise a command to display the object pointer in the form of a closed line, possibly curved, for example of oval or circular shape, and comprises in in addition to modifying a pointer display color so that in the case where the pointer is displayed relative to an object which can be manipulated by the user, the pointer is displayed in a first color, and in the case where the pointer is displayed relative to an object that cannot be manipulated by the user, the pointer is displayed in a second color.

Selon ce mode de réalisation, grâce à l'utilisation de couleurs distinctes, l'utilisateur peut facilement identifier les objets virtuels pouvant être manipulés et leur état.According to this embodiment, thanks to the use of distinct colors, the user can easily identify the virtual objects that can be manipulated and their state.

Dans un ou plusieurs modes de réalisation, la commande d'affichage peut comprendre en outre une modification de la couleur d’affichage du pointeur de sorte que dans le cas où le pointeur est affiché relativement à un objet en cours de manipulation par l’utilisateur, le pointeur est affiché selon une troisième couleur.In one or more embodiments, the display command may further comprise a modification of the display color of the pointer so that in the case where the pointer is displayed relative to an object being manipulated by the user , the pointer is displayed in a third color.

Dans un ou plusieurs modes de réalisation, la commande d’affichage peut comprendre une commande d’affichage du premier signal et/ou du deuxième signal sous la forme d’une ligne ouverte, éventuellement courbe, par exemple d’une demi-ovale ou d'un demi-cercle, entourant en partie le pointeur affiché, la ligne ouverte étant positionnée selon un axe vertical dans l’espace de projection, à gauche ou à droite du pointeur selon que la main correspondante est une main gauche ou droite.In one or more embodiments, the display command may comprise a command to display the first signal and / or the second signal in the form of an open line, possibly curved, for example a half-oval or a semicircle, partially surrounding the displayed pointer, the open line being positioned along a vertical axis in the projection space, to the left or to the right of the pointer depending on whether the corresponding hand is a left or right hand.

Dans ces modes de réalisation, la commande d'affichage peut en outre comprendre une commande de modification d’une couleur d’affichage de la ligne ouverte de sorte que, dans le cas où la main correspondante n'est pas détectée, la ligne ouverte est affichée selon une quatrième couleur, lorsque la main correspondante est détectée ouverte, la ligne ouverte est affichée selon une cinquième couleur, et dans le cas où la main correspondante est détectée fermée, la ligne ouverte est affichée selon une sixième couleur.In these embodiments, the display command may further comprise a command to modify a display color of the open line so that, in the case where the corresponding hand is not detected, the open line is displayed in a fourth color, when the corresponding hand is detected open, the open line is displayed in a fifth color, and in the case where the corresponding hand is detected closed, the open line is displayed in a sixth color.

Selon ce mode de réalisation, grâce à l'utilisation de plusieurs couleurs distinctes correspondant respectivement à différents états de détection de chaque main, l'utilisateur peut facilement identifier l'état de détection de ses mains.According to this embodiment, thanks to the use of several distinct colors corresponding respectively to different detection states of each hand, the user can easily identify the detection state of his hands.

Dans un ou plusieurs modes de réalisation, le procédé proposé peut comprendre, en outre : dans le cas où le pointeur est affiché relativement à un objet virtuel apte à être manipulé et dans le cas où les deux mains sont détectées dans un état fermé, détecter un mouvement de rotation des deux mains par rapport à un axe de rotation, un mouvement de translation des deux mains dans un même sens, ou un mouvement de translation et de rotation des deux mains. La commande d’affichage comprend alors en outre, en fonction du cas de figure : dans le cas d’une détection d'un mouvement de rotation des deux mains par rapport à un axe de rotation, une commande de modification de l'affichage de l'objet virtuel de sorte à tourner selon un axe vertical l'objet virtuel projeté dans le sens de rotation des mains, dans le cas d’une détection d'un mouvement de translation des deux mains dans un même sens, une commande de modification de l'affichage de l'objet virtuel de sorte à déplacer l'objet virtuel projeté dans le sens de translation des mains, et dans le cas d’une détection d'un mouvement de translation et de rotation des deux mains, une commande de modification de l'affichage de l'objet virtuel de sorte à tourner et déplacer simultanément l'objet virtuel projeté selon le sens de rotation et selon le sens de translation des mains.In one or more embodiments, the proposed method can further comprise: in the case where the pointer is displayed relative to a virtual object capable of being manipulated and in the case where both hands are detected in a closed state, detect a movement of rotation of the two hands relative to an axis of rotation, a movement of translation of the two hands in the same direction, or a movement of translation and rotation of the two hands. The display command then further comprises, depending on the case: in the case of a detection of a rotational movement of the two hands relative to an axis of rotation, a command to modify the display of the virtual object so as to rotate along a vertical axis the virtual object projected in the direction of rotation of the hands, in the case of detection of a translational movement of the two hands in the same direction, a modification command display of the virtual object so as to move the projected virtual object in the direction of translation of the hands, and in the case of detection of a movement of translation and rotation of the two hands, a command to modification of the display of the virtual object so as to simultaneously rotate and move the projected virtual object according to the direction of rotation and according to the direction of translation of the hands.

L'ajout d'une deuxième main permet ainsi d'améliorer la manipulation des objets en utilisant une gestuelle adaptée à l'action voulue.The addition of a second hand thus improves the handling of objects by using a gesture adapted to the desired action.

En particulier, dans un ou plusieurs modes de réalisation du procédé proposé, l’affichage dans l’espace de projection peut être piloté pour qu’une combinaison d'un mouvement de translation et de rotation des deux mains provoque une modification de l'affichage de l'objet virtuel de sorte à tourner et déplacer simultanément l'objet virtuel projeté selon le sens de translation et de rotation des mains.In particular, in one or more embodiments of the proposed method, the display in the projection space can be controlled so that a combination of a movement of translation and rotation of the two hands causes a modification of the display. of the virtual object so as to simultaneously rotate and move the projected virtual object according to the direction of translation and rotation of the hands.

Un tel mouvement combiné de translation-rotation permet de rendre la manipulation des objets virtuels plus naturelle et intuitive pour l'utilisateur. L'utilisateur peut ainsi manipuler un objet virtuel comme il le ferait avec un objet réel.Such a combined movement of translation-rotation makes it possible to make the manipulation of virtual objects more natural and intuitive for the user. The user can thus manipulate a virtual object as he would with a real object.

L'interaction utilisateur est facilitée car l'utilisateur peut interagir plus rapidement. Il n'est pas nécessaire de cliquer sur des boutons pour changer de transformation. De plus, la gestuelle d'interaction étant plus naturelle, le temps d'apprentissage pour interagir avec des objets virtuels est réduit.User interaction is facilitated because the user can interact more quickly. It is not necessary to click on buttons to change the transformation. In addition, the gesture of interaction being more natural, the learning time to interact with virtual objects is reduced.

Dans un ou plusieurs modes de réalisation, le procédé proposé comprend en outre une détection d’un éloignement ou d’un rapprochement l’une de l’autre des deux mains de l’utilisateur. Dans ce cas, la commande d’affichage peut comprendre, dans le cas d’une détection d'un éloignement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à augmenter la taille l'objet virtuel affiché dans l’espace de projection, ou dans le cas d’une détection d'un rapprochement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à diminuer la taille l'objet virtuel affiché dans l’espace de projection.In one or more embodiments, the proposed method further comprises a detection of a distance or a rapprochement of one another with the two hands of the user. In this case, the display command may include, in the case of a detection of a distance of the two hands from each other, a command to modify the display of the virtual object so as to increase the size of the virtual object displayed in the projection space, or in the case of a detection of bringing two hands together, a command to modify the display of the object virtual so as to decrease the size of the virtual object displayed in the projection space.

L'ajout d'une deuxième main permet ainsi d'améliorer la manipulation des objets en utilisant une gestuelle adaptée à l'action voulue.The addition of a second hand thus improves the handling of objects by using a gesture adapted to the desired action.

Dans un ou plusieurs modes de réalisation, le procédé proposé comprend en outre, dans le cas où le pointeur est affiché relativement à un objet virtuel apte à être manipulé et dans le cas où les deux mains sont détectées dans un état fermé, une détection d’un éloignement ou d’un rapprochement l’une de l’autre des deux mains de l’utilisateur. Dans ce cas, la commande d’affichage peut comprendre, dans le cas d’une détection d'un éloignement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à ouvrir l'objet virtuel affiché dans l’espace de projection, ou dans le cas d’une détection d'un rapprochement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à fermer l'objet virtuel affiché dans l’espace de projection.In one or more embodiments, the proposed method further comprises, in the case where the pointer is displayed relative to a virtual object capable of being manipulated and in the case where both hands are detected in a closed state, a detection of 'A distance or a reconciliation of one another with the two hands of the user. In this case, the display command may include, in the case of a detection of a distance of the two hands from each other, a command to modify the display of the virtual object so as to open the virtual object displayed in the projection space, or in the case of a detection of bringing two hands together, a command to modify the display of the virtual object of so as to close the virtual object displayed in the projection space.

Ainsi, la manipulation d'objets est facilitée par l'association d'actions de manipulation avec des gestes naturels pour la réalisation de ces actions.Thus, the manipulation of objects is facilitated by the association of manipulation actions with natural gestures for the realization of these actions.

Selon un autre aspect, un dispositif de traitement de données d'un environnement de réalité virtuelle est proposé. Ce dispositif comprend une unité de traitement comprenant un processeur et une mémoire couplée de manière opérationnelle à l’unité de traitement, l’unité de traitement et la mémoire étant configurées pour la mise en oeuvre d’un procédé de traitement de données tel que proposé dans les présentes. Dans un ou plusieurs modes de réalisation, le dispositif de traitement comprend un système de projection holographique.According to another aspect, a data processing device for a virtual reality environment is proposed. This device comprises a processing unit comprising a processor and a memory operatively coupled to the processing unit, the processing unit and the memory being configured for the implementation of a data processing method as proposed. herein. In one or more embodiments, the processing device includes a holographic projection system.

En variante, le système de projection holographique peut être prévu distinct du dispositif de traitement. Le dispositif de traitement est alors configuré pour commander la projection des données de l'environnement de réalité virtuelle, et notamment du premier, et le cas échéant du deuxième, signal par le système de projection holographique.Alternatively, the holographic projection system can be provided separate from the processing device. The processing device is then configured to control the projection of data from the virtual reality environment, and in particular the first, and if necessary the second, signal by the holographic projection system.

Dans un ou plusieurs modes de réalisation, un tel dispositif est compris dans un terminal.In one or more embodiments, such a device is included in a terminal.

Un tel terminal correspond par exemple à un casque de réalité virtuelle, de type Hololens, ou bien un smartphone (pour téléphone intelligent), ou encore un ordinateur personnel.Such a terminal corresponds for example to a virtual reality headset, of the Hololens type, or else a smartphone (for a smart phone), or even a personal computer.

Un autre aspect concerne un programme d'ordinateur comportant des instructions pour la mise en œuvre du procédé de traitement de données selon l'un quelconque des modes particuliers de réalisation décrits précédemment, lorsque ledit programme est exécuté par un processeur. Un tel programme peut utiliser n’importe quel langage de programmation. Il peut être téléchargé depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur. Ce programme peut utiliser n'importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n'importe quelle autre forme souhaitable.Another aspect relates to a computer program comprising instructions for the implementation of the data processing method according to any one of the particular embodiments described above, when said program is executed by a processor. Such a program can use any programming language. It can be downloaded from a communication network and / or saved on a computer-readable medium. This program can use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in a partially compiled form, or in any other desirable form.

Selon encore un autre aspect, un support d'enregistrement ou support d'informations lisible par un ordinateur est proposé, qui comprend des instructions d'un programme d'ordinateur tel que mentionné ci-dessus. Les supports d'enregistrement mentionnés ci-avant peuvent être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une mémoire de type Read-Only Memory (ROM), par exemple un CD- ROM ou une ROM de circuit microélectronique, une mémoire flash montée sur un support de stockage amovible, tel qu’une clé USB, ou encore une mémoire de masse magnétique de type Hard-Disk Drive (HDD) ou Solid-State Drive (SSD), ou une combinaison de mémoires fonctionnant selon une ou plusieurs technologies d’enregistrement de données. D'autre part, les supports d'enregistrement peuvent correspondre à un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. En particulier, le programme d’ordinateur proposé peut être téléchargé sur un réseau de type Internet.In yet another aspect, a computer readable recording medium or information medium is provided which includes instructions for a computer program as mentioned above. The recording media mentioned above can be any entity or device capable of storing the program. For example, the medium may include a storage means, such as a memory of the Read-Only Memory (ROM) type, for example a CD-ROM or a microelectronic circuit ROM, a flash memory mounted on a removable storage medium. , such as a USB key, or a magnetic mass memory of the Hard-Disk Drive (HDD) or Solid-State Drive (SSD) type, or a combination of memories operating according to one or more data recording technologies. On the other hand, the recording media can correspond to a transmissible medium such as an electrical or optical signal, which can be routed via an electrical or optical cable, by radio or by other means. In particular, the proposed computer program can be downloaded from a network such as the Internet.

Alternativement, les supports d'enregistrement peuvent correspondre à un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé en question.Alternatively, the recording media can correspond to an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the process in question.

Le procédé de traitement de données selon l'invention peut donc être mis en œuvre de diverses manières, notamment sous forme matérielle ou sous forme logicielle, ou être mise en œuvre sous forme d’une combinaison d’éléments matériels et logiciels.The data processing method according to the invention can therefore be implemented in various ways, in particular in hardware form or in software form, or be implemented in the form of a combination of hardware and software elements.

D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante d’un mode de réalisation, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels :Other characteristics and advantages of the invention will appear more clearly on reading the following description of an embodiment, given by way of simple illustrative and nonlimiting example, and of the appended drawings, among which:

- la figure 1 illustre un casque de réalité virtuelle utilisant une projection holographique,FIG. 1 illustrates a virtual reality headset using a holographic projection,

- les figures 2A et 2B illustrent la position du pouce et de l'index d'une main pour détecter un état ouvert et un état fermé respectivement de la main pour une interaction utilisateur avec la casque illustré en figure 1 par exemple, et les figures 2C et 2D illustrent un mouvement de rotation des deux mains,- Figures 2A and 2B illustrate the position of the thumb and forefinger of a hand to detect an open state and a closed state of the hand respectively for user interaction with the helmet illustrated in Figure 1 for example, and the figures 2C and 2D illustrate a rotational movement of the two hands,

- la figure 3 illustre des étapes du procédé de traitement de données d'un environnement de réalité virtuelle selon un mode de réalisation,FIG. 3 illustrates steps of the method for processing data of a virtual reality environment according to one embodiment,

- la figure 4 illustre un exemple d'un signal visuel représentatif de la détection et de l'état détecté ouvert ou fermé de deux mains d'un utilisateur d'un dispositif de projection holographique,FIG. 4 illustrates an example of a visual signal representative of the detection and of the detected open or closed state with two hands of a user of a holographic projection device,

- la figure 5 illustre de manière schématique la structure d'un dispositif de traitement de données d'un environnement de réalité virtuelle selon un mode de réalisation,FIG. 5 schematically illustrates the structure of a data processing device of a virtual reality environment according to one embodiment,

- la figure 6 illustre un exemple d'un espace de projection holographique d'un objet virtuel.- Figure 6 illustrates an example of a holographic projection space of a virtual object.

Le procédé proposé concerne dans un ou plusieurs modes de réalisation le traitement de données d'un environnement de réalité virtuelle projetées par une technique de projection holographique. Ce procédé vise à améliorer la manipulation par un utilisateur des objets virtuels projetés dans l'environnement.The proposed method relates in one or more embodiments to the processing of data from a virtual reality environment projected by a holographic projection technique. This process aims to improve the handling by a user of virtual objects projected into the environment.

De manière avantageuse, selon un ou plusieurs modes de réalisation du procédé proposé, la ou les main(s) utilisée(s) par l'utilisateur pour manipuler des objets est(sont) identifiée(s) comme une main gauche ou une main droite de sorte à pouvoir restituer à l'utilisateur une information indiquant l'état de détection ouvert ou fermé de la ou des mains détectée(s) de manière intuitive, en affichant l'information d'état d'une main du coté correspondant d'un pointeur d'objets.Advantageously, according to one or more embodiments of the proposed method, the hand (s) used by the user to manipulate objects is (are) identified as a left hand or a right hand so as to be able to restore to the user information indicating the open or closed detection state of the hand (s) detected intuitively, by displaying the state information with one hand on the corresponding side of an object pointer.

Ainsi, l'utilisateur prend très rapidement connaissance de l'état de détection de chacune de ses mains.Thus, the user quickly becomes aware of the detection state of each of his hands.

La figure 3 illustre un procédé proposé de traitement de données d'un environnement de réalité virtuelle selon un mode de réalisation.FIG. 3 illustrates a proposed method for processing data from a virtual reality environment according to one embodiment.

En référence à la figure 3, un environnement de réalité virtuelle est projeté (E30) par un dispositif de projection holographique dans un espace de projection. Une telle projection holographique est par exemple réalisée par un casque de projection tel qu'illustré en figureWith reference to FIG. 3, a virtual reality environment is projected (E30) by a holographic projection device in a projection space. Such a holographic projection is for example produced by a projection helmet as illustrated in figure

1.1.

Plus particulièrement, un objet virtuel est projeté dans l'espace de projection. La figure 6 illustre un exemple d'un espace de projection holographique 63 d'un objet virtuel 64 par un casque à projection holographique 60. Dans l’exemple illustré, le casque à projection holographique 60 comprend deux écrans pour projection holographique 61 et 62 placés respectivement devant l'œil droit et l'œil gauche d'un utilisateur du casque et des projecteurs (non représentés) pour projeter l'objet virtuel. L'espace de projection 63 est ici défini comme l'espace dans lequel l'utilisateur a l'impression que les objets virtuels et l'environnement de réalité virtuelle sont affichés. Dans l'exemple de réalisation décrit ici, l'espace de projection 63 est défini par le champ de vision du casque à projection holographique 60.More particularly, a virtual object is projected into the projection space. FIG. 6 illustrates an example of a holographic projection space 63 of a virtual object 64 by a helmet with holographic projection 60. In the example illustrated, the helmet with holographic projection 60 comprises two screens for holographic projection 61 and 62 placed respectively in front of the right eye and the left eye of a user of the helmet and the projectors (not shown) to project the virtual object. The projection space 63 is here defined as the space in which the user has the impression that the virtual objects and the virtual reality environment are displayed. In the embodiment described here, the projection space 63 is defined by the field of vision of the holographic projection helmet 60.

Selon le mode de réalisation illustré sur la figure 3, une main d'un utilisateur du dispositif de projection holographique est détectée (E31), par exemple par des capteurs du dispositif de projection.According to the embodiment illustrated in FIG. 3, a hand of a user of the holographic projection device is detected (E31), for example by sensors of the projection device.

Lorsqu'une main de l'utilisateur est détectée, un état d’ouverture de la main détectée, parmi un ensemble d’états prédéterminés, par exemple parmi deux états possibles, un état « ouvert » et un état « fermé », est déterminé (E32). Par exemple, dans un ou plusieurs modes de réalisation, la main peut être déterminée comme étant dans un état ouvert, i.e. non fermé, lorsque le pouce et l'index de la main forment un angle sensiblement égal à 90°, tel qu'illustré en figure 2A. En référence à la figure 2A, l'angle « a » mesuré aux fins de déterminer l’état ouvert ou fermé de la main peut être l'angle entre le pouce et l'index mesuré dans le sens anti-horaire pour la main droite illustrée. Selon un autre mode de réalisation, la main peut être déterminée comme étant dans un état ouvert lorsqu’une mesure de l'angle entre le pouce et l'index de la main est supérieure à un premier seuil prédéfini, par exemple 60°. Cette mesure de l’angle entre le pouce et l’index peut aussi être utilisée dans des modes de réalisation dans lesquels un ou plusieurs états d’ouverture de la main détectée autres que l’état « ouvert » et l’état « fermé » sont utilisés. Par exemple, dans un ou plusieurs modes de réalisation, la main peut être déterminée comme étant dans un état semi-ouvert lorsqu’une mesure de l'angle entre le pouce et l'index de la main est supérieure à un deuxième seuil prédéfini, par exemple 30°, et inférieure au premier seuil prédéfini.When a user's hand is detected, an opening state of the detected hand, among a set of predetermined states, for example among two possible states, an “open” state and a “closed” state, is determined. (E32). For example, in one or more embodiments, the hand may be determined to be in an open state, ie not closed, when the thumb and index finger of the hand form an angle substantially equal to 90 °, as illustrated in Figure 2A. With reference to FIG. 2A, the angle “a” measured for the purpose of determining the open or closed state of the hand may be the angle between the thumb and the index finger measured counterclockwise for the right hand illustrated. According to another embodiment, the hand can be determined to be in an open state when a measurement of the angle between the thumb and the index finger of the hand is greater than a first predefined threshold, for example 60 °. This measure of the angle between the thumb and forefinger can also be used in embodiments in which one or more detected opening states of the hand other than the "open" state and the "closed" state are used. For example, in one or more embodiments, the hand can be determined to be in a semi-open state when a measure of the angle between the thumb and the index finger of the hand is greater than a second predefined threshold, for example 30 °, and lower than the first predefined threshold.

De même, dans un ou plusieurs modes de réalisation, la main peut être déterminée comme étant dans un état fermé lorsque le pouce et l'index de la main forment un angle dont une mesure est sensiblement égale à 0°, tel qu'illustré en figure 2B. Selon un autre mode de réalisation, la main peut être déterminée comme étant dans un état fermé lorsqu’une mesure de l'angle entre le pouce et l'index de la main est inférieur ou égal à un seuil prédéfini, en fonction du nombre d’états d’ouverture utilisés. Lorsque seuls deux états sont utilisés (ouvert/fermé), la main peut être déterminée comme étant dans un état fermé lorsqu’une mesure de l'angle entre le pouce et l'index de la main est inférieur ou égal au premier seuil prédéfini (dans l’exemple donné ci-dessus inférieur ou égal à 60°). Lorsque seuls trois états sont utilisés (ouvert/fermé/semi-ouvert), la main peut être déterminée comme étant dans un état fermé lorsqu’une mesure de l'angle entre le pouce et l'index de la main est inférieur ou égal au deuxième seuil prédéfini (dans l’exemple donné ci-dessus inférieur ou égal à 30°). De manière générale, la main pourra être déterminée comme étant dans un état fermé lorsqu’une mesure de l'angle entre le pouce et l'index de la main est inférieur ou égal à un seuil prédéfini ne correspondant pas à un état fermé et étant le plus proche de la valeur de mesure correspondant par configuration à l’état fermé de la main (valeur de mesure égale dans l’exemple ci-dessus à 0°).Likewise, in one or more embodiments, the hand can be determined to be in a closed state when the thumb and forefinger of the hand form an angle whose measurement is substantially equal to 0 °, as illustrated in Figure 2B. According to another embodiment, the hand can be determined to be in a closed state when a measurement of the angle between the thumb and the index finger of the hand is less than or equal to a predefined threshold, as a function of the number d 'opening states used. When only two states are used (open / closed), the hand can be determined to be in a closed state when a measurement of the angle between the thumb and the index finger of the hand is less than or equal to the first predefined threshold ( in the example given above less than or equal to 60 °). When only three states are used (open / closed / semi-open), the hand can be determined to be in a closed state when a measure of the angle between the thumb and index finger of the hand is less than or equal to second predefined threshold (in the example given above less than or equal to 30 °). In general, the hand can be determined to be in a closed state when a measurement of the angle between the thumb and the index finger of the hand is less than or equal to a predefined threshold not corresponding to a closed state and being closest to the corresponding measurement value by configuration in the closed state of the hand (measurement value equal in the example above to 0 °).

On mesure par exemple l'angle entre le pouce et l'index à partir d'une demi-droite passant par la jonction entre le pouce et l'index et l'extrémité du pouce et une demi-droite passant par la jonction entre le pouce et l'index et l'extrémité de l'index.For example, the angle between the thumb and the index finger is measured from a half-line passing through the junction between the thumb and the index finger and the end of the thumb and a half-line passing through the junction between the thumb and index finger and the tip of the index finger.

En référence à la figure 3, on détermine (E33) si la main détectée est une main droite ou une main gauche. Dans un ou plusieurs modes de réalisation, on considère par exemple la zone de l'espace de projection dans laquelle la main a été détectée. Tel qu'illustré en figure 6, l'espace de projection est divisé en deux zones par un axe de séparation 65 perpendiculaire au casque 60 et passant entre les deux écrans holographiques 61 et 62.With reference to FIG. 3, it is determined (E33) whether the detected hand is a right hand or a left hand. In one or more embodiments, consider for example the area of the projection space in which the hand has been detected. As illustrated in FIG. 6, the projection space is divided into two zones by a separation axis 65 perpendicular to the helmet 60 and passing between the two holographic screens 61 and 62.

Dans un mode de réalisation, si la main a par exemple été détectée dans la moitié droite de l'espace de projection (du côté de l'écran 61 sur la figure 6), on détermine que la main est une main droite, et si la main a été détectée dans la moitié gauche de l'espace de projection (du côté de l'écran 62 sur la figure 6), on détermine que la main est une main gauche.In one embodiment, if the hand has for example been detected in the right half of the projection space (on the side of the screen 61 in FIG. 6), it is determined that the hand is a right hand, and if the hand was detected in the left half of the projection space (on the side of the screen 62 in FIG. 6), it is determined that the hand is a left hand.

En variante, on peut déterminer dans d’autres modes de réalisation si la main et une main droite ou une main gauche en prenant en compte la direction des doigts de la main détectée, par exemple selon que l'angle entre le pouce et l'index est mesuré positif ou négatif dans le sens anti-horaire. Par exemple, en utilisant une mesure de l’angle dans le sens anti-horaire, si l'angle entre le pouce et l'index de la main est déterminé positif, la main peut être déterminée comme étant une main gauche, ou si l'angle entre le pouce et l'index de la main est négatif, la main peut être déterminée comme étant une main droite.As a variant, it can be determined in other embodiments whether the hand and a right hand or a left hand by taking into account the direction of the fingers of the detected hand, for example according to whether the angle between the thumb and the index is measured positive or negative counterclockwise. For example, using a measure of the angle counterclockwise, if the angle between the thumb and index finger of the hand is determined to be positive, the hand can be determined to be a left hand, or if the The angle between the thumb and the index finger of the hand is negative, the hand can be determined to be a right hand.

On considère ici bien entendu que l'utilisateur utilise sa main en plaçant le dessus de sa main face à lui.It is considered here of course that the user uses his hand by placing the top of his hand facing him.

On considère dans l'exemple de réalisation décrit ici que la main de l’utilisateur précédemment détectée est déterminée comme étant une main droite.It is considered in the embodiment described here that the hand of the user previously detected is determined to be a right hand.

Suite à la détection (E31) de la main et de la détermination (E32) de l’état d’ouverture de la main détectée (dans cet exemple non limitatif, état « ouvert » ou « fermé »), une commande d’affichage de données de l’environnement de réalité virtuelle est générée (E36). Cette commande comprend une commande d’affichage d’un signal visuel représentatif de la détection et de l'état d’ouverture précédemment déterminé pour la main détectée.Following the detection (E31) of the hand and the determination (E32) of the opening state of the detected hand (in this nonlimiting example, "open" or "closed" state), a display command data from the virtual reality environment is generated (E36). This command includes a command to display a visual signal representative of the detection and of the opening state previously determined for the detected hand.

La commande d’affichage est transmise (E38) à un dispositif de projection, par exemple en association avec une instruction de mise à jour de l'affichage des données de l'environnement de réalité virtuelle en utilisant un premier signal visuel. Dans un ou plusieurs modes de réalisation, l'affichage des données de l'environnement de réalité virtuelle est en conséquence piloté pour afficher le premier signal à droite d'un pointeur d'objets dans l'espace de projection, la main de l’utilisateur précédemment détectée ayant été déterminée comme étant une main droite.The display command is transmitted (E38) to a projection device, for example in association with an instruction for updating the display of the data of the virtual reality environment by using a first visual signal. In one or more embodiments, the display of the data of the virtual reality environment is consequently controlled to display the first signal to the right of an object pointer in the projection space, the hand of the previously detected user having been determined to be a right hand.

En fonction du mode de réalisation, la commande d’affichage peut être générée sur la base de la détermination si la main détectée est une main droite (cas de l’exemple illustré sur la figure 3) ou une main gauche, ou sur la base de cette détermination et de l’état d’ouverture déterminé pour la main détecté, comme illustré sur la figure 3.Depending on the embodiment, the display command can be generated on the basis of the determination whether the detected hand is a right hand (case of the example illustrated in FIG. 3) or a left hand, or on the basis of this determination and of the opening state determined for the detected hand, as illustrated in FIG. 3.

Différents modes de réalisation peuvent être choisis pour la mise en oeuvre de la commande d’affichage, en fonction notamment de l’architecture (logicielle et/ou matérielle) des dispositifs pour la mise en oeuvre du procédé proposé. En particulier, la commande d’affichage pourra prendre la forme d’un ou de plusieurs messages, transmis par exemple à un dispositif de projection selon un format approprié pour le dispositif utilisé, chaque message transportant une ou plusieurs commandes de pilotage d’affichage de données dans l’espace projeté. Le format de la commande d’affichage, et le cas échéant des messages la composant, sera choisi correspondant au dispositif de projection utilisé, et selon l’architecture à l’interface, par exemple logicielle, comme une interface API (de l’anglais «Application Programming Interface») entre le dispositif de traitement de données configuré pour mettre en oeuvre le procédé proposé et le dispositif de projection utilisé pour afficher les données d’environnement de réalité virtuelle.Different embodiments can be chosen for the implementation of the display control, depending in particular on the architecture (software and / or hardware) of the devices for the implementation of the proposed method. In particular, the display command may take the form of one or more messages, transmitted for example to a projection device in a format suitable for the device used, each message carrying one or more display control commands from data in the projected space. The format of the display command, and where appropriate of the messages composing it, will be chosen corresponding to the projection device used, and according to the architecture at the interface, for example software, such as an API interface (from English "Application Programming Interface") between the data processing device configured to implement the proposed method and the projection device used to display the virtual reality environment data.

Lorsque la main détectée est déterminée comme étant une main gauche, l'affichage des données de l'environnement de réalité virtuelle peut être piloté, dans un ou plusieurs modes de réalisation, de sorte à afficher (E36) le premier signal visuel à gauche du pointeur.When the detected hand is determined to be a left hand, the display of the data of the virtual reality environment can be controlled, in one or more embodiments, so as to display (E36) the first visual signal to the left of the pointer.

Dans le mode de réalisation illustré sur la figure 3, une deuxième main d'un utilisateur du dispositif de projection holographique est détectée (E34), par exemple par les capteurs du dispositif de projection.In the embodiment illustrated in FIG. 3, a second hand of a user of the holographic projection device is detected (E34), for example by the sensors of the projection device.

Un état d’ouverture de la deuxième main détectée, parmi un ensemble d’états prédéterminés, par exemple parmi deux états possibles, un état « ouvert » et un état « fermé », est déterminé (E35), de manière similaire à la détermination d’état d’ouverture effectuée (E32) pour la première main détectée. Ici, comme la première main a déjà été identifiée, par exemple comme une main droite, la deuxième main est identifiée comme étant l'autre main, une main gauche dans l'exemple décrit ici.A detected second hand opening state, among a set of predetermined states, for example among two possible states, an "open" state and a "closed" state, is determined (E35), similar to the determination opening status performed (E32) for the first hand detected. Here, since the first hand has already been identified, for example as a right hand, the second hand is identified as the other hand, a left hand in the example described here.

Une deuxième commande d’affichage est générée (E37) sur la base de l’état d’ouverture de l’autre main détectée, qui comprend une commande d’affichage d’un deuxième signal visuel représentatif de la détection et de l’état d’ouverture déterminé pour la deuxième main détectée. En fonction du mode de réalisation, la deuxième commande d’affichage pourra être configurée sous une forme intégrée, en tout ou partie, à la (première) commande d’affichage générée pour la première main détectée, ou bien sous forme d’une commande distincte de cette première commande d’affichage (par exemple sous forme d’un ou de plusieurs messages distincts des messages relatifs à la première commande d’affichage).A second display command is generated (E37) on the basis of the detected opening state of the other hand, which comprises a command to display a second visual signal representative of the detection and of the state opening determined for the second hand detected. Depending on the embodiment, the second display command may be configured in a form integrated, in whole or in part, with the (first) display command generated for the first hand detected, or else in the form of a command distinct from this first display command (for example in the form of one or more messages distinct from the messages relating to the first display command).

La deuxième commande d’affichage, ne faisant éventuellement qu’une avec la première commande d’affichage, est transmise (E38) au dispositif de projection, par exemple en association avec une instruction de mise à jour de l'affichage des données de l'environnement de réalité virtuelle sur la base d’informations portées par le deuxième signal visuel. L'affichage des données de l'environnement de réalité virtuelle est ainsi piloté pour afficher le deuxième signal généré pour la deuxième main détectée à proximité du pointeur d'objets dans l'espace de projection, sur l'autre côté du pointeur d'objets par rapport au signal visuel de l'état de la première main. Par exemple, si le premier signal visuel (représentatif de l'état de la première main) est affiché à droite du pointeur, le deuxième signal visuel (représentatif de l'état de la deuxième main) est affiché à gauche du pointeur, et inversement.The second display command, possibly being one with the first display command, is transmitted (E38) to the projection device, for example in association with an instruction for updating the display of the data of the virtual reality environment based on information carried by the second visual signal. The display of data from the virtual reality environment is thus controlled to display the second signal generated for the second hand detected near the object pointer in the projection space, on the other side of the object pointer compared to the visual signal of the state of the first hand. For example, if the first visual signal (representative of the state of the first hand) is displayed on the right of the pointer, the second visual signal (representative of the state of the second hand) is displayed on the left of the pointer, and vice versa .

La figure 4 illustre un exemple d'un signal visuel qui peut être utilisé dans un ou plusieurs modes de réalisation. Le pointeur d'objets est représenté dans cet exemple non-limitatif par un cercle 41. Le procédé proposé est cependant applicable avec toute forme de pointeur d’objets, et en particulier toute forme comprenant une ligne fermée, comme par exemple un carré, un rectangle, ou une ligne courbe, telle qu’une ovale, une mire, ou un cercle comme illustré sur la figure 4. En fonction du mode de réalisation, l’affichage du cercle 41 peut être piloté pour faire varier la couleur de ce cercle 41 en fonction de l'objet relativement auquel le pointeur est affiché (par exemple en fonction de l’objet survolé par le pointeur, ou de manière plus générale en fonction de l’objet en regard duquel le pointeur est positionné). Dans un ou plusieurs modes de réalisation, l’affichage du pointeur 41 peut en outre être configuré ou piloté pour que le pointeur 41 se déplace dans l'espace de projection en suivant les mouvements de la main détectée qui sont captés par les capteurs du casque à projection holographique.FIG. 4 illustrates an example of a visual signal which can be used in one or more embodiments. The object pointer is represented in this nonlimiting example by a circle 41. The proposed method is however applicable with any form of object pointer, and in particular any form comprising a closed line, such as for example a square, a rectangle, or a curved line, such as an oval, a test pattern, or a circle as illustrated in FIG. 4. Depending on the embodiment, the display of circle 41 can be controlled to vary the color of this circle 41 as a function of the object relatively to which the pointer is displayed (for example as a function of the object overflown by the pointer, or more generally as a function of the object facing which the pointer is positioned). In one or more embodiments, the display of the pointer 41 can also be configured or controlled so that the pointer 41 moves in the projection space following the movements of the detected hand which are picked up by the sensors of the helmet. with holographic projection.

Dans un ou plusieurs modes de réalisation, l’affichage du pointeur 41 peut en outre être configuré ou piloté pour que lorsque le pointeur est affiché relativement à un objet (par exemple le pointeur survole cet objet) ne pouvant pas être manipulé par l'utilisateur, le pointeur (dans l’exemple de la figure 4 le cercle 41) est affiché selon une première couleur, par exemple blanc. Lorsque le pointeur est affiché relativement à un objet (par exemple le pointeur survole cet objet) pouvant être manipulé par l'utilisateur, la couleur du pointeur (dans l’exemple de la figure 4 le cercle 41) est pilotée et le pointeur est affiché selon une deuxième couleur, par exemple bleu clair.In one or more embodiments, the display of the pointer 41 can also be configured or controlled so that when the pointer is displayed relative to an object (for example the pointer hovers over this object) which cannot be manipulated by the user , the pointer (in the example of FIG. 4 the circle 41) is displayed according to a first color, for example white. When the pointer is displayed relative to an object (for example the pointer rolls over this object) that can be manipulated by the user, the color of the pointer (in the example in FIG. 4, circle 41) is controlled and the pointer is displayed in a second color, for example light blue.

Avantageusement, dans un ou plusieurs modes de réalisation, lorsque le pointeur est affiché relativement à un objet (par exemple le pointeur survole cet objet) en cours de manipulation par l'utilisateur, la couleur du pointeur (cercle 41 dans l’exemple de la figureAdvantageously, in one or more embodiments, when the pointer is displayed relative to an object (for example the pointer rolls over this object) during manipulation by the user, the color of the pointer (circle 41 in the example of the figure

4) est pilotée et le pointeur est affiché selon une troisième couleur, par exemple bleu foncé. Dans un ou plusieurs modes de réalisation, le signal visuel représentatif de la détection et de l'état d’ouverture déterminé pour une main (gauche ou droite) est affiché sous la forme d'une ligne ouverte, éventuellement courbe, comme par exemple une demi-ovale ou un demi-cercle (42, 43 sur la figure 4), qui s’étend autour du pointeur 41 (ayant une forme circulaire dans l’exemple non limitatif de la figure 4), sans entourer complètement le pointeur 41 comme illustré sur la figure 4, selon l'axe vertical à gauche ou à droite du pointeur selon que la main correspondante à la ligne ouverte est une main gauche ou droite.4) is controlled and the pointer is displayed in a third color, for example dark blue. In one or more embodiments, the visual signal representative of the detection and of the opening state determined for a hand (left or right) is displayed in the form of an open line, possibly curved, such as for example a semi-oval or semicircle (42, 43 in FIG. 4), which extends around the pointer 41 (having a circular shape in the nonlimiting example of FIG. 4), without completely surrounding the pointer 41 as illustrated in Figure 4, along the vertical axis to the left or right of the pointer depending on whether the hand corresponding to the open line is a left or right hand.

Dans un ou plusieurs modes de réalisation, l’affichage du pointeur est commandé en fonction en outre de l’état d’ouverture déterminé pour la main. Dans l’exemple de la figure 4, l’affichage du pointeur peut être piloté de manière à ce que la couleur de chaque demicercle dépende de l'état de détection et de l'état ouvert/fermé déterminé pour chaque main.In one or more embodiments, the display of the pointer is controlled as a function additionally of the opening state determined for the hand. In the example in Figure 4, the pointer display can be controlled so that the color of each semi-circle depends on the detection state and the open / closed state determined for each hand.

Dans un ou plusieurs modes de réalisation, l’affichage du pointeur 41 illustré sur la figure 4 peut en outre être configuré pour que, lorsque la main correspondante n'est pas détectée, le demi-cercle soit affiché selon une première couleur, par exemple blanc. Lorsque la main correspondante est détectée ouverte, i.e. non fermée, la couleur du demi-cercle correspondant peut en outre être modifiée et le demi-cercle affiché selon une deuxième couleur, par exemple orange clair. Lorsque la main correspondante est détectée fermée, la couleur du demi-cercle correspondant peut en outre être modifiée et le demi-cercle affiché selon une troisième couleur, par exemple orange foncé.In one or more embodiments, the display of the pointer 41 illustrated in FIG. 4 can also be configured so that, when the corresponding hand is not detected, the semicircle is displayed in a first color, for example White. When the corresponding hand is detected open, i.e. not closed, the color of the corresponding semicircle can also be modified and the semicircle displayed in a second color, for example light orange. When the corresponding hand is detected closed, the color of the corresponding semicircle can also be modified and the semicircle displayed in a third color, for example dark orange.

A nouveau en référence à la figure 3, une manipulation d'un objet virtuel peut être détectée (E39), par exemple sur la base de données capturées par le dispositif de projection holographique, dans un ou plusieurs modes de réalisation. Pour ce faire, il peut être vérifié dans un ou plusieurs modes de réalisation que le pointeur d'objets est affiché relativement à un objet virtuel apte à être manipulé et que les deux mains sont détectées et dans un état fermé.Again with reference to FIG. 3, manipulation of a virtual object can be detected (E39), for example on the basis of data captured by the holographic projection device, in one or more embodiments. To do this, it can be verified in one or more embodiments that the object pointer is displayed relative to a virtual object capable of being manipulated and that both hands are detected and in a closed state.

Dans un ou plusieurs modes de réalisation, un éloignement des deux mains peut aussi être détecté en variante, par exemple à partir de données capturées par le dispositif de projection holographique. Par exemple, lorsqu’il est détecté qu’une distance entre les deux mains dans l'espace de projection augmente, l'affichage de l'objet virtuel indiqué par le pointeur d'objets est commandé (E38) de sorte à augmenter la taille l'objet virtuel projeté. La taille de l'objet virtuel peut par exemple, dans un ou plusieurs modes de réalisation, être augmentée en fonction de l'augmentation de la mesure de distance entre les deux mains.In one or more embodiments, a distance between the two hands can also be detected as a variant, for example from data captured by the holographic projection device. For example, when it is detected that a distance between the two hands in the projection space increases, the display of the virtual object indicated by the object pointer is controlled (E38) so as to increase the size the projected virtual object. The size of the virtual object can for example, in one or more embodiments, be increased as a function of the increase in the distance measurement between the two hands.

Dans un ou plusieurs modes de réalisation, un rapprochement des deux mains dans l'espace de projection peut aussi être détecté, i.e. le dispositif de mise en oeuvre du procédé proposé est configuré pour détecter, par exemple à partir de données capturées par le dispositif de projection holographique, qu’une distance entre les deux mains dans l'espace de projection diminue. L'affichage de l'objet virtuel indiqué par le pointeur d'objets peut alors être commandé (E38) de sorte à diminuer la taille l'objet virtuel projeté, en fonction de la diminution de la mesure de distance entre les deux mains.In one or more embodiments, a bringing together of the two hands in the projection space can also be detected, ie the device for implementing the proposed method is configured to detect, for example from data captured by the device holographic projection, that a distance between the two hands in the projection space decreases. The display of the virtual object indicated by the object pointer can then be controlled (E38) so as to decrease the size of the projected virtual object, as a function of the decrease in the distance measurement between the two hands.

Dans un ou plusieurs modes de réalisation, un mouvement de rotation dans l'espace de projection des deux mains par rapport à un axe de rotation peut être détecté, par exemple à partir de données capturées par le dispositif de projection. L'affichage de l'objet virtuel peut alors être commandé (E38) de sorte à tourner selon un axe vertical l'objet virtuel projeté dans le même sens de rotation que les deux mains dans l'espace de projection. Un tel mouvement de rotation des deux mains est illustré en figures 2C et 2D, la figure 2C illustrant les mains avant rotation et la figure 2D illustrant les mains après rotation par rapport à un axe de rotation.In one or more embodiments, a rotational movement in the projection space of both hands with respect to an axis of rotation can be detected, for example from data captured by the projection device. The display of the virtual object can then be controlled (E38) so as to rotate along a vertical axis the virtual object projected in the same direction of rotation as the two hands in the projection space. Such a rotational movement of the two hands is illustrated in FIGS. 2C and 2D, FIG. 2C illustrating the hands before rotation and FIG. 2D illustrating the hands after rotation relative to an axis of rotation.

Dans un ou plusieurs modes de réalisation, un mouvement de translation des deux mains dans l'espace de projection dans un même sens peut être détecté, par exemple à partir de données capturées par le dispositif de projection. L'affichage de l'objet virtuel peut alors être commandé (E38) de sorte à déplacer l'objet virtuel projeté selon le même sens de translation des mains dans l'espace de projection.In one or more embodiments, a translational movement of the two hands in the projection space in the same direction can be detected, for example from data captured by the projection device. The display of the virtual object can then be controlled (E38) so as to move the virtual object projected in the same direction of translation of the hands in the projection space.

Dans un ou plusieurs modes de réalisation, un mouvement de rotation et de translation des deux mains peut en outre être détecté, par exemple à partir de données capturées par le dispositif de projection. L'affichage de l'objet virtuel peut alors être commandé (E38) de sorte à tourner et déplacer l'objet virtuel projeté de manière similaire au mouvement détecté des deux mains.In one or more embodiments, a rotational and translational movement of the two hands can also be detected, for example from data captured by the projection device. The display of the virtual object can then be controlled (E38) so as to rotate and move the projected virtual object in a similar manner to the movement detected with both hands.

Un tel mouvement combiné de translation-rotation permet de rendre la manipulation des objets virtuels plus naturelle et intuitive pour l'utilisateur. L'utilisateur peut ainsi manipuler un objet virtuel comme il le ferait avec un objet réel.Such a combined movement of translation-rotation makes it possible to make the manipulation of virtual objects more natural and intuitive for the user. The user can thus manipulate a virtual object as he would with a real object.

L'interaction utilisateur est facilitée car l'utilisateur peut interagir plus rapidement. Il n'est pas nécessaire de cliquer sur des boutons pour changer de transformation. De plus, la gestuelle d'interaction étant plus naturelle, le temps d'apprentissage pour interagir avec des objets virtuels est réduit.User interaction is facilitated because the user can interact more quickly. It is not necessary to click on buttons to change the transformation. In addition, the gesture of interaction being more natural, the learning time to interact with virtual objects is reduced.

Selon un autre mode particulier de réalisation de l'invention, un éloignement des deux mains est détecté, par exemple à partir de données capturées par le dispositif de projection holographique. Lorsque la distance entre les deux mains dans l'espace de projection augmente, l'affichage de l'objet virtuel, relativement auquel le pointeur d'objets est affiché, est modifié (E38): dans un mode de réalisation l'objet virtuel projeté est ouvert, et/ou les données graphiques représentant l'intérieur de l'objet virtuel sont projetées dans l'espace de projection.According to another particular embodiment of the invention, a distance between the two hands is detected, for example from data captured by the holographic projection device. When the distance between the two hands in the projection space increases, the display of the virtual object, relatively to which the object pointer is displayed, is modified (E38): in one embodiment the projected virtual object is open, and / or the graphic data representing the interior of the virtual object are projected into the projection space.

Selon cet autre mode particulier de réalisation de l'invention, lorsqu'un rapprochement des deux mains dans l'espace de projection est détecté, i.e. le dispositif de mise en œuvre du procédé proposé est configuré pour détecter, par exemple à partir de données capturées par le dispositif de projection holographique, que la distance entre les deux mains dans l'espace de projection diminue, l'affichage de l'objet virtuel, relativement auquel le pointeur d'objets est affiché, est modifié (E38) de sorte à fermer l'objet virtuel projeté.According to this other particular embodiment of the invention, when a bringing together of the two hands in the projection space is detected, ie the device for implementing the proposed method is configured to detect, for example from captured data by the holographic projection device, as the distance between the two hands in the projection space decreases, the display of the virtual object, relatively to which the object pointer is displayed, is modified (E38) so as to close the projected virtual object.

Un tel mode particulier de réalisation permet des manipulations d'objets avec des gestes naturels pour l'utilisateur.Such a particular embodiment allows manipulation of objects with natural gestures for the user.

La figure 5 illustre la structure simplifiée d'un dispositif d'un dispositif DISP de traitement de données d'un environnement de réalité virtuelle selon un ou plusieurs modes de réalisation. Un tel dispositif est configuré pour mettre en œuvre le procédé de traitement de données de réalité virtuelle selon l'un quelconque des modes de réalisation décrits dans les présentes.FIG. 5 illustrates the simplified structure of a device of a DISP device for processing data of a virtual reality environment according to one or more embodiments. Such a device is configured to implement the method for processing virtual reality data according to any one of the embodiments described herein.

Dans l’exemple non limitatif illustré sur la figure 5, le dispositif DISP comprend une mémoire MEM, une unité de traitement UT, équipée par exemple d'un processeur PROC, et pilotée par le programme d'ordinateur PG stocké en mémoire MEM. Le programme d'ordinateur PG comprend des instructions pour mettre en œuvre les étapes du procédé de traitement de données tel que décrit précédemment, lorsque le programme est exécuté par le processeur PROC.In the nonlimiting example illustrated in FIG. 5, the device DISP comprises a memory MEM, a processing unit UT, equipped for example with a processor PROC, and controlled by the computer program PG stored in memory MEM. The computer program PG includes instructions for implementing the steps of the data processing method as described above, when the program is executed by the processor PROC.

A l'initialisation, les instructions de code du programme d'ordinateur PG sont par exemple chargées dans une mémoire RAM avant d'être exécutées par le processeur PROC. Le processeur PROC de l'unité de traitement UT met notamment en œuvre le procédé de traitement de données selon l'un quelconque des modes de réalisation décrits en relation avec la figure 3 selon les instructions du programme d'ordinateur PG.On initialization, the code instructions of the computer program PG are for example loaded into a RAM memory before being executed by the processor PROC. The processor PROC of the processing unit UT implements in particular the data processing method according to any one of the embodiments described in relation to FIG. 3 according to the instructions of the computer program PG.

Pour cela, le dispositif DISP comprend des capteurs CAPT configurés pour détecter la présence d'au moins une main d'un utilisateur dans l'espace de projection, et des mouvements de la main de l'utilisateur.For this, the DISP device includes CAPT sensors configured to detect the presence of at least one hand of a user in the projection space, and movements of the hand of the user.

Le dispositif DISP comprend également un système de projection holographique PROJ permettant de projeter sur des écrans holographiques les données de réalité virtuelle, de sorte que l'utilisateur les visualise dans l'espace de projection.The DISP device also includes a holographic projection system PROJ making it possible to project virtual reality data onto holographic screens, so that the user can view them in the projection space.

Selon un mode particulier de réalisation de l'invention, le dispositif DISP décrit précédemment est compris dans un terminal, par exemple un casque de réalité virtuelle.According to a particular embodiment of the invention, the DISP device described above is included in a terminal, for example a virtual reality headset.

L’architecture du dispositif DISP illustrée sur la figure 5 n’est toutefois pas limitative. Le dispositif DISP peut par exemple être couplé de manière opérationnelle au système de projection holographique PROJ, et être mis en oeuvre sous la forme d’un dispositif distinct du système de projection holographique PROJ. De plus, le dispositif DISP peut être mis en oeuvre sur différents types de plateforme, telles qu’un ordinateur (par exemple de type PC ou portable) ou un réseau d’ordinateurs, un smartphone, une tablette, ou un autre appareil comportant un processeur couplé de manière opérationnelle à une mémoire, ainsi que, selon le mode de réalisation choisi, d’autres éléments matériels associés comme une interface de réseau et un lecteur de support pour lire un support de stockage amovible et écrire sur un tel support (non représentés sur la figure).The architecture of the DISP device illustrated in FIG. 5 is not, however, limiting. The DISP device can for example be operatively coupled to the holographic projection system PROJ, and be implemented in the form of a device distinct from the holographic projection system PROJ. In addition, the DISP device can be implemented on different types of platform, such as a computer (for example of the PC or laptop type) or a network of computers, a smartphone, a tablet, or another device comprising a processor operatively coupled to a memory, as well as, depending on the embodiment chosen, other associated hardware elements such as a network interface and a media reader for reading and writing to a removable storage medium (not shown in the figure).

En fonction du mode de réalisation choisi, certains actes, actions, évènements ou fonctions de chacune des méthodes décrites dans le présent document peuvent être effectués ou se produire selon un ordre différent de celui dans lequel ils ont été décrits, ou peuvent être ajoutés, fusionnés ou bien ne pas être effectués ou ne pas se produire, selon le cas. En outre, dans certains modes de réalisation, certains actes, actions ou évènements sont effectués ou se produisent concurremment et non pas successivement.Depending on the embodiment chosen, certain acts, actions, events or functions of each of the methods described in this document may be performed or occur in a different order from that in which they have been described, or may be added, merged or not be performed or not occur, as the case may be. In addition, in certain embodiments, certain acts, actions or events are performed or occur concurrently and not successively.

Bien que décrits à travers un certain nombre d’exemples de réalisation détaillés, le procédé proposé et l’équipement pour la mise en oeuvre du procédé comprennent différentes variantes, modifications et perfectionnements qui apparaîtront de façon évidente à l’homme de l’art, étant entendu que ces différentes variantes, modifications et perfectionnements font partie de la portée de l’invention, telle que définie par les revendications qui suivent. De plus, différents aspects et caractéristiques décrits ci-dessus peuvent être mis en oeuvre ensemble, ou séparément, ou bien substitués les uns aux autres, et l’ensemble des différentes combinaisons et sous combinaisons des aspects et caractéristiques font partie de la portée de l’invention. En outre, il se peut que certains systèmes et équipements décrits ci-dessus n’incorporent pas la totalité des modules et fonctions décrits pour les modes de réalisation préférés.Although described through a certain number of detailed exemplary embodiments, the proposed method and the equipment for implementing the method include different variants, modifications and improvements which will be obvious to those skilled in the art, it being understood that these different variants, modifications and improvements form part of the scope of the invention, as defined by the claims which follow. In addition, different aspects and characteristics described above can be implemented together, or separately, or else substituted for one another, and all of the different combinations and sub-combinations of the aspects and characteristics are part of the scope of the 'invention. In addition, some systems and equipment described above may not incorporate all of the modules and functions described for the preferred embodiments.

Claims (13)

Revendicationsclaims 1. Procédé de traitement de données d'un environnement de réalité virtuelle, comprenant:1. Method for processing data from a virtual reality environment, comprising: - projeter par projection holographique au moins un objet virtuel dans un espace de projection d'un dispositif de projection holographique,- project by holographic projection at least one virtual object into a projection space of a holographic projection device, - détecter une main d'un utilisateur du dispositif de projection holographique,- detect a hand of a user of the holographic projection device, - déterminer si la main détectée est une main droite ou une main gauche, et- determine whether the detected hand is a right hand or a left hand, and - générer, sur la base de la détermination si la main détectée est une main droite ou une main gauche, une commande d’affichage de données de l’environnement de réalité virtuelle, la commande comprenant :- generate, on the basis of the determination whether the detected hand is a right hand or a left hand, a command for displaying data from the virtual reality environment, the command comprising: - lorsqu’il est déterminé que la main détectée est une main droite, commander l’affichage dans l'espace de projection d’un premier signal visuel placé à droite d'un pointeur d'objets affiché dans l'espace de projection, et- when it is determined that the detected hand is a right hand, order the display in the projection space of a first visual signal placed to the right of an object pointer displayed in the projection space, and - lorsqu’il est déterminé que la main détectée est une main gauche, commander l’affichage dans l'espace de projection du premier signal visuel placé à gauche du pointeur d'objets affiché dans l'espace de projection.- when it is determined that the detected hand is a left hand, order the display in the projection space of the first visual signal placed to the left of the object pointer displayed in the projection space. 2. Procédé selon la revendication 1, comprenant en outre : déterminer un état d’ouverture de la main détectée, parmi un ensemble d’états prédéterminés, et dans lequel la commande d’affichage est en outre générée sur la base de l’état d’ouverture déterminé, et le premier signal est représentatif de la détection et de l’état d’ouverture déterminé pour la main détectée.The method of claim 1, further comprising: determining an open state of the detected hand, from a set of predetermined states, and wherein the display command is further generated based on the state opening, and the first signal is representative of the detection and the opening state determined for the detected hand. 3. Procédé selon l’une quelconque des revendications précédentes, comprenant en outre:3. Method according to any one of the preceding claims, further comprising: - détecter une autre main de l’utilisateur du dispositif de projection holographique,- detect another hand of the user of the holographic projection device, - déterminer un état d'ouverture de l'autre main détectée, dans lequel la commande d’affichage est en outre générée sur la base de l’état d’ouverture de l’autre main détectée, et comprend en outre :- determining an opening state of the other detected hand, in which the display command is furthermore generated on the basis of the opening state of the other detected hand, and further comprises: - dans le cas où l'autre main détectée est une main droite, commander l’affichage dans l’espace de projection d’un deuxième signal visuel placé à droite du pointeur d'objets affiché dans l'espace de projection, et- in the case where the other detected hand is a right hand, order the display in the projection space of a second visual signal placed to the right of the object pointer displayed in the projection space, and - dans le cas où l'autre main détectée est une main gauche, commander l’affichage dans l’espace de projection du deuxième signal visuel placé à gauche du pointeur d'objets affiché dans l'espace de projection, et dans lequel le deuxième signal est représentatif de la détection et de l’état d’ouverture déterminé pour l’autre main détectée.- in the case where the other hand detected is a left hand, order the display in the projection space of the second visual signal placed to the left of the object pointer displayed in the projection space, and in which the second signal is representative of the detection and the opening state determined for the other detected hand. 4. Procédé selon l’une quelconque des revendications précédentes, dans lequel la commande d’affichage comprend une commande d’affichage du pointeur d’objets sous la forme d'une ligne fermée, éventuellement courbe, par exemple de forme ovale ou circulaire, et comprend en outre une modification d’une couleur d’affichage du pointeur de sorte que dans le cas où le pointeur est affiché relativement à un objet pouvant être manipulé par l'utilisateur, le pointeur est affiché selon une première couleur, et dans le cas où le pointeur est affiché relativement à un objet ne pouvant pas être manipulé par l'utilisateur, le pointeur est affiché selon une deuxième couleur.4. Method according to any one of the preceding claims, in which the display command comprises a command for displaying the object pointer in the form of a closed line, possibly curved, for example of oval or circular shape, and further comprises modifying a display color of the pointer so that in the case where the pointer is displayed relative to an object which can be manipulated by the user, the pointer is displayed in a first color, and in the When the pointer is displayed relative to an object that cannot be manipulated by the user, the pointer is displayed in a second color. 5. Procédé selon l’une quelconque des revendications précédentes, dans lequel la commande d'affichage comprend en outre une modification de la couleur d’affichage du pointeur de sorte que dans le cas où le pointeur est affiché relativement à un objet en cours de manipulation par l’utilisateur, le pointeur est affiché selon une troisième couleur.5. Method according to any one of the preceding claims, in which the display command further comprises a modification of the display color of the pointer so that in the case where the pointer is displayed relative to an object being manipulation by the user, the pointer is displayed in a third color. 6. Procédé selon l’une quelconque des revendications précédentes pour le premier signal, et selon l’une quelconque des revendications 3, ou 4 et 5 en ce qu’elles dépendent de la revendication 3 pour le deuxième signal, dans lequel la commande d’affichage comprend une commande d’affichage du premier signal et/ou du deuxième signal sous la forme d’une ligne ouverte, éventuellement courbe, par exemple d’une demi-ovale ou d'un demi-cercle, entourant en partie le pointeur affiché, la ligne ouverte étant positionnée selon un axe vertical dans l’espace de projection, à gauche ou à droite du pointeur selon que la main correspondante est une main gauche ou droite.6. Method according to any one of the preceding claims for the first signal, and according to any one of claims 3, or 4 and 5 in that they depend on claim 3 for the second signal, in which the command d display includes a command to display the first signal and / or the second signal in the form of an open line, possibly curved, for example a semi-oval or a semi-circle, partially surrounding the pointer displayed, the open line being positioned along a vertical axis in the projection space, to the left or to the right of the pointer depending on whether the corresponding hand is a left or right hand. 7. Procédé selon la revendication 6, dans lequel la commande d'affichage comprend une commande de modification d’une couleur d’affichage de la ligne ouverte de sorte que, dans le cas où la main correspondante n'est pas détectée, la ligne ouverte est affichée selon une quatrième couleur, lorsque la main correspondante est détectée ouverte, la ligne ouverte est affichée selon une cinquième couleur, et dans le cas où la main correspondante est détectée fermée, la ligne ouverte est affichée selon une sixième couleur.7. The method of claim 6, wherein the display command comprises a command to modify a display color of the open line so that, in the case where the corresponding hand is not detected, the line open is displayed in a fourth color, when the corresponding hand is detected open, the open line is displayed in a fifth color, and in the case where the corresponding hand is detected closed, the open line is displayed in a sixth color. 8. Procédé selon la revendication 3, ou l’une quelconque des revendications 4 à 7 en ce qu’elles dépendent de la revendication 3, comprenant en outre :8. Method according to claim 3, or any one of claims 4 to 7 in that they depend on claim 3, further comprising: - dans le cas où le pointeur est affiché relativement à un objet virtuel apte à être manipulé et dans le cas où les deux mains sont détectées dans un état fermé, détecter un mouvement de rotation des deux mains par rapport à un axe de rotation, un mouvement de translation des deux mains dans un même sens, ou un mouvement de translation et de rotation des deux mains ;- in the case where the pointer is displayed relative to a virtual object capable of being manipulated and in the case where both hands are detected in a closed state, detecting a rotational movement of the two hands relative to an axis of rotation, a translational movement of both hands in one direction, or translational and rotational movement of both hands; et dans lequel la commande d’affichage comprend en outre :and in which the display command further comprises: - dans le cas d’une détection d'un mouvement de rotation des deux mains par rapport à un axe de rotation, une commande de modification de l'affichage de l'objet virtuel de sorte à tourner selon un axe vertical l'objet virtuel projeté dans le sens de rotation des mains,- in the case of a detection of a rotation movement of both hands relative to an axis of rotation, a command to modify the display of the virtual object so as to rotate the virtual object along a vertical axis projected in the direction of rotation of the hands, - dans le cas d’une détection d'un mouvement de translation des deux mains dans un même sens, une commande de modification de l'affichage de l'objet virtuel de sorte à déplacer l'objet virtuel projeté dans le sens de translation des mains, et- in the case of detection of a translational movement of both hands in the same direction, a command to modify the display of the virtual object so as to move the virtual object projected in the direction of translation of the hands, and - dans le cas d’une détection d'un mouvement de translation et de rotation des deux mains, une commande de modification de l'affichage de l'objet virtuel de sorte à tourner et déplacer simultanément l'objet virtuel projeté selon le sens de rotation et selon le sens de translation des mains.- in the case of detection of a movement of translation and rotation of the two hands, a command to modify the display of the virtual object so as to simultaneously rotate and move the projected virtual object according to the direction of rotation and in the direction of translation of the hands. 9. Procédé selon la revendication 3, ou l’une quelconque des revendications 4 à 8 en ce qu’elles dépendent de la revendication 3, comprenant en outre : détecter un éloignement ou un rapprochement l’une de l’autre des deux mains de l’utilisateur, et dans lequel la commande d’affichage comprend en outre :9. The method of claim 3, or any one of claims 4 to 8 in that they depend on claim 3, further comprising: detecting a distance or a coming together from one of the two hands of the user, and in which the display command further comprises: - dans le cas d’une détection d'un éloignement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à augmenter la taille l'objet virtuel affiché dans l’espace de projection, ou- in the case of a detection of a distance of the two hands from each other, a command to modify the display of the virtual object so as to increase the size of the virtual object displayed in the projection space, or - dans le cas d’une détection d'un rapprochement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à diminuer la taille l'objet virtuel affiché dans l’espace de projection.- in the case of a detection of a bringing together of the two hands from one another, a command to modify the display of the virtual object so as to reduce the size of the virtual object displayed in the projection space. 10. Procédé selon la revendication 3, ou l’une quelconque des revendications 4 à 9 en ce qu’elles dépendent de la revendication 3, comprenant en outre :10. Method according to claim 3, or any one of claims 4 to 9 in that they depend on claim 3, further comprising: - dans le cas où le pointeur est affiché relativement à un objet virtuel apte à être manipulé et dans le cas où les deux mains sont détectées dans un état fermé, détecter un éloignement ou un rapprochement l’une de l’autre des deux mains de l’utilisateur, et dans lequel la commande d’affichage comprend en outre :- in the case where the pointer is displayed relative to a virtual object capable of being manipulated and in the case where the two hands are detected in a closed state, detecting a distance or a bringing together of the two hands of the user, and in which the display command further comprises: - dans le cas d’une détection d'un éloignement des deux mains l’une de l’autre, une commande de modification de l'affichage de l'objet virtuel de sorte à ouvrir l'objet virtuel affiché dans l’espace de projection, ou- in the case of detection of a distance between the two hands from each other, a command to modify the display of the virtual object so as to open the virtual object displayed in the space of projection, or - dans le cas d’une détection d'un rapprochement des deux mains l’une de l’autre, une 5 commande de modification de l'affichage de l'objet virtuel de sorte à fermer l'objet virtuel affiché dans l’espace de projection.- in the event of detection of a bringing together of the two hands from each other, a command to modify the display of the virtual object so as to close the virtual object displayed in space projection. 11. Dispositif de traitement de données d'un environnement de réalité virtuelle comprenant une unité de traitement comprenant un processeur et une mémoire couplée de manière11. Device for processing data from a virtual reality environment comprising a processing unit comprising a processor and a memory coupled in a manner 10 opérationnelle à l’unité de traitement, l’unité de traitement et la mémoire étant configurées pour la mise en œuvre d’un procédé de traitement de données selon l’une quelconque des revendications 1 à 10.10 operational at the processing unit, the processing unit and the memory being configured for the implementation of a data processing method according to any one of claims 1 to 10. 12. Terminal comprenant un dispositif selon la revendication 11.12. Terminal comprising a device according to claim 11. 15 13. Programme d'ordinateur comportant des instructions pour la mise en œuvre du procédé de traitement de données selon l’une quelconque des revendications 1 à 10, lorsque ledit programme est exécuté par un processeur.15. A computer program comprising instructions for the implementation of the data processing method according to any one of claims 1 to 10, when said program is executed by a processor.
FR1758662A 2017-09-19 2017-09-19 METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT Pending FR3068803A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1758662A FR3068803A1 (en) 2017-09-19 2017-09-19 METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1758662A FR3068803A1 (en) 2017-09-19 2017-09-19 METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT
FR1758662 2017-09-19

Publications (1)

Publication Number Publication Date
FR3068803A1 true FR3068803A1 (en) 2019-01-11

Family

ID=60765803

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1758662A Pending FR3068803A1 (en) 2017-09-19 2017-09-19 METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT

Country Status (1)

Country Link
FR (1) FR3068803A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11875465B2 (en) 2019-03-21 2024-01-16 Orange Virtual reality data-processing device, system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2040156A2 (en) * 2007-09-19 2009-03-25 Sony Corporation Image processing
US20120157203A1 (en) * 2010-12-21 2012-06-21 Microsoft Corporation Skeletal control of three-dimensional virtual world
US20150193124A1 (en) * 2014-01-08 2015-07-09 Microsoft Corporation Visual feedback for level of gesture completion
WO2016209604A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2040156A2 (en) * 2007-09-19 2009-03-25 Sony Corporation Image processing
US20120157203A1 (en) * 2010-12-21 2012-06-21 Microsoft Corporation Skeletal control of three-dimensional virtual world
US20150193124A1 (en) * 2014-01-08 2015-07-09 Microsoft Corporation Visual feedback for level of gesture completion
WO2016209604A1 (en) * 2015-06-24 2016-12-29 Microsoft Technology Licensing, Llc Contextual cursor display based on hand tracking

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11875465B2 (en) 2019-03-21 2024-01-16 Orange Virtual reality data-processing device, system and method

Similar Documents

Publication Publication Date Title
US10073541B1 (en) Indicators for sensor occlusion
JP2015515636A (en) Transparent display for mobile devices
KR20220013384A (en) The technique of setting the focus of the camera in a mixed reality environment with hand gesture interaction
FR3045853A1 (en)
EP2111605B1 (en) Method and device for creating at least two key images corresponding to a three-dimensional object
FR2986892A1 (en) METHOD, DEVICE AND SYSTEM FOR GENERATING A TEXTURED REPRESENTATION OF A REAL OBJECT
JP5819488B2 (en) Adjusting a transmissive display with an image capture device
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
US11244080B2 (en) Project content from flexible display touch device to eliminate obstruction created by finger
FR3068803A1 (en) METHOD AND DEVICE FOR PROCESSING DATA OF A VIRTUAL REALITY ENVIRONMENT
EP2879346B1 (en) Processing method for securing electronic documents
US20190369555A1 (en) Holographic user interface for mobile menu item selection
US11288766B2 (en) System and method for displaying high quality images on controls based on display scaling
EP2987319A1 (en) Method for generating an output video stream from a wide-field video stream
FR3107390A1 (en) Device, system and method for processing virtual reality data
EP3935487A1 (en) Method and device for processing virtual-reality environment data
WO2023046902A1 (en) Human-machine interface system
TW201533513A (en) Spherical lighting device with backlighting coronal ring
US20190354169A1 (en) Displaying visually aligned content of a mobile device
FR3104743A1 (en) Portable 3D content display device, system and method thereof.
FR2986893A1 (en) SYSTEM FOR CREATING THREE-DIMENSIONAL REPRESENTATIONS FROM REAL MODELS HAVING SIMILAR AND PREDETERMINED CHARACTERISTICS
US20230084264A1 (en) Security for displayed confidential holographic objects
US20220291795A1 (en) Projecting interfaces on a surface
FR3127597A1 (en) MAN-MACHINE INTERFACE SYSTEM
EP3942390A1 (en) Virtual reality data-processing device, system and method

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190111

RX Complete rejection

Effective date: 20200213