FR3090941A1 - Method of user interaction with a virtual reality environment - Google Patents

Method of user interaction with a virtual reality environment Download PDF

Info

Publication number
FR3090941A1
FR3090941A1 FR1873882A FR1873882A FR3090941A1 FR 3090941 A1 FR3090941 A1 FR 3090941A1 FR 1873882 A FR1873882 A FR 1873882A FR 1873882 A FR1873882 A FR 1873882A FR 3090941 A1 FR3090941 A1 FR 3090941A1
Authority
FR
France
Prior art keywords
view
server
virtual reality
terminal
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1873882A
Other languages
French (fr)
Inventor
Valérie Ledunois
Yannick COLENO
Maxime JOUIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1873882A priority Critical patent/FR3090941A1/en
Priority to PCT/FR2019/052937 priority patent/WO2020128206A1/en
Publication of FR3090941A1 publication Critical patent/FR3090941A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle, caractérisé en ce qu’il comprend ce qui suit, au niveau d’un terminal : - commander (COM) à un serveur au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle, - recevoir (REC), de la part dudit serveur, des données d’une vue représentative dudit espace en trois dimensions, - extraire (EXTR) desdites données ladite au moins une image, - convertir (CONV) ladite au moins une image en ladite vue, - commander (REST) la restitution sur le terminal de ladite vue. Figure pour l'abrégé : Figure 1Method of interaction of a user with a virtual reality environment, characterized in that it comprises the following, at the level of a terminal: - command (COM) to a server at least one image of a space in three dimensions from the virtual reality environment, - receive (REC), from said server, data from a view representative of said space in three dimensions, - extract (EXTR) from said data said at least one image, - convert (CONV) said at least one image into said view, - order (REST) the reproduction on the terminal of said view. Figure for the abstract: Figure 1

Description

DescriptionDescription

Titre de l'invention : Procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelleTitle of the invention: Method of user interaction with a virtual reality environment

[0001] L'invention concerne le traitement de données de réalité virtuelle, et en particulier dans le domaine des services collaboratifs utilisant un environnement de réalité virtuelle, de réalité mixte ou augmentée.The invention relates to the processing of virtual reality data, and in particular in the field of collaborative services using a virtual reality, mixed or augmented reality environment.

[0002] Dans le monde professionnel, des interlocuteurs travaillant en coopération sur des projets communs, sont souvent situés sur différents sites géographiques. A travers des appels téléphoniques ou même des « ponts » téléphoniques, des communications entre ces différents interlocuteurs sont largement répandues. D’autres outils existent également pour collaborer à distance (audio/visioconférence, partage d’écrans d’ordinateurs, etc.), mais les interactions réalisables à travers ces outils, et l’engagement des différents interlocuteurs lors de l’utilisation de ces solutions, peuvent être limités. De même sur les marchés visant le particulier, l’achat de produits et services est de plus en plus réalisé à distance. Ce mode de commercialisation s’est largement répandu pour des raisons pratiques (plus besoin de se déplacer en boutique). Cependant, le client a souvent perdu le lien physique avec le vendeur et doit se contenter des informations fournies par le site internet du vendeur. Parfois ces informations ne sont pas suffisantes pour décider le client à acheter le produit ou service proposé par le vendeur. Même un appel téléphonique ou une visioconférence entre le client et le vendeur peuvent ne pas être suffisants afin de conclure la vente. De plus, même dans les cas des produits complexes et/ou sur mesure, comme par exemple l’achat de maisons ou d’appartements, le lien physique entre le client et le vendeur peut s’avérer insuffisant pour donner une image réaliste du bien acheté. En effet, dans une majorité de cas, le client ne dispose souvent que des plans du bien immobilier voire, au mieux, d’une représentation en trois dimensions, mais le client est limité dans sa capacité à interagir en temps réel avec le vendeur pour modifier ces plans ou visualiser le projet immobilier de manière détaillée, c'est-à-dire avec l’intégration d’objets et de meubles dans le logement à venir. On voit donc bien que les solutions et pratiques actuelles afin de présenter un projet touchant à un domaine donné et d’échanger avec le client sur ce projet possèdent des inconvénients dès qu’une « cocréation » se met en place pour ce projet, particulièrement lors d’échanges autour de la conception d’un produit sur-mesure ou, dans un autre registre, pour une réalisation artistique (maquettes architecturales, véhicules, etc.). Il est donc souvent nécessaire pour les interlocuteurs travaillant sur un projet de se rencontrer, en particulier pour manipuler l’objet en cours de conception, pour l’imaginer plus aisément dans sa future « réalité » et dans ses interactions futures avec celui-ci.In the professional world, interlocutors working in cooperation on common projects are often located on different geographic sites. Through telephone calls or even telephone "bridges", communications between these different interlocutors are widely spread. Other tools also exist to collaborate remotely (audio / videoconference, sharing of computer screens, etc.), but the interactions achievable through these tools, and the commitment of the various interlocutors when using these solutions, may be limited. Likewise in the personal markets, the purchase of products and services is increasingly carried out remotely. This marketing method is widely used for practical reasons (no need to go to the store). However, the customer has often lost the physical link with the seller and must be content with the information provided by the seller's website. Sometimes this information is not sufficient to decide the customer to buy the product or service offered by the seller. Even a phone call or videoconference between the customer and the seller may not be sufficient to complete the sale. In addition, even in the case of complex and / or tailor-made products, such as the purchase of houses or apartments, the physical link between the customer and the seller may prove to be insufficient to give a realistic image of the property. purchased. Indeed, in a majority of cases, the client often only has plans of the property or even, at best, a three-dimensional representation, but the client is limited in his ability to interact in real time with the seller to modify these plans or view the real estate project in detail, that is to say with the integration of objects and furniture in future housing. It is therefore clear that the current solutions and practices in order to present a project touching on a given field and to discuss with the client on this project have drawbacks as soon as a "co-creation" is set up for this project, particularly during exchanges around the design of a tailor-made product or, in another register, for an artistic achievement (architectural models, vehicles, etc.). It is therefore often necessary for interlocutors working on a project to meet, in particular to manipulate the object being designed, to imagine it more easily in its future "reality" and in its future interactions with it.

[0003] Les capacités et les performances des réseaux de communication actuels sont telles que, combinées avec les performances de calcul des ordinateurs personnels dotés de cartes graphiques puissantes, il est désormais possible de proposer des services de réalité virtuelle afin de réunir dans un même lieu virtuel des interlocuteurs se trouvant à des positions géographiques éloignées. Ces interlocuteurs sont représentés chacun dans ce lieu virtuel par un personnage fictif souvent nommé avatar. Ce ou ces lieux virtuels dans lesquels les avatars peuvent interagir constituent des environnements de réalité virtuelle. Pour se rapprocher de l’environnement réel, de nouvelles solutions tentent de reproduire la richesse des échanges entre collaborateurs ou partenaires en reproduisant des environnements de collaboration disposant de conditions d’interactions, par exemple des communications infra verbales entre des avatars (expressions du visage, direction du regard, etc.), des interactions avec un objet en cours de conception, etc. Ainsi se développent des solutions facilitant la collaboration à travers un espace virtuel de co-création où les participants sont représentés dans des lieux virtuels.The capabilities and performance of current communication networks are such that, combined with the computing performance of personal computers with powerful graphics cards, it is now possible to offer virtual reality services to bring together in one place virtual interlocutors in distant geographical positions. These interlocutors are each represented in this virtual place by a fictional character often called an avatar. This or these virtual places in which the avatars can interact constitute virtual reality environments. To get closer to the real environment, new solutions try to reproduce the richness of the exchanges between collaborators or partners by reproducing collaborative environments having interaction conditions, for example infra verbal communications between avatars (facial expressions, direction of gaze, etc.), interactions with an object being designed, etc. Thus, solutions are developed which facilitate collaboration through a virtual co-creation space where the participants are represented in virtual places.

[0004] Pour pouvoir interagir dans ces environnements de réalité virtuelle, l’utilisateur, représenté par son avatar, doit pouvoir visualiser et entendre dans un environnement qui se rapproche le plus possible de ce qu’il pourrait ressentir dans la réalité. On parle souvent d’immersion à la première personne car cela revient à donner l’impression que l’utilisateur se met à la place de son avatar et partage donc le même champ de vision et le même environnement sonore. L’utilisateur, par l’intermédiaire de son avatar, doit pouvoir également communiquer avec d’autres avatars, se saisir et utiliser des objets, voire même créer des objets. Ceci est rendu possible par l’utilisation de casques de réalité virtuelle, aussi appelés visiocasques de réalité virtuelle. Il existe maintenant une offre riche de visiocasques de réalité virtuelle sur le marché grand public avec deux types de produits :To be able to interact in these virtual reality environments, the user, represented by his avatar, must be able to visualize and hear in an environment that is as close as possible to what he might feel in reality. We often speak of first-person immersion because it gives the impression that the user puts himself in the place of his avatar and therefore shares the same field of vision and the same sound environment. The user, through his avatar, must also be able to communicate with other avatars, grab and use objects, or even create objects. This is made possible by the use of virtual reality headsets, also called virtual reality headsets. There is now a rich offer of virtual reality headsets on the consumer market with two types of products:

[0005] - d’un côté, les visiocasques de réalité virtuelle disposant, outre un système optique permettant le rendu final d’un espace en trois dimensions à un utilisateur, d’un écran vidéo intégré au casque permettant de diffuser des images et des vidéos adaptées au système optique pour un rendu en trois dimensions, et de divers capteurs internes et/ou externes permettant de détecter les mouvements de l’utilisateur. Des produits, tels que l’Oculus Rift®, le HTC Vive® ou le Playstation VR® de Sony ® font partie de ces types de visiocasques. Pour fonctionner dans des environnements de réalité virtuelle, ils s’appuient sur la puissance de calcul d’un ordinateur externe disposant d’une configuration matérielle puissante et notamment en terme de processeur de calcul graphique (appelé également « carte graphique »). Ces produits sont donc encore limités à une petite frange de la population car l’investissement matériel est conséquent pour l’achat d’un PC (initiales de « Personal Computeur » en anglais) avec une carte graphique puissante (qui souvent représente une part non négligeable du coût du PC et ne se justifie que pour ce type d’application de réalité virtuelle ou pour certains jeux vidéo), ainsi que pour l’achat du visiocasque,- On the one hand, virtual reality head-mounted displays, in addition to an optical system allowing the final rendering of a three-dimensional space to a user, a video screen integrated into the headset making it possible to broadcast images and videos adapted to the optical system for three-dimensional rendering, and various internal and / or external sensors for detecting user movements. Products such as the Oculus Rift®, HTC Vive® or Sony® Playstation VR® are among these types of headsets. To operate in virtual reality environments, they rely on the computing power of an external computer with a powerful hardware configuration and in particular in terms of graphics processing processor (also called "graphics card"). These products are therefore still limited to a small segment of the population because the material investment is substantial for the purchase of a PC (initials of "Personal Computer" in English) with a powerful graphics card (which often represents a non negligible of the cost of the PC and is only justified for this type of virtual reality application or for certain video games), as well as for the purchase of the head-mounted display,

[0006] - de l’autre côté, des visiocasques dénommés « casques de réalité virtuelle mobiles » (ou également « cardboard » en anglais) qui n’intègrent, pour la plupart d’entre eux, que le système optique permettant le rendu final d’un espace en trois dimensions à l’utilisateur. Il faut donc interfacer un terminal comme, par exemple, un smartphone (téléphone intelligent en français) pour disposer des fonctionnalités d’écran vidéo et des capteurs inertiels, gyroscopiques et magnétométriques de ces terminaux. Dans cette gamme de produits, on retrouve par exemple les produits Gear VR® de Samsung®, VR One plus® de Zeiss® ou Daydream View® de Google® ou encore le Google Cardboard® réalisé en carton et au coût d’achat très faible. Ces cardboards associés aux smartphones ont l’avantage d’être autonomes dans le calcul et le rendu d’un environnement de réalité virtuelle car ils utilisent la puissance de calcul du smartphone ainsi que ses capteurs. De plus, les casques de réalité virtuelle sont moins onéreux que les casques intégrant l’écran et les capteurs car ils n’intègrent que le système optique. Or comme le taux d’équipement de smartphone dans le monde est élevé, le potentiel d’utilisateurs équipés d’un smartphone et en mesure de s’acheter un cardboard est beaucoup plus important que le potentiel des personnes s’équipant de solutions avec un PC puissant et un casque intégré. Ce type d’équipement pourrait donc permettre de démocratiser les services de réalité virtuelle à des fins de co-conception ou de co-création comme décrits ci-dessus. Cependant, la capacité de calcul limitée des processeurs graphiques des smartphones actuels ne permet pas encore de simuler et de contrôler l’affichage d’un environnement complexe de réalité virtuelle. Or, la partie modélisation graphique est essentielle afin que l’utilisateur ait la meilleure perception possible de l’environnement de réalité virtuelle. Dans cette invention, nous faisons référence à de la modélisation graphique en trois dimensions permettant un rendu proche de la réalité. La modélisation graphique en trois dimensions nécessite de disposer d’un PC puissant en termes de configuration de la carte graphique, de la mémoire vive, d’une carte mère de dernière génération etc. La problématique technique relevée par l’invention est donc que les appareils informatiques domestiques que sont les téléphones portables de types smartphones n’ont pas les capacités de calcul pour modéliser les environnements graphiques en trois dimensions, ce qui réduit le potentiel des utilisateurs de ces services à ceux disposant de PC très coûteux.- on the other hand, head-mounted displays called "mobile virtual reality headsets" (or also "cardboard" in English) which, for most of them, only integrate the optical system allowing the final rendering a three-dimensional space for the user. It is therefore necessary to interface a terminal such as, for example, a smartphone (smart phone in French) to have the video screen functionalities and the inertial, gyroscopic and magnetometric sensors of these terminals. In this range of products, we find, for example, Gear VR® from Samsung®, VR One plus® from Zeiss® or Daydream View® from Google® or even Google Cardboard® made of cardboard and at a very low purchase cost. . These cardboards associated with smartphones have the advantage of being autonomous in the calculation and rendering of a virtual reality environment because they use the computing power of the smartphone as well as its sensors. In addition, virtual reality headsets are less expensive than headsets integrating the screen and the sensors because they only integrate the optical system. Since the rate of smartphone equipment in the world is high, the potential of users equipped with a smartphone and able to buy a cardboard is much greater than the potential of people equipping themselves with solutions with a Powerful PC and integrated headphones. This type of equipment could therefore make it possible to democratize virtual reality services for the purposes of co-design or co-creation as described above. However, the limited computing capacity of the graphics processors of current smartphones does not yet allow to simulate and control the display of a complex virtual reality environment. However, the graphic modeling part is essential so that the user has the best possible perception of the virtual reality environment. In this invention, we are referring to three-dimensional graphic modeling allowing rendering close to reality. Three-dimensional graphic modeling requires a powerful PC in terms of configuration of the graphics card, RAM, latest generation motherboard, etc. The technical problem raised by the invention is therefore that the domestic computing devices that are mobile phones of the smartphone type do not have the computing capacities to model the graphical environments in three dimensions, which reduces the potential of the users of these services. to those with very expensive PCs.

[0007] L’invention se propose donc de palier aux inconvénients de l’art antérieur en proposant un procédé de déport de la scène visuelle d’un espace en trois dimensions d’un environnement de réalité virtuelle comprenant un terminal et un casque de type cardboard, afin que cette scène soit affichée sans que le terminal n’ait à effectuer les calculs inhérents à la constitution d’environnements de réalité virtuelle. Ce procédé permet donc à un utilisateur, par délégation à un serveur puissant des calculs de modélisation graphique, d’utiliser un visiocasque de type cardboard avec, par exemple, un smartphone et une application installée sur le smartphone afin d’accéder à différents services de réalité virtuelle en trois dimensions qui ne lui seraient pas disponibles autrement par manque de puissance de calcul.The invention therefore proposes to overcome the drawbacks of the prior art by proposing a method of offset from the visual scene of a three-dimensional space of a virtual reality environment comprising a terminal and a headset of the type cardboard, so that this scene is displayed without the terminal having to perform the calculations inherent in the creation of virtual reality environments. This process therefore allows a user, by delegation to a powerful server of graphical modeling calculations, to use a cardboard type head-mounted display with, for example, a smartphone and an application installed on the smartphone in order to access various three-dimensional virtual reality that would not otherwise be available to it due to lack of computing power.

[0008] Un des buts de l'invention est de remédier à des inconvénients de l'état de la technique précité.One of the aims of the invention is to remedy the drawbacks of the aforementioned state of the art.

[0009] A cet effet, un objet de la présente invention concerne un procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle, caractérisé en ce qu’il comprend ce qui suit, au niveau d’un terminal :To this end, an object of the present invention relates to a method of interaction of a user with a virtual reality environment, characterized in that it comprises the following, at the level of a terminal:

[0010] - commander à un serveur au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle,- ordering a server at least one image of a three-dimensional space from the virtual reality environment,

[0011] - recevoir, de la part dudit serveur, des données d’une vue représentative dudit espace en trois dimensions,- receive, from said server, data from a representative view of said space in three dimensions,

[0012] - extraire desdites données ladite au moins une image,- extracting said data from said at least one image,

[0013] - convertir ladite au moins une image en ladite vue,- converting said at least one image into said view,

[0014] - commander la restitution sur le terminal de ladite vue.- order the restitution on the terminal of said view.

[0015] On entend par espace en trois dimensions un ensemble de données décrivant les dimensions dans un espace euclidien à trois dimensions, les couleurs et les textures d’un lieu réel ou imaginé, éventuellement d’objets et de personnages fictifs ou avatars dudit lieu. Ce lieu est caractérisé par plusieurs formes géométriques (un cube, un rectangle, un tétraèdre etc.), éventuellement des objets spécifiques contenus dedans (un fauteuil, une télévision, un évier etc.) et des avatars.By three-dimensional space is meant a set of data describing the dimensions in a three-dimensional Euclidean space, the colors and the textures of a real or imagined place, possibly of fictitious objects and characters or avatars of said place. . This place is characterized by several geometric shapes (a cube, a rectangle, a tetrahedron etc.), possibly specific objects contained in it (an armchair, a television, a sink etc.) and avatars.

[0016] On entend par image un document graphique numérique interprétable par le terminal.By image is meant a digital graphic document interpretable by the terminal.

[0017] On entend par environnement de réalité virtuelle un ensemble d’espaces à trois dimensions, dans lequel des avatars peuvent se déplacer, communiquer avec d’autres avatars ou avec des objets, utiliser ces objets, modifier l’espace en créant de nouveaux objets ou en les modifiant etc. Un environnement de réalité virtuelle dispose donc de règles précises sur la gestion des espaces en trois dimensions, tels que leur agencement et la gestion des objets et avatars en termes d’interaction et de compatibilité. En effet, l’environnement de réalité virtuelle définit les actions possibles (soulever, déplacer, transformer, communiquer etc.) des avatars sur les objets et vice versa si nécessaire voire des objets entre eux. De plus, l’environnement de réalité virtuelle régit également les lois physiques entre les différents objets et entre les objets et les avatars.By virtual reality environment is meant a set of three-dimensional spaces, in which avatars can move, communicate with other avatars or with objects, use these objects, modify the space by creating new ones. objects or by modifying them etc. A virtual reality environment therefore has precise rules for managing three-dimensional spaces, such as their arrangement and the management of objects and avatars in terms of interaction and compatibility. Indeed, the virtual reality environment defines the possible actions (lifting, moving, transforming, communicating etc.) of the avatars on the objects and vice versa if necessary, even of the objects between them. In addition, the virtual reality environment also governs the physical laws between different objects and between objects and avatars.

[0018] Grâce à l’invention, il est possible de diffuser sur un écran d’un terminal à capacités de calcul limitées (exemple d’un smartphone ou d’un visiocasque avec des capacités intégrées de traitement numérique et de calcul) une vue représentée par une image d’un espace en trois dimensions, qui, une fois visionnée par l’utilisateur du terminal, donne une impression de vue en trois dimensions. Cette vue est proche en terme de rendu visuel d’une représentation de cet espace qui serait réalisée par une machine plus puissante, comme un serveur ou un PC équipé d’une carte graphique de dernière génération. Pour cela, le terminal se contente avantageusement de recevoir d’un serveur un fichier de données qui a été généré par le serveur et qui contient, entre autres, la ou les images représentant la vue générée par l’application de réalité virtuelle du serveur. La ou les images sont simplement converties et affichées par le terminal. Les étapes d’extraction et de conversion en une image effectuées par le terminal des données de l’espace en trois dimensions fournies par le serveur ne nécessitent pas de calculs vectoriels complexes (il s’agit uniquement de plaquer cette image sur une sphère englobant le point du vue de l’utilisateur) comme c’est le cas pour les mécanismes de restitution d’environnements de réalité virtuelle classiques. En effet, c’est le serveur, en amont de la transmission au terminal, qui a réalisé l’ensemble des calculs de conversion de l’espace en trois dimensions en un fichier de données comprenant au moins une image et des métadonnées. L’extraction d‘au moins une image et de métadonnées d’un fichier de données étant une étape simple pour le terminal. L’étape de conversion par le terminal d’une image en une vue représentative de l’espace en trois dimensions ne nécessite pas non plus de calculs complexes. Là où un moteur graphique sera nécessaire pour un environnement VR complet (tris et placement des objets, gestion de la lumière, des ombres, des effets de rendu), la projection sur une sphère d’une image reste très optimale (simple déformation sphérique). Après conversion selon des techniques de rendu en trois dimensions bien connues de l’homme de l’art, la vue représentative de l’espace en trois dimensions est affichée sur l’écran du terminal et transmise via un système optique pour être visualisée par l’utilisateur qui a la sensation d’être immergé dans un environnement en trois dimensions.Thanks to the invention, it is possible to broadcast on a screen of a terminal with limited computing capacities (example of a smartphone or a head-mounted display with integrated digital processing and computing capacities) a view represented by an image of a three-dimensional space, which, when viewed by the user of the terminal, gives the impression of a three-dimensional view. This view is close in terms of visual rendering of a representation of this space which would be produced by a more powerful machine, such as a server or a PC equipped with a latest generation graphics card. For this, the terminal is advantageously satisfied with receiving from a server a data file which has been generated by the server and which contains, inter alia, the image or images representing the view generated by the virtual reality application of the server. The image (s) are simply converted and displayed by the terminal. The stages of extraction and conversion into an image carried out by the terminal of the three-dimensional space data provided by the server do not require complex vector calculations (it is only a question of plating this image on a sphere encompassing the from the point of view of the user) as is the case for the restitution mechanisms of conventional virtual reality environments. Indeed, it was the server, upstream of the transmission to the terminal, which carried out all the calculations for converting the space in three dimensions into a data file comprising at least one image and metadata. Extracting at least one image and metadata from a data file is a simple step for the terminal. The step of converting an image from the terminal to a representative view of three-dimensional space also does not require complex calculations. Where a graphics engine will be necessary for a complete VR environment (sorting and placement of objects, management of light, shadows, rendering effects), the projection onto an image sphere remains very optimal (simple spherical deformation) . After conversion according to three-dimensional rendering techniques well known to those skilled in the art, the representative view of the three-dimensional space is displayed on the terminal screen and transmitted via an optical system to be viewed by the user. user who feels like being immersed in a three-dimensional environment.

[0019] Selon un mode de réalisation particulier, la commande au serveur se déroule comme suit :According to a particular embodiment, the command to the server takes place as follows:

[0020] - pointer sur une carte représentant l’environnement de réalité virtuelle,- point to a map representing the virtual reality environment,

[0021] - transmettre au serveur les coordonnées du pointage sur ladite carte.- Transmit to the server the coordinates of the score on said map.

[0022] Grâce à l’invention, l’utilisateur peut transmettre des coordonnées de localisation, suite au pointage, afin, par exemple, de déplacer son avatar ou de transporter un objet d’un espace en trois dimensions vers un autre endroit de l’environnement de réalité virtuelle. Il lui suffit alors d’éditer la carte représentant l’environnement de réalité virtuelle et de pointer sur l’endroit de la carte avec lequel l’utilisateur souhaite interagir, par exemple l’endroit où l’utilisateur souhaite transporter son avatar ou un objet. Le déplacement du pointeur peut se faire de différentes manières : par l’intermédiaire du terminal et notamment de ses capteurs de mouvements ou par l’intermédiaire d’un périphérique externe de type joystick, souris, pavé à capteurs de mouvements, caméra de type Kynect® ou tout autre équipement externe en mesure de détecter des commandes de déplacement d’un pointeur par l’utilisateur. Le terminal renvoie donc au serveur les coordonnées nécessaires pour la mise à jour de l’environnement de réalité virtuelle. Le serveur ou le PC, en charge d’exécuter l’application de réalité virtuelle et notamment de restituer les espaces en trois dimensions de l’environnement de réalité virtuelle, sur sollicitation du terminal, met à jour les coordonnées de localisation de/des avatar(s) et/ou de/des objet(s) contenus dans son environnement de réalité virtuelle et, sur la base des nouvelles coordonnées, calcule la nouvelle vue et la convertit en un fichier de données intégrant une image interprétable par le terminal pour diffuser la nouvelle vue à l’utilisateur ainsi que les informations contextuelles liées à l’action à réaliser par le serveur comme, par exemple, déplacer l’avatar ou déplacer un objet.Thanks to the invention, the user can transmit location coordinates, following the pointing, in order, for example, to move his avatar or to transport an object from a three-dimensional space to another place in the world. virtual reality environment. It then suffices for him to edit the map representing the virtual reality environment and to point to the place on the map with which the user wishes to interact, for example the place where the user wishes to transport his avatar or an object. . The pointer can be moved in different ways: via the terminal and in particular its motion sensors or via an external device such as a joystick, mouse, movement sensor pad, Kynect type camera ® or any other external equipment capable of detecting commands to move a pointer by the user. The terminal therefore sends back to the server the contact details necessary for updating the virtual reality environment. The server or the PC, in charge of running the virtual reality application and in particular to restore the three-dimensional spaces of the virtual reality environment, upon request from the terminal, updates the location coordinates of the avatar (s) and / or of object (s) contained in its virtual reality environment and, on the basis of the new coordinates, calculates the new view and converts it into a data file integrating an image interpretable by the terminal for broadcasting the new view to the user as well as the contextual information related to the action to be performed by the server such as, for example, moving the avatar or moving an object.

[0023] De plus, grâce à l’invention, suite aux étapes P2 à P5, ladite vue représentative de l’espace en trois dimensions visionnée par l’utilisateur par l’intermédiaire du terminal et d’un casque de type « cardboard » est un point de vue situé à un endroit précis de l’espace en trois dimensions où se situe, par exemple, l’avatar. Cette caractéristique permet à l’utilisateur de se situer dans l’espace en trois dimensions afin d’envisager, par exemple, un nouveau déplacement ou une nouvelle action de son avatar et/ou d’un objet.In addition, thanks to the invention, following steps P2 to P5, said view representative of the three-dimensional space viewed by the user via the terminal and of a "cardboard" type helmet. is a point of view located at a specific location in three-dimensional space where, for example, the avatar is located. This characteristic allows the user to locate himself in three-dimensional space in order to envisage, for example, a new movement or a new action of his avatar and / or an object.

[0024] Selon un mode de réalisation particulier, ladite commande au serveur se déroule comme suit :According to a particular embodiment, said command to the server takes place as follows:

[0025] - pointer sur un endroit d’une vue,- point to a place in a view,

[0026] - convertir ladite vue intégrant l’endroit pointé en un fichier de données interprétable par ledit serveur,- convert said view integrating the location pointed to a data file interpretable by said server,

[0027] - transmettre audit serveur ledit fichier de données.- transmit to said server said data file.

[0028] Grâce à l’invention, sur sollicitation de l’utilisateur, l’utilisateur peut pointer un endroit de la vue de l’espace en trois dimensions. Il pourra ensuite commander un certain nombre d’action comme celles, par exemple, de commander au serveur un déplacement de son avatar et/ou d’un objet vers cet endroit pointé. L’utilisateur n’a donc qu’à désigner, via un pointeur affiché sur l’écran du terminal, l’endroit où il souhaite, par exemple, déplacer son avatar et/ou un objet. Le déplacement du pointeur est mis en œuvre selon les manières déjà décrites pour le mode de réalisation précédent. Sur la base de l’image transmise par le terminal intégrant le pointeur, le serveur ou le PC, en charge d’exécuter l’application de réalité virtuelle et notamment de restituer les espaces en trois dimensions de l’environnement de réalité virtuelle met à jour les coordonnées de localisation de l’endroit pointé dans l’environnement de réalité virtuelle et, sur la base des nouvelles coordonnées, réalise l’action commandée par l’utilisateur comme, par exemple, le calcul d’une nouvelle vue et la diffusion d’un fichier de données intégrant une image interprétable par le terminal pour diffuser la nouvelle vue à l’utilisateur. L’utilisateur peut donc déplacer son avatar d’un point de l’espace à un autre point. Il est également possible de restituer un déplacement fluide de l’avatar et/ ou d’un objet dans son environnement de réalité virtuelle par la transmission successive des changements de coordonnées de l’avatar et/ou de l’objet dans l’espace en trois dimensions et de changements respectifs de vues à 360 degrés à une fréquence suffisante, de façon à simuler une impression de mouvement.Thanks to the invention, at the request of the user, the user can point to a place in the view of space in three dimensions. He can then order a certain number of actions such as those, for example, to command the server to move his avatar and / or an object to this pointed location. The user therefore only has to designate, via a pointer displayed on the terminal screen, the place where he wishes, for example, to move his avatar and / or an object. The displacement of the pointer is implemented in the ways already described for the previous embodiment. Based on the image transmitted by the terminal integrating the pointer, the server or the PC, in charge of executing the virtual reality application and in particular to restore the three-dimensional spaces of the virtual reality environment. update the location coordinates of the location pointed to in the virtual reality environment and, on the basis of the new coordinates, perform the action ordered by the user such as, for example, calculating a new view and broadcasting a data file integrating an image interpretable by the terminal to broadcast the new view to the user. The user can therefore move his avatar from one point in space to another point. It is also possible to restore a fluid displacement of the avatar and / or an object in its virtual reality environment by the successive transmission of changes of coordinates of the avatar and / or of the object in space in three dimensions and respective changes of 360-degree views at a sufficient frequency, so as to simulate an impression of movement.

[0029] De plus, comme décrit dans le précédent mode de réalisation particulier, et suite aux étapes P2 à P5, ladite vue représentative de l’espace en trois dimensions visionnée par l’utilisateur par l’intermédiaire du terminal et d’un casque de type « cardboard » est un point de vue situé à un endroit précis de l’espace en trois dimensions où se situe, par exemple, l’avatar. Cette caractéristique permet à l’utilisateur de se situer dans l’espace en trois dimensions afin d’envisager, par exemple, un nouveau déplacement ou une nouvelle action de son avatar et/ou d’un objet.In addition, as described in the previous particular embodiment, and following steps P2 to P5, said view representative of the three-dimensional space viewed by the user via the terminal and a headset "cardboard" type is a point of view located at a specific place in three-dimensional space where is located, for example, the avatar. This characteristic allows the user to locate himself in three-dimensional space in order to envisage, for example, a new movement or a new action of his avatar and / or an object.

[0030] Selon un autre mode de réalisation particulier, à partir des données de l’espace en trois dimensions, extraire des informations descriptives d’au moins un objet et/ou d’au moins un avatar de l’espace à trois dimensions,According to another particular embodiment, from the data of the three-dimensional space, extract descriptive information from at least one object and / or from at least one avatar of the three-dimensional space,

[0031] Grâce à l’invention, l’utilisateur peut directement visualiser des informations et interagir sur certains objets ou autres avatars qui se trouvent dans son champ de vision. En effet, sans ces informations additionnelles descriptives de l’image, le terminal n’a pas la possibilité de caractériser les objets disposés dans l’espace ni identifier les avatars. En effet, l’image n’est vue, par le terminal, que comme un ensemble de pixels avec un certain niveau de couleurs et d’intensité lumineuse et non comme un ensemble d’objets vectoriels ayant leurs caractéristiques propres comme c’est le cas dans un environnement de réalité virtuelle classique. Sur la base des informations récupérées par le terminal, ce dernier est donc capable de déterminer des zones sur l’image qui représentent un objet et/ou un avatar. L’utilisateur peut donc pointer vers ces zones afin de disposer d’informations complémentaires sur l’objet et/ou l’avatar et/ou de commander des actions de toute nature liées avec ces derniers.Thanks to the invention, the user can directly view information and interact on certain objects or other avatars that are in his field of vision. Indeed, without this additional descriptive information of the image, the terminal does not have the possibility of characterizing the objects arranged in space nor identifying the avatars. Indeed, the image is only seen, by the terminal, as a set of pixels with a certain level of colors and light intensity and not as a set of vector objects having their own characteristics as is the case in a classic virtual reality environment. Based on the information retrieved by the terminal, the latter is therefore able to determine areas on the image which represent an object and / or an avatar. The user can therefore point to these areas in order to have additional information on the object and / or the avatar and / or to order actions of any kind related to these.

[0032] Selon un autre mode de réalisation particulier, ladite vue est fonction de l’orientation d’un objet ou d’un avatar dans ledit espace en trois dimensions.According to another particular embodiment, said view is a function of the orientation of an object or an avatar in said three-dimensional space.

[0033] Grâce à l’invention, il est donc possible pour l’utilisateur de modifier le point de vue représentatif de l’espace en trois dimensions autour d’un point fixe et dans toutes les orientations possibles sans avoir à commander une nouvelle image au serveur. L’image dispose de l’ensemble des informations nécessaires au terminal pour afficher tous ces points de vue. Dans le cas où le point fixe de l’espace se trouve être le visage de l’avatar, l’utilisateur, en faisant tourner son avatar sur lui-même, dispose de différents points de vue lui permettant d’appréhender visuellement l’espace en trois dimensions dans sa totalité à la place de son avatar. L’utilisateur peut ensuite décider des actions à prendre dans le champ de vision correspondant à la rotation effectuée par l’avatar. Un tel mode de réalisation optimise ainsi la sensation d’immersion de l’utilisateur dans l’environnement de réalité virtuelle.Thanks to the invention, it is therefore possible for the user to modify the representative point of view of the space in three dimensions around a fixed point and in all possible orientations without having to order a new image. to the server. The image has all the information necessary for the terminal to display all these points of view. In the case where the fixed point of space happens to be the face of the avatar, the user, by rotating his avatar on himself, has different points of view allowing him to visually apprehend the space in three dimensions in its entirety in place of its avatar. The user can then decide what actions to take in the field of vision corresponding to the rotation performed by the avatar. Such an embodiment thus optimizes the feeling of immersion of the user in the virtual reality environment.

[0034] Les différents modes ou caractéristiques de réalisation précités peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, au procédé d’interaction défini ci-dessus.The various embodiments or features mentioned above can be added independently or in combination with each other, to the interaction process defined above.

[0035] L’invention concerne également un terminal d’interaction d’un utilisateur avec un environnement de réalité virtuelle, le terminal étant caractérisé en ce qu’il comprend un processeur qui est configuré pour mettre en œuvre ce qui suit :The invention also relates to a user interaction terminal with a virtual reality environment, the terminal being characterized in that it comprises a processor which is configured to implement the following:

[0036] - commander à un serveur au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle,- order a server at least one image of a three-dimensional space from the virtual reality environment,

[0037] - recevoir, de la part dudit serveur, des données d’une vue représentative dudit espace en trois dimensions,- receive, from said server, data from a representative view of said space in three dimensions,

[0038] - extraire desdites données ladite au moins une image,- extracting said data from said at least one image,

[0039] - convertir ladite au moins une image en ladite vue,- converting said at least one image into said view,

[0040] - commander la restitution sur le terminal de ladite vue.- order the restitution on the terminal of said view.

[0041] Un tel terminal est notamment apte à mettre en œuvre le procédé précité d’interaction d’un utilisateur avec un environnement de réalité virtuelle, selon l’un quelconque des modes de réalisation précités.Such a terminal is in particular capable of implementing the aforementioned method of interaction of a user with a virtual reality environment, according to any one of the aforementioned embodiments.

[0042] L'invention concerne encore un programme d'ordinateur comportant des instructions pour la mise en œuvre du procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle, selon l’un quelconque des modes particuliers de réalisation décrits précédemment, lorsque ledit programme est exécuté par un processeur.The invention also relates to a computer program comprising instructions for implementing the method of interaction of a user with a virtual reality environment, according to any one of the particular embodiments described above, when said program is executed by a processor.

[0043] Ce programme peut utiliser n’importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.This program can use any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in a partially compiled form, or in n ' any other desirable form.

[0044] L’invention vise également un support d’enregistrement ou support d’informations lisible par un ordinateur, et comportant des instructions d’un programme d’ordinateur tel que mentionné ci-dessus.The invention also relates to a recording medium or information medium readable by a computer, and comprising instructions of a computer program as mentioned above.

[0045] Le support d'enregistrement peut être n'importe quelle entité ou dispositif capable de stocker le programme. Par exemple, le support peut comporter un moyen de stockage, tel qu'une ROM, par exemple un CD ROM ou une ROM de circuit microélectronique, ou encore un moyen d'enregistrement magnétique, par exemple une clé USB ou un disque dur.The recording medium can be any entity or device capable of storing the program. For example, the support may include a storage means, such as a ROM, for example a CD ROM or a microelectronic circuit ROM, or else a magnetic recording means, for example a USB key or a hard disk.

[0046] D'autre part, le support d'enregistrement peut être un support transmissible tel qu'un signal électrique ou optique, qui peut être acheminé via un câble électrique ou optique, par radio ou par d'autres moyens. Le programme selon l'invention peut être en particulier téléchargé sur un réseau de type Internet.On the other hand, the recording medium can be a transmissible medium such as an electrical or optical signal, which can be routed via an electrical or optical cable, by radio or by other means. The program according to the invention can in particular be downloaded from a network of the Internet type.

[0047] Alternativement, le support d'enregistrement peut être un circuit intégré dans lequel le programme est incorporé, le circuit étant adapté pour exécuter ou pour être utilisé dans l'exécution du procédé d’interaction précité.Alternatively, the recording medium can be an integrated circuit in which the program is incorporated, the circuit being adapted to execute or to be used in the execution of the above-mentioned interaction method.

[0048] D’autres caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description suivante de modes de réalisation particuliers, donnés à titre de simples exemples illustratifs et non limitatifs, et des dessins annexés, parmi lesquels :Other characteristics and advantages of the invention will appear more clearly on reading the following description of particular embodiments, given by way of simple illustrative and nonlimiting examples, and of the appended drawings, among which:

[0049] [fig.l][Fig.l]

- la figure 1 représente les principales actions exécutées par le procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle,- Figure 1 shows the main actions performed by the user interaction process with a virtual reality environment,

[0050] [fig.2][Fig.2]

- la figure 2 détaille un exemple de réalisation décrivant les principaux échanges de flux d’informations entre les terminaux lors de la mise en œuvre du procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle,FIG. 2 details an exemplary embodiment describing the main exchanges of information flows between the terminals during the implementation of the method of interaction of a user with a virtual reality environment,

[0051] [fig.3][Fig.3]

- la figure 3 représente un exemple d’une image en deux dimensions utilisée dans le procédé d’interaction de la figure 1,FIG. 3 represents an example of a two-dimensional image used in the interaction method of FIG. 1,

[0052] [fig.4][Fig.4]

- la figure 4 représente un exemple d’une vue en trois dimensions,- Figure 4 shows an example of a three-dimensional view,

[0053] [fig.5][Fig.5]

- la figure 5 représente plus en détail une des actions exécutées par le procédé de la figure 1,FIG. 5 represents in more detail one of the actions executed by the method of FIG. 1,

[0054] [fig.6][Fig.6]

- la figure 6 représente plus en détail une des actions exécutées par le procédé de la figure 1,FIG. 6 represents in more detail one of the actions executed by the method of FIG. 1,

[0055] [fig.7a][Fig.7a]

- la figure 7a représente plus en détail une des actions exécutées par le procédé de la figure 1, selon une première variante,FIG. 7a represents in more detail one of the actions executed by the method of FIG. 1, according to a first variant,

[0056] [fig.7b][Fig.7b]

- la figure 7b représente plus en détail une des actions exécutées par le procédé de la figure 1, selon une deuxième variante,FIG. 7b represents in more detail one of the actions executed by the method of FIG. 1, according to a second variant,

[0057] [fig.7c][Fig.7c]

- la figure 7c représente plus en détail une des actions exécutées par le procédé de la figure 1,FIG. 7c represents in more detail one of the actions executed by the method of FIG. 1,

[0058] [fig.8][Fig.8]

- la figure 8 représente un exemple de terminal d’interaction d’un utilisateur avec un environnement de réalité virtuelle mettant en œuvre le procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle de la figure 1.FIG. 8 represents an example of a user interaction terminal with a virtual reality environment implementing the method of interaction of a user with a virtual reality environment of FIG. 1.

[0059] Description d'un mode de réalisation de l'inventionDescription of an embodiment of the invention

[0060] Principe général de l'inventionGeneral principle of the invention

[0061] L’objectif de l’invention est de permettre à un utilisateur d’un terminal ayant des capacités de calcul peu puissantes de s’interconnecter dans un environnement de réalité virtuelle en trois dimensions. Cet environnement nécessite habituellement des terminaux avec une grande capacité de calcul et notamment de calcul graphique.The objective of the invention is to allow a user of a terminal with low-power computing capacities to interconnect in a three-dimensional virtual reality environment. This environment usually requires terminals with a large computation capacity and in particular graphical computation.

[0062] L’invention propose principalement un procédé et un terminal de gestion de données graphiques et contextuelles transmises par un serveur afin d’afficher une vue d’un espace en trois dimensions et de pouvoir interagir avec cet espace par l’échange d’informations avec le serveur.The invention mainly proposes a method and a terminal for managing graphic and contextual data transmitted by a server in order to display a view of a space in three dimensions and to be able to interact with this space by exchanging information with the server.

[0063] Il existe un grand nombre de configurations possibles en termes d’architectures de services pour créer un environnement de réalité virtuelle mais on peut dénombrer deux fonctions majeures : d’une part, la gestion de l’environnement de réalité virtuelle et, d’autre part, sa modélisation et son rendu graphique. La gestion de l’environnement concerne toute la gestion des règles d’interactions entre les objets et/ou entre les personnages virtuels ou avatars, leurs modifications, transport, voire dans certains environnements le suivi d’un script d’évènements (exemple des jeux vidéo). La gestion de l’environnement peut être déléguée à un seul terminal de type serveur en charge de cette gestion pour tous les utilisateurs. Cette fonction peut également être virtualisée par plusieurs serveurs traitant les calculs en parallèle. Les serveurs peuvent être des terminaux commandés par des utilisateurs du service de création d’un environnement de réalité virtuelle et/ou des terminaux gérés par le fournisseur du service ou une combinaison des deux. La modélisation et le rendu graphique concernent la représentation vectorielle, la gestion des textures, des effets de lumière, etc. d’un espace en trois dimensions. Ils sont réalisés par un ordinateur et peuvent être délégués à un ordinateur distant. La modélisation nécessite un équipement dédié de type carte graphique afin de décharger le processeur principal de l’ordinateur de ce type de calculs.There are a large number of possible configurations in terms of service architectures for creating a virtual reality environment, but there are two major functions: on the one hand, the management of the virtual reality environment and, d on the other hand, its modeling and its graphic rendering. The management of the environment concerns all the management of the rules of interactions between the objects and / or between the virtual characters or avatars, their modifications, transport, even in certain environments the follow-up of a script of events (example of the games video). Environmental management can be delegated to a single server-type terminal in charge of this management for all users. This function can also be virtualized by several servers processing calculations in parallel. The servers can be terminals controlled by users of the service for creating a virtual reality environment and / or terminals managed by the service provider or a combination of the two. Modeling and graphic rendering concern vector representation, texture management, light effects, etc. of a three-dimensional space. They are performed by a computer and can be delegated to a remote computer. The modeling requires dedicated graphics card type equipment in order to relieve the main processor of the computer of this type of calculation.

[0064] L’invention est mise en œuvre de façon à ce que ledit terminal dispose d’un logiciel lui permettant de communiquer les informations nécessaires à l’ordinateur (qui peut être un serveur, un PC ou tout autre machine ayant les capacités de calcul suffisantes), en charge de la gestion de l’environnement de réalité virtuelle et de la modélisation, afin que cet ordinateur effectue la modélisation et le rendu graphique d’un espace en trois dimensions. Ces informations ont par exemple attrait à l’état de l’avatar dans l’environnement de réalité virtuelle comme : sa localisation, son orientation, sa communication avec d’autres avatars, son interaction avec des objets de l’environnement. L’ordinateur, en charge de cette modélisation et de rendu graphique, interprète ces in formations pour modifier l’espace en trois dimensions en fonction de ces nouvelles informations. Cette modélisation et ce rendu graphiques représentent une nouvelle vue de l’espace en trois dimensions où se trouve l’avatar de l’utilisateur. Cette vue est convertie par l’ordinateur afin qu’elle soit facilement exploitée par le terminal. Le terminal délègue donc les fonctions de modélisation graphique et une partie des fonctions de gestion de l’environnement à l’ordinateur. Le terminal se charge ensuite de convertir les nouvelles données reçues de l’ordinateur en une image en trois dimensions.The invention is implemented in such a way that said terminal has software enabling it to communicate the information necessary to the computer (which can be a server, a PC or any other machine having the capabilities of sufficient calculation), in charge of managing the virtual reality environment and modeling, so that this computer performs the modeling and graphic rendering of a three-dimensional space. This information has for example appeal to the state of the avatar in the virtual reality environment such as: its location, its orientation, its communication with other avatars, its interaction with objects in the environment. The computer, in charge of this modeling and graphic rendering, interprets this information to modify the space in three dimensions according to this new information. This graphic modeling and rendering represents a new view of the three-dimensional space where the user's avatar is located. This view is converted by the computer so that it can be easily used by the terminal. The terminal therefore delegates the graphic modeling functions and part of the environmental management functions to the computer. The terminal then takes care of converting the new data received from the computer into a three-dimensional image.

[0065] Modes particuliers de réalisation de l'invention.Specific embodiments of the invention.

[0066] Il est décrit ci-après, en référence aux figures 1 à 8, un procédé et un terminal d’interaction d’un utilisateur avec un environnement de réalité virtuelle.It is described below, with reference to Figures 1 to 8, a method and a terminal for user interaction with a virtual reality environment.

[0067] Un tel procédé se déroule de la manière suivante.Such a process takes place in the following manner.

[0068] Dans un exemple de réalisation de l’invention, l’utilisateur est un potentiel acheteur d’un bien immobilier, par exemple une maison, et souhaite faire le point avec son promoteur pour échanger sur la conception de cette maison. Le promoteur étant en télétravail ce jour-là, il propose donc à l’utilisateur de lancer une session d’un nouveau service de collaboration en réalité virtuelle. Ce service est proposé par la société du promoteur, et se matérialise par une application installée sur un serveur spécifique hébergé dans des locaux de cette société. Cette application est accessible à distance par la souscription d’un compte utilisateur lié au service. Le serveur dispose de l’ensemble des informations nécessaires pour présenter le projet immobilier (description du bien, plans du bien, des objets, actions disponibles sur les objets etc.). Il gère et stocke l’ensemble des informations des projets immobiliers de la société. Le service est également déployé, par l’intermédiaire d’une autre application, plus simple, sur l’ordinateur de type PC du promoteur. Cette application communique avec l’application du serveur. L’ordinateur de type PC intègre une carte graphique puissante permettant au promoteur de réaliser les calculs de modélisation graphique nécessaires liés à son propre usage mais aussi pour le compte de l’utilisateur. L’utilisateur dispose d’un terminal (un smartphone par exemple) et d’une cardboard compatible avec le terminal. De plus, pour permettre à l’utilisateur d’utiliser le service avec le terminal, une application est disponible sur le site internet de la société du promoteur et également, par exemple, sur les différents « app stores » (magasins d’application en anglais) des fournisseurs de système d’exploitation de smartphones. L’utilisateur installe l’application mobile de l’app store sur son terminal, lance l’application et connecte le terminal à la cardboard. Il se connecte ensuite au service de réalité virtuelle de la société, employeur du promoteur. Le promoteur se connecte également au service de réalité virtuelle par l’intermédiaire de l’application déjà installée sur son PC et installe un visiocasque adapté à son PC.In an exemplary embodiment of the invention, the user is a potential buyer of a property, for example a house, and wishes to take stock with his promoter to discuss the design of this house. The promoter was teleworking that day, so he suggested that the user launch a session of a new collaboration service in virtual reality. This service is offered by the promoter's company, and is materialized by an application installed on a specific server hosted in the premises of this company. This application can be accessed remotely by subscribing to a user account linked to the service. The server has all the information necessary to present the real estate project (description of the property, plans of the property, objects, actions available on the objects etc.). It manages and stores all the information on the company's real estate projects. The service is also deployed, via another, simpler application, on the promoter's PC-type computer. This application communicates with the server application. The PC type computer incorporates a powerful graphics card allowing the promoter to perform the necessary graphic modeling calculations related to his own use but also on behalf of the user. The user has a terminal (a smartphone for example) and a cardboard compatible with the terminal. In addition, to allow the user to use the service with the terminal, an application is available on the website of the promoter's company and also, for example, on the various “app stores” (application stores in smartphone operating system providers. The user installs the mobile app from the app store on their terminal, launches the application and connects the terminal to the cardboard. He then connects to the company's virtual reality service, the promoter's employer. The promoter also connects to the virtual reality service through the application already installed on his PC and installs a head-mounted display adapted to his PC.

[0069] Sur la figure 1, en PI, il est procédé à une commande à un serveur d’au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle.In Figure 1, in PI, there is a command to a server of at least one image of a three-dimensional space from the virtual reality environment.

[0070] A cet effet, comme représenté en figure 2, à titre d’exemple, c’est l’utilisateur, par l’intermédiaire d’un terminal, qui sollicite un serveur SERV de la société pour lui signifier, par l’envoi de données I, qu’il souhaite une nouvelle image de l’espace en trois dimensions afin de débuter la session de réalité virtuelle avec le promoteur et pouvoir visionner le projet immobilier. Le serveur SERV communique alors un ensemble d’informations A, B et C à un ordinateur PCI du promoteur pour qu’il puisse calculer une nouvelle image représentative de l’espace en trois dimensions et la transmettre au terminal TERM. Les informations A sont des paramètres de l’espace en trois dimensions (grille, texture ou non, plafond ou non.....). Les informations B sont des données décrivant l’espace à trois dimensions, telles que par exemple des données sur les objets (mobilier et bâti) et/ou des données sur le/les avatar(s) contenus dans l’espace en trois dimensions. Les informations C sont des informations de localisation et de position du corps de l’avatar de l’utilisateur dans l’espace en trois dimensions, telles que par exemple des données localisation et de position de la tête de l’avatar, de déplacement du bras, des mains de l’avatar, etc.For this purpose, as shown in Figure 2, by way of example, it is the user, via a terminal, who requests a server SERV of the company to notify him, by the sending data I, that he wishes a new image of space in three dimensions in order to start the session of virtual reality with the promoter and to be able to view the real estate project. The SERV server then communicates a set of information A, B and C to a promoter's PCI computer so that it can calculate a new image representative of the space in three dimensions and transmit it to the TERM terminal. Information A are parameters of the space in three dimensions (grid, texture or not, ceiling or not .....). Information B is data describing the three-dimensional space, such as for example data on the objects (furniture and buildings) and / or data on the avatar (s) contained in the three-dimensional space. The information C is location and position information of the body of the avatar of the user in three-dimensional space, such as for example location and position data of the head of the avatar, displacement of the arms, hands of the avatar, etc.

[0071] Sur la figure 1, en P2, il est procédé à la réception REC, de la part dudit serveur, des données d’une vue représentative dudit espace en trois dimensions.In FIG. 1, in P2, REC is received from said server, data from a view representative of said space in three dimensions.

[0072] A cet effet, comme représenté en figure 2, l’ordinateur PCI communique au terminal TERM des données B et E. Dans l’exemple décrit, c’est l’ordinateur PCI du promoteur qui communique ces données au terminal TERM de l’utilisateur car la session implique seulement l’utilisateur et le promoteur. Dans d’autres modes de réalisation particuliers, impliquant un plus grand nombre d’ordinateurs, le serveur SERV peut se charger de centraliser les calculs et communiquer les données B et E au terminal TERM. Les données E comprennent au moins une image interprétable par le terminal TERM. Les données B comprennent des informations descriptives dudit espace en trois dimensions. Dans l’exemple représenté, le terminal TERM réceptionne un fichier de données transmis par l’ordinateur PCI qui contient ces données E et B.To this end, as shown in FIG. 2, the PCI computer communicates to the TERM terminal of data B and E. In the example described, it is the promoter's PCI computer which communicates this data to the TERM terminal of the user because the session involves only the user and the promoter. In other particular embodiments, involving a larger number of computers, the SERV server can be responsible for centralizing the calculations and communicating the data B and E to the TERM terminal. The data E includes at least one image interpretable by the TERM terminal. The data B includes descriptive information of said space in three dimensions. In the example shown, the TERM terminal receives a data file transmitted by the PCI computer which contains this data E and B.

[0073] Sur la figure 1, en P3, il est procédé, par le terminal TERM, à une extraction EXTR desdites données ladite au moins une image E.In FIG. 1, in P3, there is a process, by the TERM terminal, of an EXTR extraction of said data, said at least one image E.

[0074] Comme décrit sur la figure 3, l’image E est une image en deux dimensions qui comprend deux vues (œil gauche, œil droit) représentant de manière déformée une même scène en trois dimensions.As described in FIG. 3, the image E is a two-dimensional image which includes two views (left eye, right eye) distortedly representing the same scene in three dimensions.

[0075] Sur la figure 1, en P4, le terminal TERM procède à une conversion CONV de ladite au moins une image E en une vue représentative de l’espace en trois dimensions.In FIG. 1, in P4, the TERM terminal carries out a CONV conversion of said at least one image E into a view representative of the space in three dimensions.

[0076] Comme illustré sur la figure 4, une telle vue V est le résultat de la conversion des deux vues de l’image E illustrée à la figure 3.As illustrated in FIG. 4, such a view V is the result of the conversion of the two views of the image E illustrated in FIG. 3.

[0077] Sur la figure 1, en P5, il est procédé, par le terminal TERM, à une commande de la restitution REST de ladite vue.In Figure 1, in P5, it is carried out, by the TERM terminal, a command of the REST rendering of said view.

[0078] Selon un mode particulier de réalisation, représenté à la figure 8, les actions exécutées par les étapes PI à P5 sont mises en œuvre par un terminal. Le terminal est par exemple un smartphone. Pour cela, le terminal a l'architecture classique d'un ordinateur et comprend notamment une mémoire MEM_T, une unité de traitement UT_T, équipée par exemple d'un processeur PROC_T, et pilotée par le programme d'ordinateur PG_T stocké en mémoire MEM_T. Le programme d'ordinateur PG_T comprend des instructions pour mettre en œuvre les actions des étapes PI à P5 telles que décritent ci-dessus, lorsque le programme est exécuté par le processeur PROC_T. A l'initialisation, les instructions de code du programme d'ordinateur PG_T sont par exemple chargées dans une mémoire RAM (non représentée) avant d'être exécutées par le processeur PROC_T. Le processeur PROC_T de l'unité de traitement UT_T met notamment en œuvre les actions des téapes PI à P5 décritent ci-dessus, selon les instructions du programme d'ordinateur PG_T.According to a particular embodiment, shown in Figure 8, the actions performed by steps PI to P5 are implemented by a terminal. The terminal is for example a smartphone. For this, the terminal has the conventional architecture of a computer and notably comprises a memory MEM_T, a processing unit UT_T, equipped for example with a processor PROC_T, and controlled by the computer program PG_T stored in memory MEM_T. The computer program PG_T includes instructions for implementing the actions of steps PI to P5 as described above, when the program is executed by the processor PROC_T. On initialization, the code instructions of the computer program PG_T are for example loaded into a RAM memory (not shown) before being executed by the processor PROC_T. The processor PROC_T of the processing unit UT_T implements in particular the actions of the steps PI to P5 described above, according to the instructions of the computer program PG_T.

[0079] Lors des étapes PI et P2, le terminal TERM communique avec le serveur SERV, par l’intermédiaire d’un module de communication ou périphérique réseau P_RES_T, par l’intermédiaire de son module de communication ou périphérique réseau P_RES_SERV. Ces modules de communication P_RES_T et P_RES_SERV sont adaptés pour échanger des données entre eux, via un réseau RES. Un tel réseau RES est par exemple un réseau de type MAN (acronyme anglophone pour « Metropolitan Area Network ») ou WAN (acronyme anglophone pour « Wide Area Network »).During steps PI and P2, the TERM terminal communicates with the SERV server, via a communication module or network device P_RES_T, via its communication module or network device P_RES_SERV. These communication modules P_RES_T and P_RES_SERV are suitable for exchanging data between them, via a RES network. Such a RES network is for example a MAN type network (English acronym for "Metropolitan Area Network") or WAN type (English acronym for "Wide Area Network").

[0080] L'homme du métier peut se rendre compte qu'il existe de nombreux types différents de réseaux de communication de données, par exemple des réseaux de radiocommunication, cellulaires ou non cellulaires, et qu’en fonction du mode de réalisation, les modules de communication P_RES_T et P_RES_SERV pourront intégrer un ou plusieurs modules de communication, par exemple de communication radiofréquence et être configurés pour l’émission et la réception de signaux radiofréquences, selon une ou plusieurs technologies, telles que TDMA, FDMA, OFDMA, CDMA, ou un ou plusieurs standards de radiocommunication, tels que GSM, EDGE, CDMA, UMTS, HSPA, LTE, LTE-A, WiFi (IEEE 802.11) et WiMAX (IEEE 802.16), ou leurs variantes ou évolutions, actuellement connus ou développés ultérieurement.Those skilled in the art can realize that there are many different types of data communication networks, for example radio networks, cellular or non-cellular, and that depending on the embodiment, the P_RES_T and P_RES_SERV communication modules can integrate one or more communication modules, for example radiofrequency communication and be configured for the transmission and reception of radiofrequency signals, according to one or more technologies, such as TDMA, FDMA, OFDMA, CDMA, or one or more radiocommunication standards, such as GSM, EDGE, CDMA, UMTS, HSPA, LTE, LTE-A, WiFi (IEEE 802.11) and WiMAX (IEEE 802.16), or their variants or developments, currently known or developed later.

[0081] Sur la figure 1, dans un mode de réalisation particulier de l’action PI, il est procédé en Pl’_l à une action de pointer POINT_C sur une carte représentant l’environnement de réalité virtuelle, en Pl’_2 à une transmission TRANSI au serveur SERV des coordonnées du pointage sur ladite carte tel qu’effectué en P’ 1_1.In FIG. 1, in a particular embodiment of the action PI, it is carried out in Pl'_l with an action of pointing POINT_C on a map representing the virtual reality environment, in Pl'_2 with a TRANSI transmission to the SERV server of the coordinates of the score on said card as carried out in P '1_1.

[0082] Dans un exemple illustré sur la figure 5, l’action demandée par le client est le transport rapide de son avatar du point Pj situé dans le jardin au point Pc situé dans la cuisine de la maison. Pour cela, l’utilisateur commande l’édition d’une carte CAR grâce au terminal TERM via l’utilisation des capteurs CAP_C de la cardboard CARD ou des capteurs CAP_T du terminal. Dans l’exemple représenté, l’utilisateur souhaite déplacer son avatar du jardin à la cuisine de la maison pour discuter avec le promoteur de l’agencement de cette pièce.In an example illustrated in Figure 5, the action requested by the customer is the rapid transport of his avatar from point Pj located in the garden to point Pc located in the kitchen of the house. For this, the user orders the edition of a CAR card thanks to the TERM terminal via the use of CAP_C sensors of the CARD cardboard or CAP_T sensors of the terminal. In the example shown, the user wants to move his avatar from the garden to the home kitchen to discuss with the promoter the layout of this room.

[0083] A cet effet, comme représenté en figure 8, l’utilisateur, par l’intermédiaire de la Cardboard CARD et du terminal TERM, visualise la carte de l’environnement de réalité virtuelle, en l’occurrence la maison dans l’exemple décrit. La carte est visualisée par l’utilisateur par l’intermédiaire de l’écran ECR du terminal TERM qui est couplé optiquement avec un système optique SYST_OPT de vision en trois dimensions de la Cardboard CARD. L’utilisateur actionne les capteurs CAP_C ou CAP_T pour déplacer le pointeur sur la carte de l’environnement de réalité virtuelle.To this end, as shown in FIG. 8, the user, by means of the Cardboard CARD and the TERM terminal, visualizes the map of the virtual reality environment, in this case the house in the example described. The card is viewed by the user via the ECR screen of the TERM terminal, which is optically coupled with a three-dimensional vision system SYST_OPT of the Cardboard CARD. The user actuates the CAP_C or CAP_T sensors to move the pointer on the map of the virtual reality environment.

[0084] A cet effet, comme représenté en figure 2, le terminal TERM communique au serveur SERV les informations C de changement de localisation de l’avatar. Dans l’exemple décrit, c’est le serveur SERV qui gère la partie du service liée à la gestion de l’environnement de réalité virtuelle. Après avoir reçu ces informations, le serveur SERV communique à l’ordinateur PCI du promoteur les informations C de ce changement, afin que cet ordinateur exécute les tâches graphiques.To this end, as shown in FIG. 2, the TERM terminal communicates to the server SERV the information C for changing the location of the avatar. In the example described, it is the SERV server which manages the part of the service linked to the management of the virtual reality environment. After receiving this information, the SERV server communicates the C information for this change to the promoter's PCI computer, so that this computer can perform graphics tasks.

[0085] Sur la figure 1, en Pl”_l, Pl”_2 et Pl”_3, dans un autre mode de réalisation alternatif à PI, il est procédé à une action Pl”_l de pointage POINT_E sur un endroit d’une vue, d’une action Pl”_2 de conversion CONV_V de ladite vue intégrant l’endroit pointé en un fichier de données interprétable par ledit serveur et d’une action Pl”_3 de transmission TRANS2 dudit fichier de données audit serveur. Selon ce mode de réalisation alternatif, l’utilisateur commande le transport de son avatar dans le même espace en trois dimensions.In FIG. 1, in Pl ”_l, Pl” _2 and Pl ”_3, in another alternative embodiment to PI, there is an action Pl” _l of pointing POINT_E on a place of a view , an action Pl ”_2 of conversion CONV_V of said view integrating the location pointed to a data file interpretable by said server and an action Pl” _3 of transmission TRANS2 of said data file to said server. According to this alternative embodiment, the user orders the transport of his avatar in the same three-dimensional space.

[0086] A cet effet, comme représenté en figure 2, le terminal TERM communique au serveur SERV des informations Cl sur la nouvelle localisation de son avatar sous la forme d’un fichier de données intégrant au moins une image et des données descriptives de l’espace en trois dimensions. Ladite au moins une image est similaire, en termes de format, à l’image E illustrée en figure 3 et est le résultat d’une conversion CONV_V d’une vue représentative de l’espace en trois dimension comme illustré en figure 4. Ladite au moins une image intègre un marquage graphique de l’endroit pointé de façon à ce que le serveur puisse se référer à ce marquage afin de calculer une coordonnée de localisation de destination. Cette coordonnée de localisation servira au transport de l’avatar. Le serveur transmet ensuite les coordonnées de destination par le flux de données C à l’ordinateur PCI. Dans un mode de réalisation alternatif, le serveur peut déléguer l’action Pl”_2 de conversion CONV_V à l’ordinateur PCI. Dans un autre mode de réalisation alternatif, le terminal peut également transmettre les données Cl directement à l’ordinateur PCI (non représenté en figure 2) pour que cet ordinateur réalise l’action de conversion Pl”_2.To this end, as shown in FIG. 2, the TERM terminal communicates to the SERV server information C1 on the new location of its avatar in the form of a data file integrating at least one image and descriptive data of the space in three dimensions. Said at least one image is similar, in terms of format, to image E illustrated in FIG. 3 and is the result of a CONV_V conversion of a representative view of space in three dimensions as illustrated in FIG. 4. Said at least one image incorporates a graphic marking of the location pointed so that the server can refer to this marking in order to calculate a location coordinate of destination. This location coordinate will be used to transport the avatar. The server then transmits the destination coordinates through the C data stream to the PCI computer. In an alternative embodiment, the server can delegate the CON ”_2 conversion Pl” _2 action to the PCI computer. In another alternative embodiment, the terminal can also transmit the data C1 directly to the PCI computer (not shown in FIG. 2) so that this computer performs the conversion action P1 "_2.

[0087] Comme illustré en figure 6, conformément à un exemple de réalisation de l’invention, l’utilisateur demande à transporter son avatar AV, localisé initialement à un point Pci, d’une table de cuisine OBJ_TAB à côté d’un réfrigérateur OBJ_FR, à un point de destination Pcd. Ceci afin que l’utilisateur puisse avoir un point de vue différent de la pièce. Pour cela, il commande le déplacement d’un pointeur Point_C au point de destination Pcd où il souhaite déplacer son avatar. Le point de vue affiché sur l’écran ECR du terminal intégrant le curseur du pointeur Point_C est converti CONV_V en une image interprétable par le serveur SERV. Ce serveur pourra alors calculer, sur la base de cette image, les nouvelles coordonnées de localisation du point de destination Pcd de l’avatar.As illustrated in Figure 6, in accordance with an exemplary embodiment of the invention, the user requests to transport his avatar AV, initially located at a point Pci, from a kitchen table OBJ_TAB next to a refrigerator OBJ_FR, at a destination point Pcd. This is so that the user can have a different view of the room. To do this, he commands the movement of a Point_C pointer to the Pcd destination point where he wishes to move his avatar. The point of view displayed on the ECR screen of the terminal incorporating the cursor of the pointer Point_C is converted CONV_V into an image interpretable by the SERV server. This server can then calculate, on the basis of this image, the new location coordinates of the destination point Pcd of the avatar.

[0088] A cet effet, comme représenté en figure 8, l’utilisateur, par l’intermédiaire de la cardboard CARD et du terminal, dispose d’un point de vue de l’espace en trois dimensions. Le point de vue est visualisé par l’utilisateur par l’intermédiaire du système optique SYST_OPT de vision en trois dimensions de la carte cardboard CARD qui est elle-même couplée par une liaison optique à l’écran ECR du terminal. L’utilisateur actionne les capteurs CAP_C ou CAP_T pour déplacer le pointeur sur le point de vue représentatif de l’espace en trois dimensions au point de destination Pcd où il souhaite se déplacer. Le point de vue intégrant ce point Pcd est ensuite converti par le logiciel PG_T, en un fichier de données interprétable par le serveur SERV, ledit fichier contenant au moins une image d’une vue représentative de l’espace en trois dimensions intégrant l’endroit pointé. Ce fichier de données est ensuite transmis au serveur SERV par l’intermédiaire d’une communication, via le réseau RES, entre les modules de communication P_RES_T et P_RES_SERV.To this end, as shown in Figure 8, the user, through the cardboard CARD and the terminal, has a view of space in three dimensions. The point of view is visualized by the user through the optical system SYST_OPT of three-dimensional vision of the cardboard CARD which is itself coupled by an optical link to the screen ECR of the terminal. The user activates the CAP_C or CAP_T sensors to move the pointer on the representative point of view of the space in three dimensions to the destination point Pcd where he wishes to move. The point of view integrating this point Pcd is then converted by the PG_T software, into a data file interpretable by the SERV server, said file containing at least one image of a view representative of space in three dimensions integrating the place point. This data file is then transmitted to the SERV server by means of a communication, via the RES network, between the communication modules P_RES_T and P_RES_SERV.

[0089] Sur la figure 1, dans un mode de réalisation particulier de l’action d’extraction P3, le terminal TERM procède en P’3, à partir des données de ladite vue, à l’extraction INF des informations descriptives d’au moins un objet et/ou d’au moins un avatar de l’espace à trois dimensions. L’utilisateur en pointant un/des objet(s) et/ou un/des avatar(s) à partir de son point de vue de l’espace en trois dimensions dispose ainsi d’informations descriptives sur ledit objet ou avatar. Ces informations sont extraites du fichier de données transmis par le serveur ou l’ordinateur. Les informations descriptives contenues dans le fichier de données sont de type : nom, description du/des objet(s) et/ou du/des avatar(s), actions possibles sur le/les objet(s) et/ou sur le/les avatar(s), telles que par exemple : communiquer, parler, prendre, poser, lancer, supprimer etc.In FIG. 1, in a particular embodiment of the extraction action P3, the TERM terminal proceeds in P'3, from the data of said view, to the extraction INF of the descriptive information of at least one object and / or at least one avatar of three-dimensional space. The user by pointing to an object (s) and / or an avatar (s) from his point of view of three-dimensional space thus has descriptive information about said object or avatar. This information is extracted from the data file transmitted by the server or the computer. The descriptive information contained in the data file is of type: name, description of the object (s) and / or of the avatar (s), possible actions on the object (s) and / or on the / the avatar (s), such as for example: communicate, speak, take, pose, launch, delete etc.

[0090] Sur la figure 1, dans un mode de réalisation additionnel de P4, ladite vue convertie en P4’ est fonction de l’orientation ORT du corps de l’avatar dans ledit espace en trois di16 mensions.In Figure 1, in an additional embodiment of P4, said view converted to P4 ’is a function of the orientation ORT of the body of the avatar in said space in three dimensions.

[0091] A cet effet, comme représenté à la figure 2, c’est l’ordinateur PCI du promoteur qui modélise et réalise le rendu graphique de la vue sur la base des informations C fournies par le serveur SERV sur la position et l’orientation de l’avatar dans l’espace en trois dimensions. Dans un mode de réalisation alternatif (non décrit sur la figure 2), c’est le serveur SERV qui réalise la modélisation et le rendu graphique de ladite vue. Ces informations C sont transmises par le terminal TERM et intègrent, outre les données de localisation, des données sur l’orientation du corps de l’avatar, par exemple l’orientation de sa tête. Ces dernières informations permettent ensuite de calculer un point de vue de l’espace en trois dimensions tel que pourrait le voir une personne positionnée à la place de l’avatar.For this purpose, as shown in FIG. 2, it is the promoter's PCI computer which models and produces the graphic rendering of the view on the basis of the information C supplied by the server SERV on the position and the orientation of the avatar in three-dimensional space. In an alternative embodiment (not described in FIG. 2), it is the SERV server which performs the modeling and the graphic rendering of said view. This information C is transmitted by the TERM terminal and integrates, in addition to the location data, data on the orientation of the body of the avatar, for example the orientation of its head. This last information then makes it possible to calculate a point of view of space in three dimensions as a person positioned in the place of the avatar could see it.

[0092] Comme illustré à la figure 7a et conformément à l’exemple qui vient d’être décrit, une image IM_2D_CUIS, après conversion P’4 par le terminal, représente une sphère ESP_3D_CUIS modélisant un espace en trois dimensions, dans laquelle l’avatar AV peut tourner dans tous les sens autour d’un point fixe (par exemple la tête), afin de disposer d’une pluralité de vues en fonction de la position de l’avatar dans cette sphère. La figure 7b illustre l’exemple de la figure 7a, avec un seul degré de liberté de l’avatar. Dans ce cas particulier, l’avatar AV tourne uniquement autour d’un axe OZ perpendiculaire au plan contenant les droites OX et OY. En tournant, l’avatar décrit un angle a entre une droite perpendiculaire à la droite passant par ses yeux et l’axe OY par exemple. Si par exemple l’angle a = 30°, pour obtenir le point de vue de l’utilisateur, le terminal analyse les informations de l’image IM_2D_CUIS centrées sur l’angle a = 30° et réalise la fonction de conversion de l’image IM_2D_CUIS en un point de vue de l’avatar ayant une orientation spécifique (angle a = 30°) dans cette cuisine.As illustrated in FIG. 7a and in accordance with the example which has just been described, an image IM_2D_CUIS, after conversion P'4 by the terminal, represents a sphere ESP_3D_CUIS modeling a three-dimensional space, in which the AV avatar can rotate in all directions around a fixed point (for example the head), in order to have a plurality of views depending on the position of the avatar in this sphere. Figure 7b illustrates the example of Figure 7a, with a single degree of freedom for the avatar. In this particular case, the avatar AV rotates only around an axis OZ perpendicular to the plane containing the lines OX and OY. By turning, the avatar describes an angle a between a line perpendicular to the line passing through his eyes and the OY axis for example. If for example the angle a = 30 °, to obtain the point of view of the user, the terminal analyzes the information of the image IM_2D_CUIS centered on the angle a = 30 ° and performs the function of converting the image IM_2D_CUIS in a point of view of the avatar having a specific orientation (angle a = 30 °) in this kitchen.

[0093] Comme décrit à la figure 7c, et afin d’illustrer différemment l’exemple de la figure 7b, un avatar AV localisé au point Pc, ayant orienté son corps d’un angle a = 30°, se retrouve face à un autre avatar AV’. Le point de vue unique de l’avatar AV pour la valeur a = 30° calculé par le terminal sur la base de l’image IM_2D_CUIS est l’image Vue_AV_30° en trois dimensions restituée grâce au terminal TERM et à la cardboard CARD. Ce principe peut donc être généralisé avec deux degrés de liberté et donc deux angles a et β pour décrire l’ensemble de l’espace en trois dimensions. Dans ce cas, chaque point de vue de l’avatar dans l’espace ESP_3D_CUIS (figure 7a) correspond à un point de l’image IM_2D_CUIS transmise par le serveur ou l’ordinateur et vice versa. On peut donc affirmer qu’il y a donc autant de points de vue possibles que de pixels définissant l’image IM_2D_CUIS.As described in FIG. 7c, and in order to illustrate the example of FIG. 7b differently, an avatar AV located at point Pc, having oriented its body by an angle a = 30 °, finds itself facing a another AV avatar. The AV avatar's unique point of view for the value a = 30 ° calculated by the terminal on the basis of the IM_2D_CUIS image is the Vue_AV_30 ° three-dimensional image rendered using the TERM terminal and the CARD cardboard. This principle can therefore be generalized with two degrees of freedom and therefore two angles a and β to describe the whole of space in three dimensions. In this case, each point of view of the avatar in the ESP_3D_CUIS space (Figure 7a) corresponds to a point in the IM_2D_CUIS image transmitted by the server or the computer and vice versa. We can therefore say that there are therefore as many possible points of view as there are pixels defining the image IM_2D_CUIS.

[0094] A cet effet, comme représenté à la figure 8, l’utilisateur commande l’orientation du corps de l’avatar par l’intermédiaire des capteurs CAP_C de la cardboard CARD ou des capteurs CAP_T du terminal TERM. Les informations d’orientation de l’avatar sont stockées dans la mémoire MEM_T et traitées par le logiciel PG_T. L’unité de traitement UT_T du smartphone SMART recalcule une nouvelle vue en fonction des informations transmises par le logiciel PG_T. Ces informations représentatives de l’espace en trois dimensions intègrent toutes les données nécessaires à une vue panoramique (à 360 degrés sur deux degrés de liberté).To this end, as shown in FIG. 8, the user controls the orientation of the body of the avatar by means of the CAP_C sensors of the CARD cardboard or the CAP_T sensors of the TERM terminal. The orientation information of the avatar is stored in memory MEM_T and processed by the software PG_T. The processing unit UT_T of the SMART smartphone recalculates a new view according to the information transmitted by the PG_T software. This representative information of the space in three dimensions integrates all the data necessary for a panoramic view (360 degrees on two degrees of freedom).

[0095] Il va de soi que les modes de réalisation qui ont été décrits ci-dessus ont été donnés à titre purement indicatif et nullement limitatif, et que de nombreuses modifications peuvent être facilement apportées par l’homme de l’art sans pour autant sortir du cadre de l’invention.It goes without saying that the embodiments which have been described above have been given purely by way of indication and in no way limitative, and that numerous modifications can be easily made by those skilled in the art without thereby depart from the scope of the invention.

Claims (1)

Revendications Claims [Revendication 1] [Claim 1] Procédé d’interaction d’un utilisateur avec un environnement de réalité virtuelle, caractérisé en ce qu’il comprend ce qui suit, au niveau d’un terminal (TERM) : commander (COM) à un serveur (SERV) au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle, recevoir (REC), de la part dudit serveur (SERV), des données d’une vue représentative dudit espace en trois dimensions, extraire (EXTR) desdites données ladite au moins une image, convertir (CONV) ladite au moins une image en ladite vue, commander (REST) la restitution sur le terminal (TERM) de ladite vue. Method for the interaction of a user with a virtual reality environment, characterized in that it comprises the following, at the level of a terminal (TERM): order (COM) a server (SERV) at least one image of a three-dimensional space from the virtual reality environment, receive (REC), from said server (SERV), data from a view representative of said space in three dimensions, extract (EXTR) from said data said at least one image, convert (CONV) said at least one image into said view, order (REST) the rendering on the terminal (TERM) of said view. [Revendication 2] [Claim 2] Procédé selon la revendication 1, dans lequel la commande au serveur se déroule comme suit : pointer (POINT_C) sur une carte (CAR) représentant l’environnement de réalité virtuelle, transmettre (TRANSI) au serveur les coordonnées du pointage sur ladite carte (CAR). Method according to claim 1, in which the order to the server takes place as follows: point (POINT_C) on a map (CAR) representing the virtual reality environment, transmit (TRANSI) to the server the coordinates of the score on said card (CAR). [Revendication 3] [Claim 3] Procédé selon la revendication 1, dans lequel la commande au serveur se déroule comme suit : pointer (POINT_E) sur un endroit d’une vue, convertir (CONV_V) ladite vue intégrant l’endroit pointé en un fichier de données interprétable par ledit serveur (SERV), transmettre (TRANS2) audit serveur (SERV) ledit fichier de données. Method according to claim 1, in which the order to the server takes place as follows: point (POINT_E) to a place in a view, convert (CONV_V) said view integrating the location pointed to a data file interpretable by said server (SERV), transmit (TRANS2) to said server (SERV) said data file. [Revendication 4] [Claim 4] Procédé selon la revendication 1 dans lequel, à partir des données de ladite vue, extraire (INF) des informations descriptives d’au moins un objet et/ou d’au moins un avatar de l’espace à trois dimensions. Method according to claim 1, in which, from the data of said view, extract (INF) descriptive information from at least one object and / or from at least one avatar of three-dimensional space. [Revendication 5] [Claim 5] Procédé selon la revendication 1, dans lequel ladite vue est fonction de l’orientation (ORT) d’un objet ou d’un avatar dans ledit espace en trois dimensions. The method of claim 1, wherein said view is a function of the orientation (ORT) of an object or an avatar in said three-dimensional space. [Revendication 6] [Claim 6] Terminal adapté pour l’interaction d’un utilisateur avec un environnement de réalité virtuelle, ledit terminal étant caractérisé en ce qu’il comprend un processeur (PROC_T) qui est configuré pour mettre en œuvre ce qui suit : commander à un serveur au moins une image d’un espace en trois dimensions issu de l’environnement de réalité virtuelle, recevoir, de la part dudit serveur, des données d’une vue représentative dudit espace en trois dimensions, Terminal adapted for the interaction of a user with a virtual reality environment, said terminal being characterized in that it comprises a processor (PROC_T) which is configured to implement the following: command a server at least one image of a three-dimensional space originating from the virtual reality environment, receiving, from said server, data from a representative view of said three-dimensional space,
extraire desdites données ladite au moins une image, convertir ladite au moins une image en ladite vue, commander la restitution sur le terminal de ladite vue. extracting said data from said at least one image, converting said at least one image into said view, ordering the rendering of said view on the terminal. [Revendication 7] [Claim 7] Programme d'ordinateur comprenant des instructions de code de programme pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 5, lorsqu'il est exécuté sur un ordinateur. Computer program comprising program code instructions for carrying out the steps of the method according to any one of claims 1 to 5, when executed on a computer. [Revendication 8] [Claim 8] Support d'informations lisible par un ordinateur et comportant des instructions d'un programme d'ordinateur selon la revendication 7. Information medium readable by a computer and comprising instructions of a computer program according to claim 7.
1/51/5
FR1873882A 2018-12-21 2018-12-21 Method of user interaction with a virtual reality environment Pending FR3090941A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1873882A FR3090941A1 (en) 2018-12-21 2018-12-21 Method of user interaction with a virtual reality environment
PCT/FR2019/052937 WO2020128206A1 (en) 2018-12-21 2019-12-05 Method for interaction of a user with a virtual reality environment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1873882A FR3090941A1 (en) 2018-12-21 2018-12-21 Method of user interaction with a virtual reality environment

Publications (1)

Publication Number Publication Date
FR3090941A1 true FR3090941A1 (en) 2020-06-26

Family

ID=66867299

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1873882A Pending FR3090941A1 (en) 2018-12-21 2018-12-21 Method of user interaction with a virtual reality environment

Country Status (2)

Country Link
FR (1) FR3090941A1 (en)
WO (1) WO2020128206A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111640179B (en) * 2020-06-26 2023-09-01 百度在线网络技术(北京)有限公司 Display method, device, equipment and storage medium of pet model

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
US20140267408A1 (en) * 2013-03-15 2014-09-18 daqri, inc. Real world analytics visualization
US20160225189A1 (en) * 2015-02-04 2016-08-04 Seiko Epson Corporation Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program
FR3056770A1 (en) * 2016-09-28 2018-03-30 Immersion DEVICE AND METHOD FOR IMMERSION SHARING IN A VIRTUAL ENVIRONMENT

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120249416A1 (en) * 2011-03-29 2012-10-04 Giuliano Maciocci Modular mobile connected pico projectors for a local multi-user collaboration
US20140267408A1 (en) * 2013-03-15 2014-09-18 daqri, inc. Real world analytics visualization
US20160225189A1 (en) * 2015-02-04 2016-08-04 Seiko Epson Corporation Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program
FR3056770A1 (en) * 2016-09-28 2018-03-30 Immersion DEVICE AND METHOD FOR IMMERSION SHARING IN A VIRTUAL ENVIRONMENT

Also Published As

Publication number Publication date
WO2020128206A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
US10950020B2 (en) Real-time AR content management and intelligent data analysis system
US10347028B2 (en) Method for sharing emotions through the creation of three-dimensional avatars and their interaction
US9727995B2 (en) Alternative representations of virtual content in a virtual universe
US10506003B1 (en) Repository service for managing digital assets
CA2962825C (en) User interaction analysis module
US20170286993A1 (en) Methods and Systems for Inserting Promotional Content into an Immersive Virtual Reality World
US8913170B1 (en) Cameras for computing devices
CN103502974A (en) Employing mesh files to animate transitions in client applications
US20200302695A1 (en) Presenting an augmented reality interface
US20220254114A1 (en) Shared mixed reality and platform-agnostic format
US20150341541A1 (en) Methods and systems of remote acquisition of digital images or models
US11430158B2 (en) Intelligent real-time multiple-user augmented reality content management and data analytics system
US11553087B1 (en) Communication session using a virtual environment
WO2020128206A1 (en) Method for interaction of a user with a virtual reality environment
US20230164298A1 (en) Generating and modifying video calling and extended-reality environment applications
WO2017194777A1 (en) System for the creation and deployment of multiplatform applications
US10888777B2 (en) Deep learning from real world and digital exemplars
EP2987319A1 (en) Method for generating an output video stream from a wide-field video stream
Du Fusing multimedia data into dynamic virtual environments
US20240029366A1 (en) Digital content platform including methods and system for recording and storing digital content
FR3084498A1 (en) SYSTEMS AND METHODS FOR IMPROVED INTERACTION IN AN INCREASED REALITY APPLICATION
CH711803A2 (en) Interactive mirror surface interaction method
Zilizi et al. Challenges of developing mobile versions for high performance desktop VR applications
WO2024015917A1 (en) Incremental scanning for custom landmarkers
FR3137770A1 (en) SYSTEMS AND METHODS FOR INTERACTIVE RENDERING OF A VIRTUAL ENVIRONMENT ON A USER DEVICE HAVING LIMITED COMPUTATIONAL CAPACITY

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200626

RX Complete rejection

Effective date: 20210215