FR3121251A3 - Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur - Google Patents

Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur Download PDF

Info

Publication number
FR3121251A3
FR3121251A3 FR2102906A FR2102906A FR3121251A3 FR 3121251 A3 FR3121251 A3 FR 3121251A3 FR 2102906 A FR2102906 A FR 2102906A FR 2102906 A FR2102906 A FR 2102906A FR 3121251 A3 FR3121251 A3 FR 3121251A3
Authority
FR
France
Prior art keywords
touch screen
orientation
detection
dimensional model
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2102906A
Other languages
English (en)
Other versions
FR3121251B3 (fr
Inventor
Adrien Sadaka
Basile Segalen
Victor-Laszlo Odilon DE KISS DE NEMESKER
Jacques Léo Simon LAPARRA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Timescope
Original Assignee
Timescope
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Timescope filed Critical Timescope
Priority to FR2102906A priority Critical patent/FR3121251B3/fr
Publication of FR3121251A3 publication Critical patent/FR3121251A3/fr
Application granted granted Critical
Publication of FR3121251B3 publication Critical patent/FR3121251B3/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Le procédé informatisé de navigation en réalités virtuelles, comprend l’affichage sur un écran tactile (7) d’un dispositif informatisé portatif (2) géolocalisé d’une première portion d’un premier modèle tridimensionnel, la détection d’une première interaction avec l’écran tactile (7), le déplacement du premier modèle tridimensionnel par rapport au dispositif informatisé portatif (2), la détection d’une deuxième interaction avec l’écran tactile (7), l’affichage sur l’écran tactile (7) d’une première portion d’un deuxième modèle tridimensionnel. Figure pour l’abrégé : figure 1

Description

Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur
DOMAINE DE L’INVENTION
La présente invention se rapporte au domaine des systèmes et procédés de navigation en réalité virtuelle.
ARRIÈRE-PLAN TECHNOLOGIQUE
On appelle « réalité augmentée » un système dans lequel un contenu multimédia au moins visuel est affiché sur un écran transparent laissant voir derrière l’écran l’environnement réel, le contenu visuel étant affiché dans une position de l’écran simulant une position d’un objet représenté par le contenu visuel dans l’environnement réel.
Par contraste, on appelle « réalité virtuelle » dans le cadre de la présente invention un système dans lequel le contenu visuel est affiché sur un écran opaque (ou rendu opaque par cet affichage, de sorte que l’environnement réel derrière l’écran n’est plus visible. Les systèmes de « réalité virtuelle » sont par conséquent traditionnellement immersifs, et mis en œuvre dans des casques optiquement opaques, de manière à justement interdire l’environnement réel d’interférer, de manière cognitive, avec le contenu multimédia. Il en résulte que le contenu multimédia peut correspondre à un univers extrêmement différent de l’univers réel, en terme de représentation graphique, d’orientation dans l’espace, …
Un des besoins des systèmes de réalité virtuelle est de mettre en œuvre une interaction avec l’utilisateur qui soit la plus fluide et naturelle possible. Par « interaction », on se rapporte ici à la mise en œuvre technique du système, par exemple le lancement, la terminaison, ou les réglages d’une expérience en réalité virtuelle. En effet, comme l’utilisateur doit s’évader intellectuellement dans le contenu multimedia diffusé, le fait de devoir réaliser des réglages ou des commandes, par exemple par des interactions physiques avec le casque de réalité virtuelle, ou des affichages de menu pour des sélections, rompt le processus immersif dans lequel l’utilisateur baigne.
L’invention vise ainsi à fluidifier les interactions d’un utilisateur avec un contenu de réalité virtuelle.
Ainsi, l’invention se rapporte à un procédé informatisé de navigation en réalités virtuelles, comprenant :
. l’affichage sur un écran tactile d’un dispositif informatisé portatif géolocalisé avec une position et une orientation, d’une première image correspondant à une première portion d’un premier modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du premier modèle tridimensionnel,
. la détection d’une première interaction avec l’écran tactile,
. suite à la détection de la première interaction avec l’écran tactile, déplacement du premier modèle tridimensionnel par rapport au dispositif informatisé portatif, générant l’affichage sur l’écran tactile d’une deuxième image correspondant à une deuxième portion du premier modèle tridimensionnel,
. la détection d’une deuxième interaction avec l’écran tactile,
. suite à la détection de la deuxième interaction avec l’écran tactile, affichage sur l’écran tactile, d’une première image correspondant à une première portion d’un deuxième modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du deuxième modèle tridimensionnel.
On observera en premier lieu que l’invention, bien que répondant à la définition de la « réalité virtuelle » au sens de la définition donnée ci-dessus, s’inscrit dans un contexte plus large de réalité augmentée. En effet, l’invention est mise en œuvre sur un dispositif portatif informatisé (de type ordiphone, ou « smartphone ») n’isolant pas l’utilisateur du monde extérieur dans une barrière opaque. Typiquement, l’invention est mise en œuvre sans casque, simplement en tenant le « smartphone » dans sa main. Le contenu multimédia diffusé est un contenu positionné et orienté qui s’inscrit dans l’environnement réel avec une certaine continuité. Ainsi, bien que répondant à la définition donnée ci-dessus de « réalité virtuelle », l’invention permet d’augmenter la réalité en fournissant un contenu multimédia qui s’inscrit dans le monde réel, et n’est pas complètement décorrélé du monde réel.
Grâce à ces dispositions, l’utilisateur peut accéder facilement à une gamme de contenus alternatifs en réalité virtuelle s’intégrant dans le monde réel par des interactions simples et fluides. Il en résulte une immersion accrue de l’utilisateur dans le multimédia, et par conséquent une expérience cognitive améliorée.
Selon différents aspects, il est possible de prévoir l’une et/ou l’autre des caractéristiques ci-dessous prises seules ou en combinaison.
Selon une réalisation, la détection de la première interaction et/ou la détection de la deuxième interaction comprennent chacun l’un et/ou l’autre de :
- la détection d’un contact entre l’usager et l’écran tactile,
- la détection d’un contact ponctuel entre l’usager et l’écran tactile,
- la détection d’un contact comprenant au moins deux contacts ponctuels disjoints entre l’usager et l’écran tactile,
- la détection d’un mouvement relatif entre l’usager et l’écran tactile,
- la détection d’un mouvement relatif selon une trajectoire prédéterminée entre l’usager et l’écran tactile,
- la détection d’un mouvement relatif d’une amplitude prédéterminée entre l’usager et l’écran tactile,
un processeur est adapté pour discriminer entre la détection de la première interaction et la détection de la deuxième interaction..
Selon une réalisation,le procédé de navigation comprend la détermination répétée d’une position et d’une orientation du dispositif informatisé portatif.
Selon une réalisation, le procédé comprend la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif, puis ladite détermination répétée d’une position et d’une orientation du dispositif informatisé portatif à partir de ladite détermination initiale et des déplacements mesurés du dispositif informatisé portatif.
Selon une réalisation, le procédé comprend la répétition de la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif à une fréquence inférieure à une fréquence de détermination d’une position et d’une orientation du dispositif informatisé portatif.
Selon une réalisation, la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif comprend la détection optique et la reconnaissance d’une étiquette géolocalisée.
Selon une réalisation, l’affichage sur l’écran tactile de la première image correspondant à une première portion du deuxième modèle tridimensionnel est simultanée et juxtaposée à l’affichage sur l’écran tactile de la première image correspondant à une première portion du premier modèle tridimensionnel.
Selon une réalisation, l’affichage sur ledit écran tactile de la première image correspondant à la première portion du premier modèle tridimensionnel est autorisé en fonction de la distance entre le dispositif informatisé portatif géolocalisé et un point central d’intérêt.
Selon une réalisation, l’actionnement d’un point d’intérêt d’un modèle tridimensionnel déclenche l’affichage d’un contenu multimédia additionnel associé à ce point d’intérêt.
Selon une réalisation, l’actionnement du point d’intérêt est réalisé par la détection d’une troisième interaction avec l’écran tactile et/ou par la mise en correspondance d’une région d’activation liée au dispositif informatisé portatif avec une représentation graphique du point d’intérêt.
Selon une réalisation, le déplacement comprend une modification de position, d’orientation et/ou de grossissement.
Selon un aspect, l’invention se rapporte à des programmes d’ordinateur comprenant des portions de code de programme pour l’exécution des étapes de ces procédés lorsque lesdits programmes sont exécutés sur des ordinateurs.
Selon un autre aspect, l’invention se rapporte à un système informatisé de navigation en réalités virtuelles, comprenant :
. un dispositif informatisé portatif géolocalisé avec une position et une orientation comprenant un écran tactile adapté pour l’affichage d’une première image correspondant à une première portion d’un premier modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du premier modèle tridimensionnel,
le dispositif informatisé portatif géolocalisé étant adapté pour détecter une première interaction avec l’écran tactile,
le dispositif informatisé portatif géolocalisé étant adapté, suite à la détection de la première interaction avec l’écran tactile, pour déplacer le premier modèle tridimensionnel par rapport au dispositif informatisé portatif, générant l’affichage sur l’écran tactile d’une deuxième image correspondant à une deuxième portion du premier modèle tridimensionnel,
le dispositif informatisé portatif géolocalisé étant adapté pour détecter une deuxième interaction avec l’écran tactile,
le dispositif informatisé portatif géolocalisé étant adapté, suite à la détection de la deuxième interaction avec l’écran tactile, pour afficher sur l’écran tactile une première image correspondant à une première portion d’un deuxième modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du deuxième modèle tridimensionnel.
Des modes de réalisation de l’invention seront décrits ci-dessous par référence aux dessins, décrits brièvement ci-dessous :
représente schématiquement un système pour la mise en œuvre de l’invention.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un environnement réel dans lequel est présent un ordiphone.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un ordiphone à une étape de mise en œuvre du service.
représente un environnement réel.
représente un ordiphone à une étape de mise en œuvre du service selon une variante.
représente un ordiphone à une étape de mise en œuvre du service selon une variante.
Sur les dessins, des références identiques désignent des objets identiques ou similaires.
DESCRIPTION DÉTAILLÉE
L’invention concerne un procédé et un système de navigation en réalité virtuelle.
Comme représenté sur la , le système de navigation en réalité virtuelle comprend un serveur 1 et une pluralité de dispositifs électroniques portatifs communiquant 2. Le serveur 1 et un dispositif électronique portatif communiquant 2 sont dotés d’un système de communication 3 (représenté en pointillés sur la , car interne au dispositif électronique portatif communiquant 2) leur permettant de communiquer l’un avec l’autre par l’intermédiaire d’un réseau 4. On privilégie une communication sans fil.
Chaque dispositif électronique portatif communiquant 2 comprend un processeur 5. Chaque dispositif électronique portatif communiquant 2 comprend un système de géolocalisation 6 adapté pour déterminer la position et l’orientation du dispositif électronique portatif communiquant 2 dans l’espace. Il existe diverses technologies pour le système de géolocalisation 6. Selon un mode de réalisation, on peut utiliser un système de positionnement par satellite, par exemple du type connu sous l’acronyme « GPS » (expression anglaise « Global positioning system » traduite en français par « système mondial de positionnement »). En alternative ou en complément, le système de géolocalisation 6 comprend un système inertiel (et/ou magnétomètre) adapté pour détecter les accélérations subies par le dispositif électronique portatif communiquant 2, et pour en déterminer la position et l’orientation par double intégration en prenant en compte une position et une vitesse initiale.
La position peut être une position dans les trois dimensions de l’espace. En variante, la position peut être une position bidimensionnelle dans un plan moyen, notamment un plan horizontal moyen, l’information de hauteur selon un axe vertical n’étant alors pas prise en compte en terme de position.
Le dispositif électronique portatif communiquant 2 comprend également un capteur optique 41 (représenté en pointillé sur la , car du côté du dispositif électronique portatif communiquant 2 opposé à l’écran 7). Le dispositif électronique portatif communiquant 2 comprend également un écran tactile 7. L’écran tactile 7 permet d’une part d’afficher une image, et d’autre part de recevoir une commande par détection d’une interaction entre l’écran tactile et un objet extérieur à proximité ou en contact, comme par exemple un doigt d’un utilisateur ou un stylet.
Le dispositif électronique portatif communiquant 2 est par exemple un ordiphone d’un utilisateur (également connu par l’appellation anglaise « smartphone »).
Le dispositif électronique portatif communiquant 2 comprend un programme d’ordinateur adapté pour mettre en œuvre les étapes du procédé qui sera décrit ci-dessous.
Le cas échéant, si nécessaire, si le programme d’ordinateur n’est pas présent dans le dispositif électronique portatif communiquant 2, il est possible de télécharger ce programme d’ordinateur dans le dispositif électronique portatif communiquant 2 via un réseau.
Le serveur 1 comprend un programme d’ordinateur. Le procédé qui est décrit ci-dessous est mis en œuvre par le programme d’ordinateur du dispositif électronique portatif communiquant 2 et le programme d’ordinateur du serveur 1. Bien que, dans le mode de réalisation qui suit, une répartition des tâches soit présentée entre les tâches réalisées par le programme d’ordinateur du dispositif électronique portatif communiquant 2 et les tâches réalisées par le programme d’ordinateur du serveur 1, cette répartition est illustrative seulement. Etant donné que le dispositif électronique portatif communiquant 2 et le serveur 1 communiquent entre eux, d’autres répartitions sont envisageables.
Dans ce qui suit, le système est présenté en faisant référence à un unique dispositif électronique portatif communiquant 2 et un unique serveur 1. Toutefois, un serveur 1 peut échanger avec plusieurs dispositifs électroniques portatifs communiquant 2 en parallèle, chaque dispositif électronique portatif communiquant 2 bénéficiant alors du service prodigué par le serveur 1. De plus, selon le besoin, on peut utiliser plusieurs serveurs 1 pour échanger chacun avec un groupe de dispositifs électroniques portatifs communiquant 2.
L’invention est présentée ci-après dans son application à un point central d’intérêt 8. Selon ce mode de réalisation, un point central d’intérêt 8 est un observatoire présentant une certaine position. Le système comprend également une base de données stockant des informations. La base de données stocke des informations relatives à des points d’intérêt 9. Les points d’intérêt sont caractérisés par leur position enregistrée dans la base de données.
La présente description est réalisée pour un point central d’intérêt 8 en particulier. Toutefois, l’invention peut être mise en œuvre pour une pluralité de points centraux d’intérêt.
La position et l’orientation du dispositif électronique portatif communiquant 2 sont ré-évaluées régulièrement, par exemple périodiquement.
Le présent système utilise des calculs de distance entre deux positions. Différentes distances peuvent être utilisées dans le cadre de l’invention, comme par exemple une distance euclidienne. La notion de proximité entre deux positions peut être définie comme étant la distance entre ces deux positions inférieure à un certain seuil, par exemple prédéterminé. Le seuil peut être différent selon les proximités évaluées. Le seuil peut, le cas échéant, être paramétré. La notion d’éloignement entre deux positions peut être définie comme étant la distance entre ces deux positions supérieure à un certain seuil, par exemple prédéterminé. Le seuil peut être différent selon les éloignements évalués. Le seuil peut, le cas échéant, être paramétré.
Si la coordonnée verticale n’est pas prise en compte pour la position du dispositif électronique portatif communiquant 2, la distance peut par exemple être une distance mesurée dans le plan horizontal.
Lorsque le programme d’ordinateur est exécuté, lors d’une première phase, la position du dispositif électronique portatif communiquant 2 est comparée avec la position d’au moins un point central d’intérêt 8. Si la position du dispositif électronique portatif communiquant 2 est proche de la position du point central d’intérêt, alors le procédé peut avancer vers une deuxième phase associée au point central d’intérêt 8 présentée ci-dessous. Au contraire, si la position du dispositif électronique portatif communiquant 2 est éloignée de la position du point central d’intérêt, alors le procédé peut avancer vers une procédure d’exception qui sera décrite plus loin.
La présente l’affichage fourni sur l’écran tactile 7 du dispositif électronique portatif communiquant 2 dans le cas où la position du dispositif électronique portatif communiquant 2 est proche de la position du point central d’intérêt. Dans l’exemple présenté, le point central d’intérêt est la Tour Montparnasse à Paris, en France. L’écran d’affichage présente alors par exemple des informations relatives au point central d’intérêt, sous format multimédia, comme par exemple une image 9, un texte 10, voire des contenus audio-visuels.
Comme visible sur la , l’affichage présente un certain nombre de boutons susceptibles d’être activés par l’utilisateur via l’écran tactile pour déclencher certaines étapes de processus. Dans cet exemple figurent par exemple les boutons 11, 12 et 13. Le processeur détecte une interaction de l’utilisateur avec l’écran tactile et, en fonction de l’interaction détectée, peut commander une prochaine étape de processus.
Notamment, l’écran tactile comprend un certain nombre de capteurs qui peuvent chacun détecter la proximité ou le contact d’une surface d’actionnement. Le traitement informatisé des signaux émis permet de déterminer une interaction de l’utilisateur avec l’écran tactile. Par exemple, si un utilisateur appuie avec son doigt sur une zone de l’écran tactile, puis retire son doigt, un certain nombre de capteurs vont envoyer, au cours du temps, un ensemble de signaux au processeur. Par exemple, à l’approche du doigt, un petit nombre de capteurs vont émettre un signal. Quand le doigt appuie franchement sur la surface, un plus grand nombre de capteurs va émettre un signal. Puis, à l’inverse, quand le doigt est retiré, un petit nombre de capteurs vont émettre un signal. Ces signaux peuvent être traités et interprétés comme un appui de l’utilisateur sur une zone donnée du capteur. La zone peut être caractérisée par des coordonnées dans le plan du capteur.
Par « interaction », on peut désigner un appui comme décrit ci-dessus, ou d’autres interactions. Par exemple, on peut désigner un double appui si deux zones disjointes du capteur font sensiblement simultanément l’objet d’un appui. « sensiblement simultané » est défini selon les applications. On peut également détecter un mouvement à la surface de l’écran tactile. Un mouvement est caractérisé par une trajectoire au cours du temps.
Pour revenir à la , celle-ci comporte par exemple un bouton 11 de validation, permettant à l’utilisateur de valider qu’il souhaite accéder à la suite du procédé en relation avec le point central d’intérêt présenté. Le bouton 11 de validation peut être activé (comme représenté dans le cas présent) pour autoriser l’utilisateur à valider, ou désactivé, auquel cas l’utilisateur peut bien voir le bouton, mais ne peut pas l’actionner.
La comporte également un ou des boutons de navigation 13 permettant à l’utilisateur de naviguer parmi les points centraux d’intérêts disponibles.
A l’activation d’un bouton de navigation, l’affichage présentera un contenu multimédia associé à un autre point central d’intérêt. Dans le cas présent où l’utilisateur est proche de la Tour Montparnasse, le bouton 11 de validation sera désactivé pour les autres points centraux d’intérêt.
La comporte également un ou des boutons 12 de langue permettant à l’utilisateur de choisir la langue du contenu multimédia (deux boutons disponibles sur la : français et anglais). L’affichage met en exergue le bouton sélectionné. La langue du contenu multimédia diffusé dépendra du bouton 12 sélectionné.
Le procédé se poursuit une fois que l’utilisateur a sélectionné le bouton 11 de validation.
Selon certains modes de réalisation, une étape de calibration peut être mise en œuvre.
Selon un exemple, l’utilisateur peut être mis à contribution pour la calibration du système.
La représente schématiquement le point central d’intérêt 8 affiché sur l’écran tactile 7.
La représente l’affichage sur l’écran tactile 7 suite à l’étape précédente.
La affiche un plan bidimensionnel géolocalisé des environnements du dispositif électronique portatif communiquant 2. Ainsi, en fonction de la position et de l’orientation du dispositif électronique portatif communiquant 2, une fraction d’un plan des alentours est affichée sur l’écran tactile 7. L’affichage correspond à une projection dans le plan de l’écran tactile 7 d’un plan bidimensionnel des alentours.
Ainsi, si le dispositif électronique portatif communiquant 2 est déplacé, l’affichage du plan est mis à jour.
Le contenu multimedia comprend également des représentations graphiques 14 de points d’intérêt dans le voisinage du point central d’intérêt 8.
Le contenu multimedia peut également comprendre une représentation tridimensionnelle 18 du point central d’intérêt 8. Cette représentation tridimensionnelle 18 peut être représentée à une échelle différente du plan bidimensionnel pour permettre de représenter à l’écran plus d’informations pertinentes. La représentation tridimensionnelle 18 est également géolocalisée. Ainsi, si le dispositif électronique portatif communiquant 2 est déplacé, l’affichage de la représentation tridimensionnelle est mis à jour.
Cet affichage peut également comporter des boutons d’activation 15, 16, 17. Les boutons d’activation 15, 16, 17 sont positionnés soit de manière fixe sur l’écran, soit dans une position à proximité d’un point d’intérêt, de manière à être déplacés en même temps que le point d’intérêt si le dispositif électronique portatif communiquant 2 est déplacé.
Par exemple, l’affichage présente un bouton d’activation 15 associé à la représentation tridimensionnelle 18, et permettant, si activé, d’accéder à un contenu multimédia additionnel relatif au point central d’intérêt.
Par exemple, l’affichage présente un bouton d’activation 16 permettant d’accéder à un premier contenu multimédia en réalité virtuelle associé au point central d’intérêt.
Par exemple, l’affichage présente un bouton d’activation 17 permettant d’accéder à un contenu multimédia additionnel relatif au point central d’intérêt.
Dans certains modes de réalisation, en cas de proximité détectée entre le dispositif électronique portatif communiquant 2 et l’observatoire, le procédé avance jusqu’à une étape d’affichage du premier contenu multimédia en réalité virtuelle, qui sera présenté plus en détail ci-après.
La représente en vue immersive ce qui est vu par l’utilisateur au niveau de l’observatoire. Ainsi, l’utilisateur voit la vue panoramique 19, présentant un horizon 20 et des points d’intérêt à observer (représentés schématiquement).
Comme représenté sur la , l’utilisateur tient également devant lui son dispositif électronique portatif communiquant 2. La présentation qui suit représente le dispositif électronique portatif communiquant 2 en mode portrait, mais l’invention est également applicable à un mode paysage, auquel cas la position des boutons peut être adaptée à la nouvelle orientation du dispositif électronique portatif communiquant 2.
Le contenu multimédia en réalité virtuelle comprend une représentation tridimensionnelle géolocalisée des alentours du point central d’intérêt. Dans le cas présent, il s’agit de Paris, voire ses environs.
La représentation tridimensionnelle géolocalisée s’étend dans une portion de sphère autour du point central d’intérêt. La sphère est géolocalisée en ce que le centre de la sphère a une position, et que la représentation tridimensionnelle présente une orientation prédéfinie définie par un repère lié à la sphère. Ainsi, la représentation tridimensionnelle comprend des objets géométriques présentant des coordonnées dans un repère.
La portion du modèle tridimensionnel affichée sur l’écran tactile correspond donc à l’intersection du modèle tridimensionnel avec un cône de sommet le dispositif informatisé portatif géolocalisé, et de génératrice le contour de l’écran tactile 7, dont la position et l’orientation sont connues. Par cette mise en correspondance de la position et de l’orientation du modèle tridimensionnel d’une part, et du dispositif informatisé portatif géolocalisé 2 d’autre part, la portion du modèle tridimensionnel affichée sur l’écran tactile 7 s’intègre de manière concordante à ce qui est vu par l’utilisateur. L’échelle de la portion affichée du modèle tridimensionnel peut être prédéfinie. De plus, elle peut être ajustable par l’utilisateur d’une manière qui sera décrite ci-dessous.
Si le dispositif électronique portatif communiquant 2 est déplacé (changement de position ou d’orientation), ce déplacement est pris en compte pour modifier la portion du modèle tridimensionnel affichée sur l’écran tactile 7.
Ce système permet ainsi de visualiser sur l’écran tactile 7 une représentation graphique associée à la portion du panorama située derrière le dispositif électronique portatif communiquant 2.
La représente le seul dispositif électronique portatif communiquant 2 représenté dans son contexte sur la .
La représente des boutons 21 et 22 susceptibles d’être actionnés par une interaction de l’utilisateur avec l’écran tactile 7. L’actionnement d’un bouton est réalisé quand le processeur détecte une interaction prédéfinie entre un usager et une portion de l’écran tactile 7 où est situé le bouton. Ces boutons 21 et 22 sont positionnés de manière fixe dans le repère de l’écran tactile 7, indépendamment du déplacement du dispositif électronique portatif communiquant 2. Selon un exemple, le bouton 21 de fermeture permet, quand il est actionné, de sortir de la visualisation tridimensionnelle et d’afficher un contenu multimédia non dynamiquement lié à la position et l’orientation du dispositif électronique portatif communiquant 2.
Selon un exemple, le bouton 22 de menu permet, quand il est actionné, de superposer à la visualisation tridimensionnelle un contenu multimédia non dynamiquement lié à la position et l’orientation du dispositif électronique portatif communiquant 2, et susceptible d’être activé pour paramétrer le service ou accéder à d’autres contenu multimédia.
La représente également un bouton 23 lié à la représentation tridimensionnelle 18. Ce bouton 23 est associé à un point d’intérêt visible sur la représentation tridimensionnelle.
Bien que, sur la figue 6, ce bouton 23 soit représenté au centre de l’écran, un déplacement du dispositif électronique portatif communiquant 2 entrainera une modification de la portion de représentation tridimensionnelle représentée et, par conséquent de position du bouton 23.
Le bouton 23 peut être actionné à tout moment par l’utilisateur, pour donner accès à un contenu multimédia associé au bouton 23 et, par conséquent, au point d’intérêt.
En variante ou en complément, la position du bouton 23 dans le plan de l’écran tactile est estimée de manière répétée au cours du temps, et si le processeur détecte que le bouton 23 est resté dans une région prédéterminée de l’écran tactile pendant une durée de temps prédéterminée, le contenu multimédia associé au bouton 23 sera accéder sans que l’utilisateur ait besoin d’interagir avec l’écran tactile 7. La région prédéterminée est par exemple une région centrale de l’écran tactile (à l’intérieur d’une forme géométrique (cercle, ellipse, polygone) prédéterminée disposée par rapport au point central de l’écran, ou par rapport à un point prédéfini de l’écran).
Le cas échéant, la forme géométrique est représentée à l’écran pour aider l’utilisateur à maintenir le bouton 2 à l’intérieur de la forme pendant une durée suffisante.
Comme représenté sur la , en cas d’actionnement du bouton 23, soit par interaction avec une surface d’actionnement, soit par association avec un point d’intérêt, un contenu multimédia est diffusé. Le contenu multimédia comprend par exemple des éléments graphiques 24 qui sont affichés, notamment dont la position d’affichage sur l’écran est associée à la position de la représentation du point d’intérêt. Dans l’exemple présenté où le point d’intérêt est la tour Eiffel, l’élément graphique mentionne, dans la version anglaise, « the Eiffel tower » (en français : « la tour Eiffel »).
Le contenu multimédia peut notamment comprendre une diffusion d’une suite de contenus graphiques et de sons assujettis à une temporisation. Ainsi, selon un mode de réalisation, spontanément, un autre élément graphique 25 sera affiché, comme représenté sur la . Par exemple, dans l’exemple présenté, relativement à la tour Eiffel, il est indiqué, dans la version anglaise « is named after the engineer Gustave Eiffel » (dans la version française : « ainsi baptisée d’après l’ingénieur Gustave Eiffel »).
En variante, la suite de contenus peut être déclenchée par actionnement d’un bouton tactile, par exemple l’élément graphique 24 peut être associé à un bouton dont l’actionnement par une surface d’actionnement déclenche l’affichage ducontenu suivant.
Pendant la diffusion du contenu multimédia, si la position et l’orientation du dispositif électronique portatif communiquant 2 changent, la représentation graphique du modèle tridimensionnel à l’écran est modifiée en fonction.
Comme représenté sur les figures 7 et 8, le contenu multimédia peut également comprendre un bouton 26 dont la position ne dépend pas de la position du dispositif électronique portatif communiquant. Ce bouton 26, portant la mention « learn more » en version anglaise (« en savoir plus » en version française), permet d’accéder à un contenu multimédia additionnel. Dans ce cas, la diffusion du contenu multimédia décrite ci-dessus en relation avec la est interrompue.
La représente un exemple d’affichage obtenu après actionnement du bouton 26. Dans cet exemple, une fenêtre multimédia 27 est diffusée à l’écran, qui n’est pas associée à la position du dispositif électronique portatif communiquant. Un fond d’une partie de la fenêtre multimédia 27 est translucide, de manière à voir apparaître en dessous la représentation tridimensionnelle. Un ascenseur 28 permet de faire défiler la fenêtre multimédia sur l’écran, et un bouton de fermeture 29 permet de revenir à la fenêtre précédente. Dans ce cas, la diffusion du multimédia reprend de là où elle avait été interrompue.
La représente un exemple d’affichage à l’écran du dispositif électronique portatif communiquant 2. Comme visible sur la , l’affichage présente des boutons 30, 31, 32, 33, 34, 35, 36, 37, qui seront décrits plus en détails ci-après.
Les boutons 30, 31 et 32 représentent des points d’intérêts visible sur la portion affichée de la représentation tridimensionnelle, tel que décrit ci-dessus en relation avec le bouton 23.
Les boutons 44 et 45 sont utilisés pour déplacer la représentation tridimensionnelle par rapport au dispositif électronique portatif communiquant 2. Dans le cas présent, il est choisi d’utiliser un bouton de commande 44 pour mettre en œuvre cette fonction. Le bouton de commande 44 est fourni en bordure d’écran, de manière à ne pas interférer avec l’affichage de points d’intérêt. Le bouton de commande 44, lorsqu’il est actionné, déclenche l’apparition de boutons de déplacement 45. Dans cet exemple, les boutons de déplacement 45 ne sont pas visibles ni activables tant que le bouton de commande n’a pas été activé. Les boutons de déplacement 45 sont affichés dans une région centrale de l’écran. Dans le cas présent, une pluralité de boutons de déplacement 45 disjoints, au moins deux, est utilisée pour mettre en œuvre cette fonction. Ainsi, la fonction de déplacement de la représentation tridimensionnelle ne peut être mise en œuvre que de manière non ambiguë, quand il est détecté une interaction simultanée de l’utilisateur avec deux zones prédéfinies de l’écran tactile 7.
Suite à la détection de cette interaction, s’il est détecté un mouvement d’au moins une surface d’actionnement sur la surface de l’écran tactile 7 à partir de cette position, un déplacement (notamment une rotation) du modèle tridimensionnel par rapport au dispositif électronique portatif communiquant 2 est généré en fonction du mouvement détecté. Pendant ce déplacement, les boutons point d’intérêt sont désactivés, de sorte qu’aucun multimédia additionnel relatif à un point d’intérêt ne peut être affiché lors du déplacement.
Au bout d’une durée prédéterminée pendant laquelle plus aucune interaction n’est détectée avec les boutons 45, ceux-ci sont désaffichés, et le système retourne en mode navigation en réalité virtuelle.
La présente également un bouton grossissement 46. Le bouton grossissement 46 peut être utilisé pour modifier l’échelle de la portion d’image représentée. Il peut ainsi être utilisé soit pour que l’utilisateur mette en correspondance l’affichage de la réalité virtuelle avec l’environnement extérieur, soit pour zoomer vers ou dézoomer d’une portion de l’image. Selon un mode de réalisation, on détecte une interaction avec le bouton grossissement 46, ce qui permet d’afficher une échelle sur laquelle l’utilisateur peut sélectionner le niveau de grossissement souhaité. Le cas échéant, cette sélection se fait de manière continue à partir du bouton 46, en générant une interaction de déplacement selon un premier sens pour grossir et dans le sens opposé pour rétrécir. Pendant ce déplacement, les boutons point d’intérêt sont désactivés, de sorte qu’aucun multimédia additionnel relatif à un point d’intérêt ne peut être affiché lors du changement d’échelle. Au bout d’une durée prédéterminée pendant laquelle plus aucune interaction n’est détectée, le système retourne en mode navigation en réalité virtuelle.
Les boutons 33, 34, 35 permettent de sélectionner un contenu multimédia comprenant un modèle tridimensionnel à afficher à l’écran. En cas d’actionnement d’un bouton 33, 34 ou 35, un modèle tridimensionnel est sélectionné, et une portion du modèle tridimensionnel est affichée à l’écran en fonction de la position et de l’orientation actuelle du dispositif électronique portatif communiquant 2.
Les modèles tridimensionnels correspondent à des représentations géolocalisées alternatives du panorama accessible depuis le point central d’intérêt. On peut par exemple disposer de modèles tridimensionnels correspondant à différentes conditions temporelles (aube, crépuscule, plein jour, nuit), météorologiques (neige, pluie, beau temps, …) ou historique (chacune représentant une époque particulière passée, présente ou future).
Certains points d’intérêt peuvent être associés à plusieurs modèles tridimensionnels, ou être spécifiques à certains modèles tridimensionnels. Par exemple, si un modèle tridimensionnel correspond à Paris à l’époque de la Révolution française, aucun point d’intérêt correspondant à la Tour Eiffel ne sera présent, étant donné que celle-ci n’a été construite que bien plus tard.
En sélectionnant un bouton 33, 34 ou 35, un modèle tridimensionnel associé à ce bouton est sélectionné. Le modèle tridimensionnel sélectionné est affiché à l’écran tactile en fonction de la position et de l’orientation instantanée du dispositif électronique portatif communiquant établies lors de l’utilisation du modèle tridimensionnel précédent. Ainsi, la navigation entre différents modèles tridimensionnels, chacun correspondant à une représentation alternative d’une même réalité géolocalisée, peut se faire de manière fluide, sans nécessiter de recalibrer la position du dispositif électronique portatif communiquant 2 dans l’intervalle. L’expérience utilisateur en est grandement améliorée, car il peut très facilement naviguer dans les différentes réalités virtuelles de manière fluide, et réaliser une comparaison mentale de ces différentes réalités.
Par exemple, différents modèles tridimensionnels correspondant à différentes étapes successives d’un évènement historique, peuvent être visualisés successivement dans leur environnement réel. Par exemple, on pourrait visualiser Paris à différentes étapes successives de la construction de la Tour Eiffel.
Le bouton 37 permet de réaliser une fonction de recalage de la position et de l’orientation du dispositif électronique portatif communiquant 2.
Pour mettre en œuvre cette fonction de recalage, le site 38 comporte, comme visible sur la , une ou plusieurs étiquettes 39.Chaque étiquette 39 comporte un identifiant unique, et une base de données stocke une position et une orientation de l’étiquette associée à cet identifiant. Dans l’exemple présenté, l’étiquette 39 est disposée sur un habillage vertical d’un poteau 40 du site. Ainsi, en se déplaçant dans le site, avec son dispositif électronique portatif communiquant 2 devant lui, l’utilisateur va nécessairement avoir régulièrement, dans le champs de captation du dispositif électronique portatif communiquant 2, une étiquette 39. L’activation du bouton 37 permet alors de déterminer avec une grande précision la position et l’orientation instantanée du dispositif électronique portatif communiquant 2, en fonction de l’image acquise, des paramètres optiques instantanés (grossissement, focale, …) du dispositif électronique portatif communiquant 2, et de la position et de l’orientation connue de l’étiquette 39 dont l’identifiant est reconnu par un système informatisé de reconnaissance.
A partir de ces nouvelles position et orientation de départ, la position et l’orientation instantanées du dispositif électronique portatif communiquant 2 sont ensuite évaluées régulièrement à partir de la détection du magnétomètre et/ou des capteurs inertiels embarqués dans le dispositif électronique portatif communiquant 2.
En variante ou en complément, des étiquettes 39 peuvent être disposées à d’autres endroits du site, et avec d’autres orientations, par exemple horizontales ou inclinées.
De plus, si le dispositif électronique portatif communiquant 2 dispose d’une application de reconnaissance d’étiquette, la détection d’une étiquette 39 par cette application peut déclencher une proposition de téléchargement d’un programme d’ordinateur rendant les services décrits ci-dessus.
Comme décrit ci-dessus, l’accès au contenu multimédia en réalité virtuelle est possible quand il est détecté que le dispositif électronique portatif communiquant 2 est suffisamment proche de l’observatoire.
Si l’utilisateur accède au service, mais qu’il est détecté que le dispositif électronique portatif communiquant 2 est trop éloigné de l’observatoire, une procédure d’exception peut être mise en œuvre dans laquelle l’utilisateur est informé que l’accès au contenu multimédia relatif à l’observatoire n’est disponible qu’à proximité de l’observatoire.
En variante ou en complément, la procédure d’exception peut autoriser l’accès au contenu multimédia même si le dispositif électronique portatif communiquant 2 est éloigné de l’observatoire. Cet accès peut être subordonné à une authentification additionnelle (vérification de l’identité du dispositif électronique portatif communiquant 2 sur une liste de systèmes autorisés à cet accès, par exemple). Le cas échéant, le système propose une inscription du dispositif électronique portatif communiquant 2 sur cette liste.
La représente une version alternative d’un affichage de l’écran tactile 7. L’icone de main avec des flèches représenté sur la est illustratif de l’utilisation du système qui va être décrite, et n’est pas nécessairement affiché sur l’écran tactile 7.
Comme représenté sur cette figure, en alternative à l’interaction décrite ci-dessus détectée pour le déplacement relatif du modèle tridimensionnel et de l’écran tactile 7, dans le cas présent, cette interaction comprend la détection d’un contact de l’utilisateur avec l’écran tactile, et le déplacement ultérieur et continu de ce contact à la surface de l’écran tactile. Par « continu », on entend qu’il n’y a pas d’instant où aucun contact n’est détecté entre la détection du premier contact et la détection du déplacement. Ainsi, si l’interaction détectée est un contact ponctuel sans déplacement continu ultérieur, et que la zone où l’interaction est détectée comprend un bouton de point d’intérêt, alors le contenu multimédia additionnel relatif au point d’intérêt est affiché, et si l’interaction détectée est un contact ponctuel avec déplacement continu ultérieur, et cela même si la zone où l’interaction est détectée comprend un bouton de point d’intérêt, alors, on procède au déplacement relatif du modèle tridimensionnel et de l’écran tactile 7 en fonction du déplacement détecté.
Il en résulte que, en cas de détection de contact au niveau d’un bouton point d’intérêt, le système détecte l’interaction de l’utilisateur pendant une certaine durée en vue de déterminer s’il s’agit d’un contact ponctuel ou d’un contact suivi d’un déplacement. Ces dispositions peuvent, ou non, être mises en œuvre également en cas de détection de contact ailleurs qu’un niveau d’un bouton point d’intérêt.
La détermination de si un contact inclut ou non un déplacement nécessite de comparer la détection faite avec des critères géométriques prédéterminés.
La représente un exemple alternatif de réalisation de détection d’une interaction déclenchant l’affichage d’un deuxième modèle tridimensionnel. L’icone de main avec une flèche représenté sur la est illustratif de l’utilisation du système qui va être décrite, et n’est pas nécessairement affiché sur l’écran tactile 7. Cet exemple alternatif peut être mis en œuvre si l’interaction détectée peut être discriminée d’interactions détectées déclenchant d’autres fonctions. Dans le cas présent, l’interaction détectée est un mouvement de translation parallèle à deux bords de l’écran tactile, et d’une certaine amplitude. « Parallèle » et « amplitude » sont définis par rapport à des seuils prédéterminés.
Comme représenté sur la , dans ce cas, il est possible d’afficher simultanément à la fois le premier modèle tridimensionnel et le deuxième modèle tridimensionnel géolocalisés dans le même repère sur l’écran tactile 7, avec une barre de séparation 42 entre les deux modèles tridimensionnels, ladite barre se déplaçant en fonction du déplacement d’interaction détecté, jusqu’à ce que seul le deuxième modèle tridimensionnel soit affiché sur l’écran tactile 7. Comme représenté, le deuxième modèle tridimensionnel peut être temporairement affiché avec un contenu multimédia additionnel 43 dont la position est associée à la position de la barre de séparation 42. Le contenu multimédia additionnel comprend par exemple une zone de texte comprenant un titre du deuxième contenu multimedia, dans le cas présent « Explore Paris by night », qui peut être traduit par « Explorez Paris la nuit ».
1 : Serveur
2 : Dispositif électronique portatif communiquant
3 : système de communication
4 : réseau
5 : processeur
6 : Système de géolocalisation
7 : Ecran tactile
8 :Point central d’intérêt
9 : Image
10 : Texte
11, 12, 13 : Boutons
14 : représentations graphiques
15, 16, 17 : Boutons
18 : représentation tridimensionnelle
19 : vue panoramique
20 : horizon
21, 22, 23 : Bouton
24, 25 : Eléments graphiques
26 : bouton
27 : fenêtre multimédia
28 : ascenseur
29 : bouton de fermeture
30-37 :boutons
38 : site
39 : Etiquette
40 : Habillage vertical d’un poteau
41 : Capteur optique
42 : Barre de séparation
43 : Contenu multimédia additionnel
44 : Bouton commande déplacement
45 : Boutons déplacement
46 : Bouton grossissement

Claims (13)

  1. Procédé informatisé de navigation en réalités virtuelles, comprenant :
    - l’affichage sur un écran tactile (7) d’un dispositif informatisé portatif (2) géolocalisé avec une position et une orientation, d’une première image correspondant à une première portion d’un premier modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif (2) et de la position et l’orientation du premier modèle tridimensionnel,
    - la détection d’une première interaction avec l’écran tactile (7),
    - suite à la détection de la première interaction avec l’écran tactile, déplacement du premier modèle tridimensionnel par rapport au dispositif informatisé portatif (2), générant l’affichage sur l’écran tactile d’une deuxième image correspondant à une deuxième portion du premier modèle tridimensionnel,
    - la détection d’une deuxième interaction avec l’écran tactile (7),
    - suite à la détection de la deuxième interaction avec l’écran tactile (7), affichage sur l’écran tactile (7), d’une première image correspondant à une première portion d’un deuxième modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif (2) et de la position et l’orientation du deuxième modèle tridimensionnel.
  2. Procédé informatisé selon la revendication 1, dans lequel la détection de la première interaction et/ou la détection de la deuxième interaction comprennent chacun l’un et/ou l’autre de :
    - la détection d’un contact entre l’usager et l’écran tactile (7),
    - la détection d’un contact ponctuel entre l’usager et l’écran tactile (7),
    - la détection d’un contact comprenant au moins deux contacts ponctuels disjoints entre l’usager et l’écran tactile (7),
    - la détection d’un mouvement relatif entre l’usager et l’écran tactile (7),
    - la détection d’un mouvement relatif selon une trajectoire prédéterminée entre l’usager et l’écran tactile (7),
    - la détection d’un mouvement relatif d’une amplitude prédéterminée entre l’usager et l’écran tactile (7),
    dans lequel un processeur (5) est adapté pour discriminer entre la détection de la première interaction et la détection de la deuxième interaction.
  3. Procédé informatisé de navigation en réalités virtuelles selon la revendication 1 ou la revendication 2, comprenant la détermination répétée d’une position et d’une orientation du dispositif informatisé portatif (2).
  4. Procédé informatisé de navigation en réalités virtuelles selon la revendication 3, comprenant la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif (2), puis ladite détermination répétée d’une position et d’une orientation du dispositif informatisé portatif (2) à partir de ladite détermination initiale et des déplacements mesurés du dispositif informatisé portatif (2).
  5. Procédé informatisé de navigation en réalités virtuelles selon la revendication 4, comprenant la répétition de la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif (2) à une fréquence inférieure à une fréquence de détermination d’une position et d’une orientation du dispositif informatisé portatif (2).
  6. Procédé informatisé de navigation en réalités virtuelles selon la revendication 4 ou 5, dans lequel la détermination initiale d’une position et d’une orientation du dispositif informatisé portatif (2) comprend la détection optique et la reconnaissance d’une étiquette (39) géolocalisée.
  7. Procédé informatisé de navigation en réalités virtuelles selon l’une des revendications 1 à 6, dans lequel l’affichage sur l’écran tactile (7) de la première image correspondant à une première portion du deuxième modèle tridimensionnel est simultanée et juxtaposée à l’affichage sur l’écran tactile de la première image correspondant à une première portion du premier modèle tridimensionnel.
  8. Procédé informatisé de navigation en réalités virtuelles selon l’une des revendications 1 à 7, dans lequel l’affichage sur ledit écran tactile (7) de la première image correspondant à la première portion du premier modèle tridimensionnel est autorisé en fonction de la distance entre le dispositif informatisé portatif géolocalisé (2) et un point central d’intérêt (8).
  9. Procédé informatisé de navigation en réalités virtuelles selon l’une des revendications 1 à 8, dans lequel l’actionnement d’un point d’intérêt d’un modèle tridimensionnel déclenche l’affichage d’un contenu multimédia additionnel associé à ce point d’intérêt.
  10. Procédé informatisé de navigation en réalités virtuelles selon la revendication 9, dans lequel l’actionnement du point d’intérêt est réalisé par la détection d’une troisième interaction avec l’écran tactile (7) et/ou par la mise en correspondance d’une région d’activation liée au dispositif informatisé portatif (2) avec une représentation graphique du point d’intérêt.
  11. Procédé informatisé de navigation en réalités virtuelles selon l’une des revendications 1 à 10, dans lequel le déplacement comprend une modification de position, d’orientation et/ou de grossissement.
  12. Programmes d’ordinateur comprenant des portions de code de programme pour l’exécution des étapes du procédé selon l’une quelconque des revendications 1 à 11 lorsque lesdits programmes sont exécutés sur des ordinateurs.
  13. Système informatisé de navigation en réalités virtuelles, comprenant :
    - un dispositif informatisé portatif (2) géolocalisé avec une position et une orientation comprenant un écran tactile (7) adapté pour l’affichage d’une première image correspondant à une première portion d’un premier modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du premier modèle tridimensionnel,
    le dispositif informatisé portatif géolocalisé étant adapté pour détecter une première interaction avec l’écran tactile,
    - le dispositif informatisé portatif géolocalisé étant adapté, suite à la détection de la première interaction avec l’écran tactile, pour déplacer le premier modèle tridimensionnel par rapport au dispositif informatisé portatif, générant l’affichage sur l’écran tactile d’une deuxième image correspondant à une deuxième portion du premier modèle tridimensionnel,
    - le dispositif informatisé portatif géolocalisé étant adapté pour détecter une deuxième interaction avec l’écran tactile,
    - le dispositif informatisé portatif géolocalisé étant adapté, suite à la détection de la deuxième interaction avec l’écran tactile, pour afficher sur l’écran tactile une première image correspondant à une première portion d’un deuxième modèle tridimensionnel comprenant une position et une orientation, ladite portion étant déterminée par mise en correspondance de la position et l’orientation du dispositif informatisé portatif et de la position et l’orientation du deuxième modèle tridimensionnel.
FR2102906A 2021-03-23 2021-03-23 Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur Active FR3121251B3 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2102906A FR3121251B3 (fr) 2021-03-23 2021-03-23 Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2102906A FR3121251B3 (fr) 2021-03-23 2021-03-23 Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur
FR2102906 2021-03-23

Publications (2)

Publication Number Publication Date
FR3121251A3 true FR3121251A3 (fr) 2022-09-30
FR3121251B3 FR3121251B3 (fr) 2023-08-18

Family

ID=76523045

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2102906A Active FR3121251B3 (fr) 2021-03-23 2021-03-23 Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur

Country Status (1)

Country Link
FR (1) FR3121251B3 (fr)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180109751A1 (en) * 2016-10-18 2018-04-19 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
WO2019046597A1 (fr) * 2017-08-31 2019-03-07 Apple Inc. Systèmes, procédés et interfaces utilisateur graphiques permettant d'interagir avec des environnements de réalité augmentée et virtuelle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180109751A1 (en) * 2016-10-18 2018-04-19 Samsung Electronics Co., Ltd. Electronic device and method for controlling the same
WO2019046597A1 (fr) * 2017-08-31 2019-03-07 Apple Inc. Systèmes, procédés et interfaces utilisateur graphiques permettant d'interagir avec des environnements de réalité augmentée et virtuelle

Also Published As

Publication number Publication date
FR3121251B3 (fr) 2023-08-18

Similar Documents

Publication Publication Date Title
US11562540B2 (en) Method for representing virtual information in a real environment
US10026229B1 (en) Auxiliary device as augmented reality platform
KR101433305B1 (ko) 증강 현실 환경을 위한 모바일 디바이스 기반 콘텐츠 맵핑
US10325410B1 (en) Augmented reality for enhancing sporting events
US9978174B2 (en) Remote sensor access and queuing
US9081419B2 (en) Natural gesture based user interface methods and systems
US10147399B1 (en) Adaptive fiducials for image match recognition and tracking
US11842514B1 (en) Determining a pose of an object from rgb-d images
US9123272B1 (en) Realistic image lighting and shading
US20120324213A1 (en) Switching between a first operational mode and a second operational mode using a natural motion gesture
US9454848B2 (en) Image enhancement using a multi-dimensional model
US9135735B2 (en) Transitioning 3D space information to screen aligned information for video see through augmented reality
CA2942652C (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe
FR3052889B1 (fr) Correction d'erreur induite par des vibrations pour affichage a ecran tactile dans un aeronef
CN105302860A (zh) 用于操纵全景的技术
FR3003364A1 (fr) Procede de traitement d'un geste compose, dispositif et terminal d'utilisateur associes
US9449427B1 (en) Intensity modeling for rendering realistic images
FR3005173A1 (fr) Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement
FR3121251A3 (fr) Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur
WO2022231710A1 (fr) Génération d'un nombre aléatoire sécurisé par détermination d'une variation de paramètres de contenu numérique dans des images subséquentes par l'intermédiaire d'un circuit de traitement graphique
WO2023046902A1 (fr) Systeme d'interface homme-machine
FR3107390A1 (fr) Dispositif, système et procédé de traitement de données de réalité virtuelle
FR3127597A1 (fr) Systeme d’interface homme-machine
FR3077910A1 (fr) Procede d'aide a la maintenance d'un systeme complexe
EP3942390A1 (fr) Dispositif, système et procédé de traitement de données de réalite virtuelle

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4