FR2998680A1 - Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle - Google Patents
Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle Download PDFInfo
- Publication number
- FR2998680A1 FR2998680A1 FR1261233A FR1261233A FR2998680A1 FR 2998680 A1 FR2998680 A1 FR 2998680A1 FR 1261233 A FR1261233 A FR 1261233A FR 1261233 A FR1261233 A FR 1261233A FR 2998680 A1 FR2998680 A1 FR 2998680A1
- Authority
- FR
- France
- Prior art keywords
- periscope
- dimensional virtual
- topography
- environment
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Processing Or Creating Images (AREA)
Abstract
L'invention concerne un procédé de navigation dans un environnement associé à un périscope interactif à réalité virtuelle. L'invention vise à conjuguer la réalité virtuelle et le territoire réel dans le but de découvrir toutes sortes d'informations dans les nouveaux formats de contenus, relatives à cet environnement. Le périscope (1) comprend un socle (4), un mât (6), un corps (7) monté en liaison pivot selon un axe vertical (Y1), des moyens de manipulation (16b) en rotation du corps selon l'axe vertical. En outre, le périscope comprend des premières données relatives à une topographie virtuelle tridimensionnelle de l'environnement à au moins une époque donnée, des moyens de visualisation de la topographie virtuelle tridimensionnelle, des moyens de navigation dans la topographie virtuelle tridimensionnelle, des secondes données relatives à au moins un type de contenus associé à l'environnement, des moyens de sélection de l'au moins un type de contenus et, des moyens de traitement des premières et secondes données configurés pour visionner au travers des moyens de visualisation, les contenus du type sélectionné lorsque ces contenus entre dans le champ visuel de la topographie virtuelle tridimensionnelle durant la navigation.
Description
PROCEDE DE NAVIGATION DANS UN ENVIRONNEMENT ASSOCIE A UN PERISCOPE INTERACTIF A REALITE VIRTUELLE La présente invention concerne un procédé de navigation dans un environnement associé à un périscope interactif à réalité virtuelle. L'invention concerne donc également le périscope interactif à réalité virtuelle permettant la navigation dans un environnement et la visualisation de contenus associés à cet environnement. L'invention vise à conjuguer la réalité virtuelle et le territoire réel dans le but de découvrir toutes sortes d'informations dans les nouveaux formats de contenus (3D-relief, images de synthèse, haute définition, interactivité), relatives au territoire environnant dans lequel ledit périscope est installé. Ces informations étant, par exemple : le patrimoine matériel, historique et géographique, les activités culturelles ou sportives, les informations municipales ou publicitaires ... La réalité virtuelle consiste en une simulation informatique interactive immersive, visuelle, sonore, d'environnements réels ou imaginaires. Celle-ci a pour but de permettre à une ou à plusieurs personnes une activité sensori-motrice et cognitive dans un monde artificiel, créé numériquement, qui peut être imaginaire ou une simulation de certains aspects du monde réel. La présente invention sera mise en oeuvre par des fabricants de dispositifs interactifs de navigation dans un environnement enrichi de contenus et de données, combinant réalité et virtualité. Elle trouvera son application notamment dans le domaine du tourisme et du patrimoine pour la collecte, le partage et la diffusion de tous types de contenus géo-localisés sur le territoire environnant dans lequel le périscope est implanté, afin d'offrir une nouvelle lecture du patrimoine matériel et culturel des villes. D'autres applications restant envisageables, sans sortir du cadre de l'invention. L'homme du métier a déjà développé des dispositifs interactifs à réalité augmentée qui permettent une navigation dans un environnement réel, enrichie de contenus tels que des objets et/ou des données complémentaires comme, par exemple, des informations culturelles. A ce titre, il est connu un dispositif interactif à réalité augmentée sous la forme d'un télescope panoramique qui permet d'observer les paysages environnants en obtenant des informations que l'on souhaite découvrir en surimpression, relativement à des éléments observés dans ces paysages. Ce télescope permet de zoomer, de voir plus en détail un bâtiment, en connaître la date de construction, la hauteur, l'architecte, et même des éléments d'histoire. Il permet également de présenter le même paysage mais, tel qu'il était dans le passé. Insérés en trois dimensions dans le panorama actuel, on peut découvrir des éléments disparus tels que des édifices. Suivant les sites, un extrait vidéo ou une animation peut compléter l'information. Il est également connu un dispositif interactif à réalité augmentée sous la forme d'une borne multimédia qui propose un point de vue mêlant vision actuelle et éléments virtuels passés.
Cette borne ponctue la visite d'un site. La borne comprend un écran qui se comporte comme un tableau vivant, l'éclairage du modèle numérique évoluant avec l'intensité de la lumière naturelle. Fenêtre sur l'histoire, la borne propose un point de vue précis sur un édifice, un objet, un ensemble détruit ou altéré par le temps et, lui restitue son décor d'origine. Installée sur site, face à l'objet représenté, la borne superpose fragments disparus et fragments existants pour une confrontation immédiate entre le passé, le passé recomposé et, le présent. L'écran est monté sur pied et pivote horizontalement et verticalement, ce qui permet de visualiser des points de vue fixes et orientables, depuis le sol jusqu'aux voûtes des édifices. Cette borne provoque une sensation d'immersion de par l'interactivité procurée, le visiteur manipulant lui-même la borne en rotations horizontale et verticale tout en se déplaçant virtuellement dans l'image, de par le réalisme des graphismes et, de par l'évolution de la luminosité en fonction des conditions réelles. La présente invention a pour objet un procédé associé à un dispositif interactif, permettant une navigation dans un environnement et une visualisation de contenus en plusieurs dimensions, voire en relief, associés à cet environnement, où réalité et virtualité du territoire environnant sont intiment mêlées dans une vision confondante pour l'utilisateur, en vue d'augmenter la sensation d'interaction et d'immersion dans l'environnement, en comparaison aux dispositifs interactifs à réalité augmentée existants actuellement. Un autre objet de l'invention est de permettre son utilisation indépendamment des conditions d'obscurité de l'environnement réelle où ledit dispositif est installé.
A cet effet, l'invention concerne un procédé de navigation associé à un périscope interactif à réalité virtuelle implanté dans un environnement ou territoire environnant réel. Le procédé selon l'invention comprend plusieurs étapes. Une première étape consiste à réaliser une topographie virtuelle tridimensionnelle de l'environnement à au moins une époque donnée et à visionner cette topographie virtuelle tridimensionnelle au travers du périscope, en considération de son implantation dans l'environnement réel. Ainsi, lorsqu'un utilisateur visualise la topographie virtuelle tridimensionnelle en regardant dans le périscope, celui-ci se sent immergé complètement dans l'environnement, comme ci il se trouver réellement dans l'environnement tel qu'il était dans le passé, tel qu'il est à présent ou, tel qu'il sera dans le futur. Une seconde étape du procédé selon l'invention consiste à sélectionner au moins un type de contenus associé à l'environnement à au moins une époque donnée. Une troisième étape consiste à naviguer dans la topographie virtuelle tridimensionnelle en visionnant le périscope, en considération de l'orientation et des réglages du déplacement et/ou de la focalisation de ce périscope. Et, une quatrième étape consiste visualiser au travers du périscope les contenus du type sélectionné lorsque ceux-ci rentrent dans le champ visuel de la topographie virtuelle tridimensionnelle visionnée durant la navigation. Ainsi, l'utilisateur concentre sa recherche sur des contenus identifiés et visualise lesdits contenus présents dans la topographie virtuelle tridimensionnelle durant la navigation dans cette topographie virtuelle tridimensionnelle, tout en ayant la sensation d'être réellement dans l'environnement qui est reproduit. La navigation dans la topographie virtuelle tridimensionnelle permet en outre de s'affranchir de l'intensité lumineuse naturelle et éventuellement de naviguer dans la topographie virtuelle tridimensionnelle avec un degré d'obscurité laissé au choix de l'utilisateur ou, au contraire, prédéterminé. Selon le procédé objet de l'invention, une étape additionnelle consiste à compléter la visualisation de chaque contenu du type sélectionné, par des données complémentaires relatives à ce contenu. On entend par données complémentaires tous types de données qui concernent le contenu en question. Il s'agit notamment d'une représentation du contenu en trois dimensions ou en relief, d'informations diverses sur le contenu telles que, par exemple, des informations ou des témoignages culturels et, d'une reconstitution du contenu tel qu'il était dans le passé. A titre d'exemple, lorsque les contenus sont des oeuvres d'art ou des édifices, les données complémentaires peuvent consister en une représentation en trois dimensions ou en relief de ces oeuvres d'art ou de ces édifices, en leurs dates de création, en les noms des artistes ou architectes, en les transformations qu'ils ont subies avec le temps. Selon un autre exemple, lorsque les contenus sont des bâtiments publics, en plus des données précitées, on peut ajouter des données telles que les horaires d'ouverture et les services associés à ces bâtiments publics. Selon un autre exemple, lorsque les contenus sont des salles de spectacles, on peut ajouter des données telles que les programmations à venir. Selon un autre exemple, encore, lorsque les contenus sont des restaurants, on peut ajouter des données relatives aux menus et aux tarifs proposés. Sans que tout cela ne soit limitatif. Selon le procédé objet de l'invention, lorsque l'environnement réel le permet, on réalise une topographie virtuelle tridimensionnelle de l'environnement terrestre, aérien et/ou marin à au moins une époque donnée, relativement à l'implantation du périscope. Ainsi, l'utilisateur peut naviguer dans des environnements aériens, terrestres ou marins pour visualiser divers contenus tels que, par exemple, des sommets de montagnes, des animaux volatils ou marins présents dans un environnement, des espèces d'algues présentent dans un environnement marin ... Dans ce cas, selon le procédé objet de l'invention, on navigue dans la topographie virtuelle tridimensionnelle terrestre, aérienne et/ou marine en changeant le niveau ou l'altitude du champ de vision du périscope. L'invention concerne également un périscope interactif à réalité virtuelle destiné à être implanté dans un environnement réel. Selon l'invention, le périscope comprend un socle fixe, un mât prolongeant vers le haut le socle, un corps mobile monté à l'extrémité supérieure du mât en liaison pivot indirecte selon un axe vertical vis-à-vis du socle et, des moyens de manipulation en rotation du corps selon l'axe vertical. On entend par liaison pivot indirect, le fait que le mât peut être fixe vis-à-vis du socle et le corps monté en liaison pivot d'axe vertical par rapport au mât. Au contraire, le mât peut être fixe vis-à-vis du corps et monté en liaison pivot d'axe vertical vis-à-vis du socle. Voire encore, le mât peut être composé de deux parties dont l'une est fixe vis-à-vis du socle et l'autre fixe vis-à-vis du corps, les deux parties étant montée en liaison pivot entre elles selon l'axe vertical. En outre, selon l'invention, le périscope comprend des premières données relatives à une topographie virtuelle tridimensionnelle de l'environnement à au moins une époque donnée, des moyens de visualisation de la topographie virtuelle tridimensionnelle agencés sur le corps et, des moyens de navigation dans la topographie virtuelle tridimensionnelle. Ainsi, l'utilisateur peut visionner au moyen du périscope, une topographie virtuelle tridimensionnelle représentative de l'environnement tel qu'il était dans le passé, tel qu'il est à présent ou, tel qu'il sera dans le futur, en ayant la sensation d'être immergé dans cet environnement. Par ailleurs, selon l'invention, le périscope comprend des secondes données relatives à au moins un type de contenus associé à l'environnement réel, des moyens de sélection de l'au moins un type de contenus et, des moyens de traitement des premières et secondes données configurés pour visionner au travers des moyens de visualisation, les contenus du type sélectionné lorsque ces contenus entre dans le champ visuel de la topographie virtuelle tridimensionnelle durant la navigation. Ainsi, l'utilisateur peut cibler des contenus lorsqu'il visionne l'environnement virtuellement au travers du périscope, comme s'il voyait ces contenus dans l'environnement ou territoire environnant réel. Selon le périscope objet de l'invention, les moyens de visualisation comprennent deux écrans oculaires contre lesquels l'utilisateur positionne ses yeux pour visionner la topographie virtuelle tridimensionnelle. Cela favorise un positionnement convenable de l'utilisateur, face au périscope, et son immersion dans la topographie virtuelle tridimensionnelle, sans interférence de la luminosité dans l'environnement réel. Selon le périscope objet de l'invention, les moyens de navigation comprennent un système de mesure de l'orientation du corps par rapport au socle et un système de traitement configuré pour modifier l'orientation du champ visuel de la topographie virtuelle tridimensionnelle observé au travers des moyens de visualisation, en fonction de l'orientation du corps. Ainsi, l'utilisateur se déplace en rotation lorsqu'il visionne la topographie virtuelle tridimensionnelle, comme s'il se déplaçait dans l'environnement à une époque donnée au moyen du périscope, ce qui favorise la sensation d'immersion dans l'environnement à cette époque donnée. Selon le périscope objet de l'invention, les moyens de navigation comprennent un système de commande d'avance et de recule, le système de traitement étant configuré pour se diriger et/ou pour focaliser plus ou moins dans la topographie virtuelle tridimensionnelle observée, en fonction de l'actionnement du système de commande d'avance et de recule. Cela favorise également la sensation d'immersion dans l'environnement réel. Selon le périscope objet de l'invention, les moyens de navigation comprennent un système de commande de montée et de descente, le système de traitement étant configuré pour changer le niveau de la topographie virtuelle tridimensionnelle observé, en fonction de l'actionnement du système de commande de montée et de descente. Cela permet de naviguer dans une topographie virtuelle tridimensionnelle représentative d'un environnement aérien, terrestre ou marin à une époque choisie, passée, présente ou future, lorsque la configuration de l'environnement réel dans lequel est implanté le périscope, le permet. Selon le périscope objet de l'invention, les moyens de sélection comprennent un système d'affichage d'un menu des différents types de contenus associés à l'environnement à au moins une époque donnée, sur les moyens de visualisation et un système de validation configuré pour parcourir le menu et valider un type de contenus à visualiser dans la topographie virtuelle tridimensionnelle. Cela permet de rendre le périscope interactif. Selon le périscope objet de l'invention, celui-ci comprend des troisièmes données relatives à chaque contenu, les moyens de traitement permettant de visionner les troisièmes données relatives à un contenu lors de sa visualisation dans le champ visuel de la topographie virtuelle tridimensionnelle. Cela contribue également à rendre le périscope interactif.
Selon le périscope objet de l'invention, celui-ci comprend des moyens d'écoute et des quatrièmes données auditives relatives à chaque contenu ou à certains d'entre eux, les moyens de traitement permettant aux moyens d'écoute de transmettre les données auditives relatives à un contenu lors de sa visualisation dans la topographie virtuelle tridimensionnelle. Cela contribue à optimiser l'interaction et l'immersion dans la topographie virtuelle tridimensionnelle. Selon le périscope objet de l'invention, celui-ci comprend des moyens de réglage de la hauteur séparant le socle et les moyens de visualisation sur le corps. Cela permet d'ajuster le périscope à la morphologie de l'utilisateur.
Selon le périscope objet de l'invention, le socle comprend des moyens d'orientation relatifs à l'implantation dudit périscope dans l'environnement réel. Cela permet à l'utilisateur de repérer la position angulaire d'un contenu dans l'environnement réel, en fonction de l'orientation du périscope, lorsque ce contenu est visualisé dans la topographie virtuelle tridimensionnelle. Les caractéristiques de la présente invention apparaîtront à la lecture de la description suivante de variantes de conception du périscope, cette description s'appuyant sur des figures, parmi lesquelles : La figure 1 illustre un utilisateur qui manipule le périscope selon l'invention, selon un mode de réalisation ; La figure 2 illustre en perspective le périscope de la figure 1; Les figures 3 et 4 illustrent deux vues du périscope de la figure 2, respectivement de face et de dessus ; Les figures 5 et 6 illustrent le périscope de la figure 2, vu respectivement depuis le côté droit et depuis le côté gauche, avec des positions de réglage en hauteur différentes ; Les figures 7 à 9 illustrent trois vues respectivement de face, du côté droit et de dessus, d'une variante de conception du périscope selon l'invention ; La figure 10 illustre une vue agrandie en perspective, du corps du périscope des figures 7 à 9 ; La figure 11 illustre une vue agrandie en perspective, de moyens de manipulation et de moyens d'actionnement du périscope des figures 7 à 9 ; La figure 12 schématise une interface numérique intégrée dans le corps d'un périscope tel que ceux des variantes illustrées en figures 1 à 11, voire d'autres variantes ; La figure 13 schématise une navigation sur un territoire environnant à une époque donnée au moyen du périscope selon l'invention. Dans la suite de la description, les mêmes références seront utilisées pour décrire les éléments structurels et/ou fonctionnels commun aux différentes variantes décrites. On utilise en outre de manière équivalent les termes environnement et territoire environnant. Le périscope 1 interactif à réalité virtuelle est destiné à être implanté dans un environnement réel 2 tel qu'une ville, par exemple. Le périscope 1 est configuré pour réaliser une topographie virtuelle tridimensionnelle qui est une reproduction fidèle ou diminuée de l'environnement dans lequel il est implanté à une ou plusieurs époques données dans le passé, le présent ou le futur, dans ce dernier cas l'environnement pouvant prendre en considération des projets de constructions de bâtiments, d'édifices, de complexes culturels et sportifs, par exemple. Le périscope 1 est également configuré pour permettre à un utilisateur 3 de visionner cette topographie virtuelle tridimensionnelle comme s'il visionner réellement l'environnement au travers du périscope, avec une sensation d'immersion dans cette environnement, plus importante. Tel qu'illustré les figures 1 et 2, le périscope 1 comprend un socle 4 qui est fixé sur ou dans le sol 5 de l'environnement réel 2 dans lequel il est installé, ce qui permet de définir un repère de position du périscope 1 dans l'environnement réel 2. Un mât 6 prolonge vers le haut selon un axe vertical Y1, ce socle 4. A l'extrémité supérieure 6a de ce mât 6 est agencé un corps 7. Le mât 6 est fixe par rapport au socle 4, tandis que le corps pivote selon l'axe Y1 par rapport au mât 6. Pour cela, une liaison pivot (non illustrée) est agencée entre le mât 6 et le corps 7. La mise en oeuvre d'une telle liaison pivot est à la portée de l'homme du métier ; celle-ci ne sera donc pas détaillée. Tel qu'illustré sur les figures 1 à 6, le corps 7 présente plus ou moins la forme d'un masque comportant une partie centrale 8, un côté latéral droit 9 et un côté latéral gauche 10. Une pièce 11 en forme de U est agencée dans la partie interne supérieure 7a du corps 7. Sur la portion centrale 11a de cette pièce 11 sont agencés des moyens de visualisation 12 constitués, de préférence, de deux écrans oculaires 13a, 13b. Sur les portions latérales, droite 11b et gauche 11c de cette pièce 11, sont agencés respectivement deux haut-parleurs 14a, 14b qui permettent la diffusion d'un message ou d'informations avec une répartition uniforme et en stéréo du son. Lorsque l'utilisateur 3 positionne sa tête 15 dans la partie interne supérieure 7a du corps 7, comme illustré en figure 1, ses yeux se placent en regard des deux écrans oculaires 13a, 13b et ses oreilles se placent à proximité des haut-parleurs 14a, 14b. Cette configuration permet d'isoler l'utilisateur vis-à-vis de l'environnement externe et d'éviter les perturbations sonores et lumineuses, ce qui favorise son immersion complète dans la topographie virtuelle tridimensionnelle.
Tel qu'illustré sur les figures 1 à 6, le corps 7 comprend respectivement sur ses côtés latéraux, droit 9 et gauche 10, deux trous 16a, 16b de forme oblongue configurés pour permettre à l'utilisateur 3 d'y positionner respectivement ses mains 17, comme illustré en figure 1. Ainsi, l'utilisateur 3 peut manipuler en rotation selon l'axe Y1, le corps 7 par rapport au mât 6, pour modifier son orientation angulaire.
Tel qu'illustré en figure 3, deux boutons d'actionnement 18, 19 sont agencés sur la partie interne inférieure 7b, à proximité de premier trou 16a. De même, deux boutons d'actionnement 20, 21 sont agencés sur la partie interne inférieure 7b, à proximité du second trou 16b. L'agencement de ces boutons 18, 19, 20, 21 permet leur manipulation avec les pouces des mains 17 de l'utilisateur 3 lorsque celles-ci sont positionnées dans les trous 16a, 16b pour la manipulation du périscope 1. Tel qu'on peut le constater sur les figures 5 et 6, le périscope est réglable en hauteur, d'une position des moyens de visualisation 12 illustrée en figure 5 correspondant à une hauteur minimale h1, à une position illustrée en figure 6 correspondant à une hauteur maximale h2. Par exemple, la hauteur minimale h1 peut être égale à 140 cm et la hauteur maximale h2 peut être égale à 180 cm. On peut également envisager des périscopes 1 selon l'invention à destination des enfants, permettant un réglage de la hauteur des moyens de visualisation 12, entre 110 cm et 150 cm. Les moyens de réglage 30 en hauteur sont mis en oeuvre grâce à un montage télescopique du corps 7 sur le mât 6 et à un système de blocage 31 de la position en hauteur du corps 7 sur le mât 6. On peut aussi envisager, dans une variante, un mât 6 en deux parties montées de manière télescopique l'une par rapport à l'autre et munies d'un système de blocage. Ce système de blocage 31 est par exemple mis en oeuvre au moyen d'une manette qui est montée sur le corps 7 et qui, dans une position de blocage, fait pression sur le mât 6 et, dans une position de déblocage, est hors de contact du mât 6. Ce système de blocage peut également être mise en oeuvre entre les deux parties télescopique du mât 6, selon la variante. Sur la variante de périscope 1 illustrée en figure 7 à 11, celle-ci comprend également un socle 4, un mât 6 qui prolonge vers le haut le socle 4 et, un corps 7 agencé à l'extrémité supérieure 6a du mât 6. Selon cette variante du périscope 1, le socle 4 est encastré dans le sol 5, comme illustré en figure 7 à 9. En outre, l'extrémité inférieure 6b du mât 6 est agencée en liaison pivot selon un axe vertical Y2 vis-à-vis du socle 4, tandis que le corps 7 est fixe vis-à-vis de l'extrémité supérieure 6a du mât 6. Ainsi, il est possible de modifier l'orientation du périscope 1 en pivotant le corps 7 et le mât 7 par rapport au socle 4, selon l'axe Y2. Tel qu'illustré sur les figures 7 à 9, le périscope 1 comprend deux poignées de manipulation, droite 22a et gauche 22b, que l'utilisateur 3 peut saisir avec les mains pour manipuler en rotation selon l'axe vertical Y2 le corps 7, dans le sens des flèches F1, F2 illustrées en figure 9. Tel qu'illustré en figure 10, le corps 7 comprend une partie centrale 8, un côté latéral droit 9 et un côté latéral gauche 10. La partie centrale 8 comprend deux écrans oculaires 13a, 13b et les côtés latéraux, droit 9 et gauche 10, comprennent respectivement deux haut-parleurs 14a, 14b. Tel qu'illustré sur la figure 11, la poignée de manipulation droite 22a comprend une molette 23a commandée par rotation vers le haut et vers le bas selon l'axe X1 de ladite poignée 22a, comme illustré par la double flèche F3 sur la figure 8. Cette poignée de manipulation 22a comprend également deux boutons 24a, 25a. L'agencement de la molette 23a et des boutons 24a, 25a est tel qu'ils peuvent être manipulés avec le pouce de la main droite lorsque l'utilisateur saisit la poignée de manipulation 22a avec sa main droite. On constate sur la figure 7 que la poignée de manipulation gauche 22b comprend également une molette 23b et deux boutons 24b, 25b agencés pour être manipulés avec le pouce de la main gauche lorsque ladite poignée 22b est saisie avec la main gauche. Tel qu'illustré sur la figure 12, le périscope 1 comprend une interface numérique 26 qui équipe les diverses variantes de réalisation envisageable, comme celles illustrées en figures 1 à 6 et en figures 7 à 11. Cette interface numérique 26 est de préférence intégrée dans le corps 7, comme illustré en figure 12. Cette interface numérique 26 est en liaison avec les écrans oculaires 13a, 13b, les haut-parleurs 14a, 14b et, les boutons 18, 19, 20, 21 du premier mode de réalisation du périscope 1 illustré en figures 1 à 6 ou, les molettes 23a, 23b et les boutons 24a, 24b, 25a, 25b du second mode de réalisation du périscope 1 illustré en figures 7 à 11. Cette liaison ou connexion s'effectue au moyen de pilotes informatiques. Ces caractéristiques sont également prévues sur toute variante de réalisation envisageable du périscope 1. Le périscope 1 selon les diverses variantes de réalisation, comprend également des moyens de détection de l'orientation angulaire du corps 7 selon l'axe vertical Y1 ou Y2, par rapport à un repère fixe associé à la position du périscope 1 dans l'environnement réel. Ce repère fixe est de préférence le socle 4 qui est fixé sur le sol 5, par exemple par encastrement. Ces moyens de détection de l'orientation angulaire (non illustrés) sont par exemple constitués d'un capteur de position angulaire agencé entre le corps 7 et le mât 6 solidaire du socle 4, pour le mode de réalisation du périscope 1 illustré en figures 1 à 6 et, d'un capteur de position angulaire agencé entre le mât 6, solidaire du corps 7, et le socle 4, pour le mode de réalisation du périscope 1 illustré en figures 7 à 11. De tels capteurs de position angulaire sont connus de l'homme du métier. Ces moyens de détection de la position angulaire du corps 7 sont en liaison avec l'interface numérique 26, au moyen d'un pilote informatique. Cette interface numérique 26 comprend divers modules tels que des microprocesseurs qui intègrent des données et des programmes informatiques permettant d'agir sur les écrans oculaires 13a, 13b et les hauts parleurs 14a, 14b en fonction des commandes exercées sur les boutons 18, 19, 2, 21 pour le premier mode de réalisation illustré en figures 1 à 6 ou, sur les molettes 23a, 23b et boutons 24a, 24b, 25a, 25b pour le mode de réalisation illustré en figures 7 à 11, ainsi qu'en fonction de l'orientation du périscope 1 par rapport à l'environnement réel, pour les deux modes de réalisation précités. Il en est de même pour toute variante de réalisation envisageable du périscope 1. Ainsi, l'interface numérique 26 comprend un module de stockage de données relatives à la topographie virtuelle tridimensionnelle qui est une représentation fidèle ou diminuée de l'environnement réel dans lequel le périscope 1 est implanté, à une ou plusieurs époques données du passé, du présent ou du futur. Cette topographie virtuelle tridimensionnelle peut également comprendre plusieurs zones ou niveaux, selon l'environnement dans lequel le périscope 1 est implanté. A titre d'exemple, lorsque le périscope 1 est implanté dans une ville, la topographie virtuelle tridimensionnelle peut comprendre un premier niveau correspondant à l'environnement urbain en tant que tel, un second niveau correspondant à l'environnement aérien de la ville dans lequel, par exemple, on peut découvrir un panorama depuis un sommet d'un édifice ou d'un gratte-ciel et, un troisième niveau souterrain dans lequel on peut découvrir des caves, des voies et stations de métro, des grottes... L'interface numérique 26 comprend également un module de stockage de données relatives à divers types de contenus présents dans l'environnement réel où est implanté le périscope 1. Ces types de contenus sont par exemple des oeuvres d'arts du type tableau ou statue, des cathédrales ou des églises, des édifices au sens large, des bâtiments municipaux, des restaurants, des salles de spectacles, des parcs ou jardins publics, voire autres. Ces données peuvent également consister en une représentation en trois dimensions et/ou en relief de chaque contenu. L'interface numérique 26 comprend également un module de stockage de données complémentaires relatives à chaque contenu de chaque type. Ces données complémentaires sont, par exemple, la date de création, l'auteur, les dimensions et la superficie des bâtiments ou des édifices, une représentation passée du contenu, le menu et les tarifs d'un restaurant, la programmation d'une salle de spectacle, des horaires d'ouverture d'un bâtiment ou d'un édifice, voire autres. L'interface numérique 26 comprend également un module de stockage de données sonores tel que, par exemple, des reportages culturels en rapport avec des contenus, des extraits musicaux de spectacles programmés dans une salle de spectacle ...
Lorsque l'utilisateur souhaite utiliser le périscope 1, celui-ci positionne ses yeux contre les écrans oculaires 13a, 13b et ses mains 17 à l'intérieur des trous 16a, 16b pour le premier mode de réalisation illustré en figures 1 à 6 ou, sur les poignées 22a, 22b pour le second mode de réalisation illustré en figures 7 à 11. L'activation du périscope 1 peut se faire, par exemple, en actionnant l'une des commandes du périscope 1 ou en modifiant l'orientation du périscope 1. On peut cependant prévoir un système de badge 27, par exemple RFID, tel qu'illustré sur les figures 2 et 3 pour le premier mode de réalisation et, sur la figure 7 pour le second mode de réalisation, lequel est connecté à l'interface numérique 26 et permet au moyen d'une carte prépayée ou d'un téléphone mobile qui sera débité, d'activer ledit périscope 1. Dans le cadre d'une reconnaissance de l'individu par le système de badge voire au moyen de son téléphone portable, le périscope 1 peut comprendre un actionneur tel qu'un vérin électrique, par exemple, et une interface de commande de cet actionneur, configurés pour régler automatiquement la hauteur dudit périscope 1 en considération de données relative à taille de l'individu, enregistrées sur le badge ou téléphone, afin de l'ajuster automatiquement à l'utilisateur.
L'interface numérique 26 permet alors d'afficher un menu sur les écrans oculaires, dans lequel peut naviguer l'utilisateur 3 pour sélectionner un type de contenu présent dans l'environnement réel où est implanté le périscope 1. La navigation et la sélection s'effectuent, par exemple, au moyen des boutons 18, 19, 20, 21 pour le premier mode de réalisation et, au moyen des boutons 24a, 24b, 25a, 25b pour le second mode de réalisation. Une fois la sélection réalisée, l'utilisateur visionne la topographie virtuelle tridimensionnelle au travers des écrans oculaires 13a, 13b. Tel que schématisé sur la figure 13, lorsque l'utilisateur 3 manipule en rotation selon l'axe vertical Y1, Y2, le corps 7, les moyens de détection de l'orientation angulaire transmettent l'information à l'interface numérique 26 qui modifie alors l'angle de vue de la topographie virtuelle tridimensionnelle sur les écrans oculaires 13a, 13b. L'utilisateur peut donc changer d'orientation sur le territoire environnant 2', illustré en figure 13, à une époque donnée, en tenant compte de la position initiale du périscope sur ce territoire environnant 2' qui correspond à la position du périscope 1 sur le territoire environnant réel. L'interface numérique 26 permet également à l'utilisateur de s'avancer et/ou de focaliser plus moins dans la topographie virtuelle, comme illustré en figure 13, en actionnant par exemple les boutons de commande 18, 19 situés à droite pour le premier mode de réalisation illustré en figures 1 à 6 ou, la molette 23a située à droite pour le second mode de réalisation illustré en figures 7 à 11. L'interface numérique 26 détermine si des contenus du type sélectionné sont présents dans le champ visuel de la topographie virtuelle tridimensionnelle observée sur les écrans oculaire 13a, 13b et, dans ce cas, permet leur visualisation. Lorsque l'utilisateur se dirige ou focalise plus ou moins sur un contenu visualisé sur les écrans oculaires 13a, 13b, l'interface numérique permet, soit automatiquement soit après validation par l'utilisateur 3 au moyens d'un bouton de commande, par exemple le bouton de commande 20 situé à gauche pour le premier mode de réalisation illustré en figures 1 à 6 ou, le bouton de commande 24a situé à droite pour le second mode de réalisation illustré en figures 7 à 11, d'afficher le contenu en trois dimensions ou en relief et, les données complémentaires visuelles et/ou sonores en les affichant sur les écrans oculaires 13a, 13b et/ou en les diffusant dans les haut-parleurs 14a, 14b. L'interface numérique 26 permet à l'utilisateur 3 de quitter le contenu, soit en changeant l'orientation du corps 7 ou en modifiant la focalisation soit en appuyant sur un bouton de commande, par exemple le bouton de commande 21 situé à gauche pour le premier mode de réalisation illustré en figures 1 à 6 ou, le bouton de commande 25a situé à droite pour le second mode de réalisation illustré en figures 7 à 11. L'utilisateur 3 pourra, par exemple, changer de niveau dans la topographie virtuelle tridimensionnelle en actionnant les boutons de commande 20, 21 situés à gauche pour le premier mode de réalisation illustré en figures 1 à 6 ou, la molette 23b située à gauche pour le second mode de réalisation illustré en figures 7 à 11. Tel qu'illustré en figure 1 et 2 pour le premier mode de réalisation, des moyens d'orientation 28 sont agencés au niveau du socle 4, directement sur le sol 5. Cela permet de repérer l'orientation du périscope dans l'environnement réel 2 pour, par exemple, se diriger vers un lieu où se situe un contenu que l'on a visualisé sur les écrans oculaires 13a, 13b. De tels moyens d'orientation 28 sont également prévu pour le second mode de réalisation, tel qu'illustré en figure 9, le socle 4 comprenant des graduations 29 qui permettent de repérer angulairement la position du périscope 1 dans l'environnement réel. D'autres caractéristiques sont envisageables dans le cadre de l'invention. On pourra, par exemple, prévoir des variantes de réalisation qui combinent des caractéristiques des deux modes de réalisation décrits ci-dessus.30
Claims (15)
- REVENDICATIONS1. Procédé de navigation associé à un périscope (1) interactif à réalité virtuel implanté dans un environnement réel (2) caractérisé en ce qu'il consiste à : - réaliser une topographie virtuelle tridimensionnelle de l'environnement à au moins une époque donnée et visionner cette topographie virtuelle tridimensionnelle au travers du périscope, en considération de son implantation dans l'environnement réel ; - sélectionner au moins un type de contenus associé à l'environnement à au moins une époque donnée ; - naviguer dans la topographie virtuelle tridimensionnelle en visionnant le périscope, en considération de l'orientation et du réglage du déplacement et/ou de la focalisation de ce périscope et ; - visualiser au travers du périscope les contenus sélectionnés lorsque ceux-ci rentrent dans le champ visuel de la topographie virtuelle tridimensionnelle visionnée durant la navigation.
- 2. Procédé selon la revendication 1, dans lequel on complète la visualisation de chaque contenu du type sélectionné, par des données complémentaires relatives à ce contenu.
- 3. Procédé selon l'une des revendications 1 ou 2, dans lequel on réalise une topographie virtuelle tridimensionnelle de l'environnement (2) terrestre, aérien, et/ou marin à au moins une époque donnée, relativement à l'implantation du périscope (1).
- 4. Procédé selon la revendication 3, dans lequel on navigue dans la topographie virtuelle tridimensionnelle terrestre, aérienne et/ou marine en changeant le niveau du champ de vision du périscope (1).
- 5. Périscope (1) interactif à réalité virtuelle destiné à être implanté dans un environnement réel (2), le périscope comprenant un socle (4) fixe, un mât (6) prolongeant vers le haut le socle, un corps (7) mobile monté à l'extrémité supérieure (6a) du mât en liaison pivot indirecte selon un axe vertical (Y1, Y2) vis-à-vis du socle, des moyens de manipulation (16a, 16b, 22a, 22b) en rotation du corps selon l'axe vertical (Y1, Y2), caractérisé qu'il comprend des premières données relatives à unetopographie virtuelle tridimensionnelle de l'environnement à au moins une époque donnée, des moyens de visualisation (13a, 13b) de la topographie virtuelle tridimensionnelle agencés sur le corps, des moyens de navigation (18, 19, 23a, 26) dans la topographie virtuelle tridimensionnelle, des secondes données relatives à au moins un type de contenus associé à l'environnement, des moyens de sélection (20, 21, 24a, 24b, 26) de l'au moins un type de contenus et, des moyens de traitement (26) des premières et secondes données configurés pour visionner au travers des moyens de visualisation, les contenus du type sélectionné lorsque ces contenus entre dans le champ visuel de la topographie virtuelle tridimensionnelle durant la navigation.
- 6. Périscope (1) selon la revendication 5, dans lequel les moyens de visualisation comprennent deux écrans oculaires (13a, 13b) contre lesquels l'utilisateur positionne ses yeux pour visionner la topographie virtuelle tridimensionnelle.
- 7. Périscope (1) selon l'une des revendications 5 ou 6, dans lequel les moyens de navigation comprennent un système de mesure de l'orientation du corps par rapport au socle et un système de traitement (26) configuré pour modifier l'orientation du champ visuel de la topographie virtuelle tridimensionnelle observé au travers des moyens de visualisation (13a, 13b), en fonction de l'orientation du corps (7).
- 8. Périscope selon la revendication 7, dans lequel les moyens de navigation comprennent un système de commande d'avance et de recule, le système de traitement étant configurer pour se diriger et/ou focaliser plus ou moins dans le champ visuel de la topographie virtuelle tridimensionnelle observé, en fonction de l'actionnement du système de commande d'avance et de recule.
- 9. Périscope (1) selon l'une des revendications 7 ou 8, dans lequel les moyens de navigation comprennent un système de commande (20, 21, 23b) de montée et de descente, le système de traitement étant configuré pour changer le niveau de la topographie virtuelle tridimensionnelle observée, en fonction de l'actionnement du système de commande de montée et de descente.
- 10. Périscope (1) selon l'une des revendications 5 à 9, dans lequel les moyens de sélection comprennent un système d'affichage d'un menu des différents types de contenus associés à l'environnement réel (2), sur les moyens de visualisation (13a,13b) et un système de validation configuré pour parcourir le menu et valider un type de contenus à visualiser dans la topographie virtuelle tridimensionnelle.
- 11. Périscope (1) selon l'une des revendications 5 à 10, lequel comprend des troisièmes données relatives à chaque contenu, les moyens de traitement permettant de visionner les troisièmes données relatives à un contenu lors de sa visualisation dans le champ visuel de la topographie virtuelle tridimensionnelle.
- 12. Périscope (1) selon l'une des revendications 5 à 11, lequel comprend des moyens d'écoute (14a, 14b) et des quatrièmes données auditives relatives à chaque contenu, les moyens de traitement permettant aux moyens d'écoute de transmettre les données auditives relatives à un contenu lors de sa visualisation dans le champ visuel de la topographie virtuelle tridimensionnelle.
- 13. Périscope (1) selon l'une des revendications 5 à 12, lequel comprend des moyens de réglage (30, 31) de la hauteur séparant le socle (4) et les moyens de vision (13a, 13b) sur le corps (7).
- 14. Périscope (1) selon l'une des revendications 5 à 13, dans lequel le socle (4) comprend des moyens d'orientation (28) relatifs à l'implantation dudit périscope dans l'environnement réel (2).
- 15. Périscope (1) selon l'une des revendications 5 à 14, lequel comprend un système de badge (27) permettant une activation dudit périscope (1).20
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1261233A FR2998680B1 (fr) | 2012-11-26 | 2012-11-26 | Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1261233A FR2998680B1 (fr) | 2012-11-26 | 2012-11-26 | Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2998680A1 true FR2998680A1 (fr) | 2014-05-30 |
FR2998680B1 FR2998680B1 (fr) | 2015-01-16 |
Family
ID=47833194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1261233A Expired - Fee Related FR2998680B1 (fr) | 2012-11-26 | 2012-11-26 | Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2998680B1 (fr) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006112743A1 (fr) * | 2005-04-22 | 2006-10-26 | Ydreams - Informática, S.A. | Système pour la visualisation d'informations superposées à des images réelles |
WO2008059086A1 (fr) * | 2006-11-16 | 2008-05-22 | The Movie Virtual, S.L. | Système et procédé de visualisation d'une image agrandie par application de techniques de réalité augmentée |
FR2911463A1 (fr) * | 2007-01-12 | 2008-07-18 | Total Immersion Sa | Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif |
-
2012
- 2012-11-26 FR FR1261233A patent/FR2998680B1/fr not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006112743A1 (fr) * | 2005-04-22 | 2006-10-26 | Ydreams - Informática, S.A. | Système pour la visualisation d'informations superposées à des images réelles |
WO2008059086A1 (fr) * | 2006-11-16 | 2008-05-22 | The Movie Virtual, S.L. | Système et procédé de visualisation d'une image agrandie par application de techniques de réalité augmentée |
FR2911463A1 (fr) * | 2007-01-12 | 2008-07-18 | Total Immersion Sa | Dispositif d'observation de realite augmentee temps reel et procede de mise en oeuvre d'un dispositif |
Also Published As
Publication number | Publication date |
---|---|
FR2998680B1 (fr) | 2015-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3592444B1 (fr) | Système et procédé de visualiseur de réalité mixte | |
US10853992B1 (en) | Systems and methods for displaying a virtual reality model | |
US9262996B2 (en) | Apparatus and method for displaying images | |
EP1058915B1 (fr) | Systeme de visualisation d'images tridimensionnelles realistes virtuelles en temps reel | |
US20150254882A1 (en) | Wireless immersive experience capture and viewing | |
JP7023560B2 (ja) | 星空再現装置 | |
EP2806645A1 (fr) | Amélioration d'images au moyen d'un modèle multidimensionnel | |
CA2942652A1 (fr) | Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe | |
JP2007536964A (ja) | 仮想風景を表示するための方法と装置 | |
Schulz | Architectural photography: composition, capture, and digital image processing | |
WO2015054387A1 (fr) | Appareil de visualisation tridimensionnelle (3d) interactive, pour l'extérieur | |
Mach et al. | Visualization of digital terrain and landscape data: a manual | |
EP3210378B1 (fr) | Méthode pour collecter des données d'images destinées à produire une vidéo immersive et méthode de visualisation d'un espace sur base de ces données d'images | |
US10984596B2 (en) | Systems and methods for enriching a virtual reality tour | |
FR2998680A1 (fr) | Procede de navigation dans un environnement associe a un periscope interactif a realite virtuelle | |
ES2300204B1 (es) | Sistema y metodo para la visualizacion de una imagen aumentada aplicando tecnicas de realidad aumentada. | |
FR3000351A1 (fr) | Procede d’utilisation d’une video immersive sur un dispositif portable de visualisation | |
Marquardt | Wide-angle Photography: Capturing Landscape, Portrait, Street, and Architectural Photographs with Wide-angle Lenses (including Tilt-shift Lenses) | |
EP3724749B1 (fr) | Appareil pour application de réalité augmentée | |
FR3057430A1 (fr) | Dispositif d'immersion dans une representation d'un environnement resultant d'un ensemble d'images | |
EP2192501B1 (fr) | Procédé d'acquisition de données et procédé de construction d'un produit multimédia de visite virtuelle | |
WO2017153675A1 (fr) | Borne d'observation de contenus immersifs 360° comportant une interface faciale incurvée avec saillie asymétrique | |
FR3046285B1 (fr) | Simulateur de survol d'un site touristique et procede de simulation associe | |
FR3121251A3 (fr) | Procédé et système informatisés de navigation en réalités virtuelles et programme d’ordinateur | |
Nicholas | Drawing the perceptual and experiential landscape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
ST | Notification of lapse |
Effective date: 20200910 |