FR2778248A1 - Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese - Google Patents

Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese Download PDF

Info

Publication number
FR2778248A1
FR2778248A1 FR9805768A FR9805768A FR2778248A1 FR 2778248 A1 FR2778248 A1 FR 2778248A1 FR 9805768 A FR9805768 A FR 9805768A FR 9805768 A FR9805768 A FR 9805768A FR 2778248 A1 FR2778248 A1 FR 2778248A1
Authority
FR
France
Prior art keywords
place
projection device
person
virtual
virtual universe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR9805768A
Other languages
English (en)
Inventor
Pierre Emmanuel Bathie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR9805768A priority Critical patent/FR2778248A1/fr
Publication of FR2778248A1 publication Critical patent/FR2778248A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B2027/0192Supplementary details
    • G02B2027/0198System for aligning or maintaining alignment of an image in a predetermined direction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

Procédé et système de diffusion d'images de synthèse d'un univers virtuel en relation avec le lieu où évolue la personne recevant les images de synthèse. La présente invention concerne un procédé, un système et un appareil de diffusion d'images de synthèse à l'usage d'au moins une personne située dans un lieu déterminé. Ledit procédé comprend les étapes de : - projeter sur un écran (dont l'emplacement 2b est visible sur la figure 3), réel ou virtuel, d'un appareil de projection (2) transporté par ladite personne (1), des images de synthèse d'un univers virtuel dans lequel ladite personne est immergée; - localiser (21) ledit appareil de projection (2) par rapport au lieu (3) où il est situé; - calculer les images de synthèse destinées à être projetées (25) sur ledit écran, à partir des coordonnées spatiales de l'appareil de projection (2) et des données contenues dans une base de données décrivant ledit univers virtuel en fonction de l'un et/ ou l'autre des éléments suivants : la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront. L'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre des environnements.

Description

Procédé et système de diffusion d'images de synthèse d'un univers virtuel
en relation avec le lieu o évolue la personne recevant
les images de synthèse.
La présente invention concerne un procédé, un système et un appareil de diffusion d'images de synthèse d'un univers virtuel en relation avec le lieu o évolue la
personne recevant les images de synthèse.
Il est connu des procédés, des systèmes et des appareils permettant - de guider l'utilisateur, lors de la visite d'un site, au moyen d'un écran sur lequel s'affichent des indications topographiques et des indications de direction à suivre et, - de fournir à l'utilisateur des informations audio sur les éléments du site qui l'intéressent. Les sens de l'utilisateur sont constamment sollicités par les objets et les sons du monde réel dans lequel il évolue mais il reçoit simultanément, via l'écran de visualisation de l'équipement qu'il transporte, des indications graphiques, sur le trajet
à suivre pour aller d'un centre d'intérêt à un autre.
1 peut également écouter, via un émetteur audio situé dans l'équipement des
informations relatives aux lieux qu'il visite.
La présente invention concerne un tout autre problème. Elle a pour objet de permettre au visiteur de s'immerger dans un univers virtuel en rapport avec le lieu o il se situe. Par "s'immerger", au sens de la présente invention, on entend que l'utilisateur pénètre dans un univers virtuel sans pour autant être coupé du monde réel o il conserve des repères. L'utilisateur s'immerge dans l'univers virtuel à la manière dont un nageur s'immerge dans l'univers aquatique en quittant le bord du rivage. En effet, l'objectif de la présente invention est de permettre à l'utilisateur d'évoluer au même moment au sein du monde réel et au sein d'un univers virtuel, en visionnant tour à tour l'un ou l'autre des environnements. Ces univers virtuels peuvent être décrits en se référant: - à la topographie des lieux, leur évolution au cours du temps, au cours des saisons (par exemple, cas des lieux en plein air, recul d'une falaise), - aux objets qui s'y sont trouvés (par exemple, cas des mobiliers des palais), - aux objets qui s'y trouvent (par exemple, cas des musées), - aux objets qui s'y trouveront (par exemple, cas des projets architecturaux, des projets de décoration), - aux personnes qui s'y sont trouvées (par exemple, cas de la vie à Versailles sous Louis XIV), - aux personnes qui s'y trouvent (par exemple, cas des épreuves sportives), aux personnes qui s'y trouveront (par exemple, cas des projets de chorégraphie) - aux événements qui s'y sont déroulés (par exemple, cas des fresques historiques, prise de la Bastille) - aux événements qui s'y déroulent (par exemple, cas des colloques médicaux et des conférences sur les opérations à coeur ouvert), - aux événements qui s'y dérouleront ( par exemple, résultats d'une inondation) Selon l'invention, pour atteindre cet objectif, le procédé de diffusion d'images de synthèse à l'usage d'au moins une personne située dans un lieu déterminé comprend les étapes: - de projeter sur un écran, réel ou virtuel, d'un appareil de projection transporté par la personne, des images de synthèse d'un univers virtuel dans lequel la personne est immergée, - de localiser ledit appareil de projection par rapport au lieu o il est situé, - de calculer les images de synthèse destinées à être projetées sur l'écran, Les images de synthèse sont calculées à partir des coordonnées spatiales de l'appareil de projection et des données contenues dans une base de données décrivant l'univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont
déroulés ou qui s'y dérouleront.
Ainsi grâce à ce procédé, l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre
des environnements.
De préférence, selon une autre caractéristique de l'invention, pour localiser la personne et l'appareil de projection transporté par la personne, on utilise un positionnement par satellite notamment du type GPS (Système de positionnement global) ou une version différentielle de celui-ci notamment du type DGPS (Système de
positionnement global différentiel).
Egalement, selon une autre caractéristique de l'invention, pour localiser la personne et l'appareil de projection transporté par la personne, on balise ledit lieu au moyen de repères actifs ou passifs et on détecte les repères au moyen de capteurs
physiques embarqués dans l'appareil de projection.
L'invention concerne également un système de diffusion d'images de synthèse à l'usage d'au moins une personne située dans un lieu déterminé et transportant un
appareil de projection.
Ledit système comprenant: - des moyens pour projeter sur un écran réel ou virtuel dudit appareil de projection, des images de synthèse d'un univers virtuel dans lequel ladite personne est immergée, - des moyens pour localiser ledit appareil de projection transporté par ladite personne par rapport au lieu o il est situé, - une base de données contenant des données décrivant ledit univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront, - des moyens pour calculer des images de synthèse destinées à être projetées sur l'écran virtuel, à partir des coordonnées spatiales de l'appareil de projection
et des données contenues dans la base de données décrivant l'univers virtuel.
Grâce à ce système, l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre
des environnements.
De préférence, selon une autre caractéristique du système de l'invention, les moyens pour localiser la personne et l'appareil de projection transporté par la personne comprennent un dispositif de positionnement par satellite notamment du type GPS ou
une version différentielle de celui-ci notamment du type DGPS.
Egalement, selon une autre caractéristique du système de l'invention, les moyens pour localiser la personne et l'appareil de projection transporté par la personne, comprennent: - des repères actifs ou passifs destinés à baliser ledit lieux,
- des moyens de détection pour détecter les repères.
Les moyens de détection sont embarqués dans l'appareil de projection.
L'invention concerne également un appareil de projection pour diffuser des images de synthèse à l'usage d'au moins une personne située dans un lieu déterminé et transportant l'appareil de projection. L'appareil de projection comprend: - des moyens pour projeter sur un écran réel ou virtuel dudit appareil de projection, des images de synthèse d'un univers virtuel dans lequel ladite personne est immergée; - des moyens pour localiser ledit appareil de projection transporté par ladite personne par rapport au lieu o il est situé; - une base de données contenant des données décrivant ledit univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront; - des moyens pour calculer des images de synthèse destinées à être projetées sur l'écran virtuel, à partir des coordonnées spatiales de l'appareil de projection
et des données contenues dans la base de données décrivant l'univers virtuel.
Grâce à cet appareil de projection, l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un
ou l'autre des environnements.
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de
la description de variantes de réalisation de l'invention, données à titre d'exemple
indicatif et non limitatif, et de: - la figure 1 qui représente une vue en perspective d'une variante de réalisation du procédé et du système selon l'invention, dans le cas o les moyens de localisation sont du type GPS ou DGPS; - la figure 2 qui représente une vue, sous forme de bloc diagramme, d'une variante de réalisation des sous-ensembles composant l'appareil de projection; - la figure 3 qui représente une vue en perspective d'une variante de réalisation de l'appareil de projection; - la figure 4 qui représente une vue en perspective d'une variante de réalisation du procédé et du système selon l'invention, dans le cas o les moyens de
localisation mettent en oeuvre des balises.
On va maintenant décrire la figure 1 qui représente une vue en perspective
d'une variante de réalisation du système selon l'invention.
L'utilisateur 1 utilise l'appareil de projection 2 de façon continue pendant une
durée de quelques minutes à trois heures.
Il transporte l'appareil avec lui ( à la main, sur son dos, en bandoulière, autour du cou, etc.) pendant qu'il se déplace (à pied la plupart du temps) dans un lieu déterminé (identifié et borné), une pièce 3 d'un musée dans le cas représenté. Lorsqu'il
le souhaite, l'utilisateur pose la partie 2a de l'appareil de projection 2 devant ses yeux.
Cette partie 2a contient un écran virtuel, dont l'emplacement 2b est visible sur la figure 3. Il est rappelé ici qu'un écran virtuel est un écran d'ordinateur miniature (à tube cathodique ou bien à cristaux liquides), situé à quelques centimètres des yeux, que l'on observe à travers un système optique simple. Ce système optique est composé de lentilles et/ou de miroirs dont le rôle est d'éloigner le plan focal d'une part et d'agrandir l'image d'autre part. Cette technique, en soi connue, est couramment utilisée dans les casques virtuels. Ceux-ci, afin de restituer la stéréoscopie, utilisent un écran virtuel pour chaque oeil de l'utilisateur. Un exemple de tel casque est commercialisé sous la référence VFX1 par la société Forte (marques déposées). L'utilisateur regarde l'écran virtuel (dont l'emplacement 2b est visible sur la figure 3) de l'appareil de projection 2 et perçoit les images de synthèse d'un univers virtuel dont l'architecture dépend de la position et de l'orientation de l'appareil de projection. En position de visualisation, l'utilisateur trouve sous ses doigts quatre touches de fonction (voir figure 3) qui lui permettent d'obtenir les effets suivants: - touche 31, effet zoom avant, - touche 32, effet zoom arrière, - touche 33, effet ascension verticale,
- touche 34, effet descente verticale.
Ces touches sont programmnables: leurs effets sont définis et paramétrés au
sein du logiciel qui contrôle le calcul des images, ainsi qu'on le verra ci-après.
L'utilisateur a la possibilité d'adapter l'appareil à sa morphologie au moyen des mollettes de réglage suivantes: - molette 35, écart interpupillaire,
- molette 36, réglage de la netteté de l'image.
Lorsqu'il n'est plus utilisé, l'appareil de projection 2 est rangé dans l'une des alvéoles 10 ménagées à cet effet dans un meuble 4 situé à proximité de l'entrée du lieu de la visite. Un système de connexion 37 (visible sur la figure 3) permet de connecter chaque appareil de projection 2 au système d'alimentation électrique 5 contenu dans le meuble 4 et de recharger ses batteries 11. Dans l'exemple représenté sur les figures 1 et 4, les batteries 11 sont portées à la ceinture par l'utilisateur 1. Un câble électrique 12, débranchable, relie la batterie 11 à l'appareil de projection 2. Un interrupteur central permet de couper l'alimentation électrique 5 du meuble. Des voyants 38a et 38b (voir figure 3) présents sur chaque appareil de projection 2, indiquent si ceux-ci sont en état de fonctionnement et si leurs batteries sont chargées. Ces voyants 38a et 38b sont visibles de l'extérieur du meuble 4. Des prises (non visibles sur la figure 1) permettent de connecter chaque appareil de projection 2 à un microcalculateur 6 situé dans le meuble 4. Préalablement à l'ouverture de la période de mise à disposition des appareils de projection, le microcalculateur 6 déclenche l'initialisation de ceux-ci (chargement des applications, des bases de données, etc.). Les appareils de projection 2 sont extraits du meuble 4, au moment de la distribution aux utilisateurs au moyen
d'une poignée 39 (figure 3).
On va maintenant décrire le fonctionnement de l'appareil de projection en se
référant à la figure 2.
L'appareil de projection 2 comprend des moyens de localisation 20 du type GPS (Système de positionnement global) ou DGPS (Système de positionnement global différentiel) pour localiser, à partir de données fournies par un satellite 21 (figure 1), l'appareil de projection transporté par l'utilisateur (et par conséquent également l'utilisateur) par rapport au lieu o il se situe. De manière connue en soi, la balise fixe et l'antenne 14 permettent au système DGPS de déterminer avec précision la position de l'appareil de projection 2. Le fonctionnement en différentiel repose sur la comparaison des informations reçues, via l'antenne 14, par la balise fixe 13 (dont on connaît parfaitement la position) et des informations reçues par le module GPS en mouvement. En soustrayant (en procédant par "différence"), de la position calculée du module GPS en mouvement, les écarts entre la position calculée et la position connue de la balise fixe 13, on affine la précision finale. Le rayon d'incertitude passe de 100 m à 2 m. Le DGPS fournit à l'ordinateur central 22 les trois coordonnées (abscisse, ordonnée et côte) décrivant la position de l'appareil de projection 2. Les moyens de localisation 20 comprennent également un ensemble de capteurs physiques, inclinomètres, accéléromètres et/ou capteurs de champ magnétique terrestre, fournissant à l'unité de calcul centrale 22 les trois coordonnées angulaires décrivant l'orientation de l'appareil de projection 2. L'appareil de projection 2 comprend également une interface 23 comportant quatre touches de fonction, 31, 32, 33, 34 (voir figure 3), réparties en deux groupes de deux touches affectées les unes à la main droite
les autres à la main gauche.
L'appareil de projection 2 comprend également une zone mémoire 24 contenant la base de données décrivant l'univers virtuel notamment en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront. La zone mémoire 24 contient également les logiciels (les applications) nécessaires au
fonctionnement de l'appareil de projection 2.
L'appareil de projection 2 comprend également une unité centrale de calcul 22 pour calculer rapidement (plus de 20 fois par seconde) des images de synthèse dans un format 314 ou 16/9 avec une résolution horizontale d'au moins 800 pixels, en 64 K couleurs minimum. Cette unité centrale procède aux calculs à partir des informations de position fournies par les moyens de localisation 20 d'une part, des actions des utilisateurs sur les touches 31, 32, 33, 34 de l'interface 23 d'autre part, et des données de la base de données de la zone mémoire 24. Les images de synthèse calculées par l'unité centrale 22 sont destinées à être projetées, grâce aux moyens de visualisation 25, sur l'écran virtuel (dont l'emplacement 2b est visible sur la figure 3) de la partie 2a de l'appareil de projection 2. Cet écran virtuel (dont l'emplacement 2b est visible sur la figure 3) diffuse à destination des yeux de l'utilisateur 1 les images de synthèse sous l'apparence d'un écran 17' vu à 50 cm. Cette partie 2a de l'appareil de projection 2 se présente à l'utilisateur sous la forme d'un hublot (les deux yeux étant compris dans le même ensemble optique), ou bien sous la forme de l'extrémité d'une paire de jumelle binoculaire (une optique pour chaque oeil). L'appareil de projection 2 comprend également un module de gestion de l'énergie 26 et un module de communication avec l'extérieur 27 dont le rôle est de permettre: - un échange d'informations, par voie hertzienne, entre l'appareil de projection 2 et le microcalculateur 6 du meuble de stockage, pendant l'utilisation de l'appareil. Les informations ainsi échangées concernent l'utilisation de l'appareil, son emplacement, sa charge, etc. Le microcalculateur 6 agit alors en serveur central. i gère l'ensemble des viseurs utilisés au même moment (pour situer des groupes, par exemple, ou gérer des flux de visiteurs susceptibles de se gêner au cours d'une visite, ). Dans une autre variante de réalisation le microcalculateur 6 du meuble de stockage 4, pourrait agir en serveur centralisé allégeant les tâches de calcul des appareils de projection 2; la télécommande de l'appareil de projection par voie hertzienne par un tiers pendant l'utilisation de l'appareil afin, par exemple, de synchroniser les images de synthèse avec les explications d'un guideanimateur; - un échange d'informations par connexion entre l'appareil de projection 2 et le microcalculateur 6 du meuble de stockage 4 lorsque l'appareil est rangé dans
une alvéole 10 du meuble.
On va maintenant décrire la figue 4 qui représente une vue en perspective d'une
autre variante de réalisation.
On y reconnaît la plupart des éléments décrits en se référant à la figure 1. Ils
portent les mêmes références.
Dans le cas de cette variante de réalisation, les moyens pour localiser l'utilisateur et l'appareil de projection qu'elle transporte comprennent: - des repères actifs 41, notamment des émetteurs infrarouges ou à ultra-sons destinés à baliser le lieu 3; - des moyens de détection notamment des détecteurs infrarouges ou à ultra-sons 20, connus en soi, pour détecter les repères 41. Les moyens de
détection 20 sont embarqués dans l'appareil de projection 2.
Les logiciels utilisés pour calculer les images de synthèse des univers virtuels sont en soi connus. Ils mettent en oeuvre le procédé dit des "faces polygonales texturées". Selon ce procédé, l'univers virtuel est intégralement décrit par une série de polygones, délimitant les divers volumes de l'univers. A chacun de ces polygones, on attribue un fichier graphique représentant la surface de la face du volume correspondante. Ce procédé est notamment utilisé dans les logiciels de jeux tels que Wolfenstein 3D de la société Apogée (marques déposées) ou Doom et Quake de la
société ID Software (marques déposées).

Claims (7)

Revendications
1. Procédé de diffusion d'images de synthèse à l'usage d'au moins une personne (1) située dans un lieu déterminé (3), ledit procédé comprenant les étapes: - projeter sur un écran (dont l'emplacement 2b est visible sur la figure 3), réel ou virtuel, d'un appareil de projection (2) transporté par ladite personne (1), des images de synthèse d'un univers virtuel dans lequel ladite personne est immergée; - localiser (13, 14, 20, 21, 41) ledit appareil de projection (2) par rapport au lieu (3) o il est situé; - calculer (22) les images de synthèse destinées à être projetées sur ledit écran (dont l'emplacement 2b est visible sur la figure 3), à partir des coordonnées spatiales de l'appareil de projection (2) et des données contenues dans une base de données (24) décrivant ledit univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront (de sorte que l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre des environnements).
2. Procédé selon la revendication 1, caractérisé en ce que pour localiser (20) l'appareil de projection (2) transporté par la personne (1), on utilise un positionnement par satellite (21) notamment du type GPS ou une version différentielle de celui-ci
notamment du type DGPS.
3. Procédé selon la revendication 1, caractérisé en ce que, pour localiser l'appareil de projection transporté par la personne, - on balise ledit lieu au moyen de repères (41) actifs ou passifs, - on détecte les repères (41) au moyen de capteurs physiques embarqués (20)
dans l'appareil de projection (2).
4. Système de diffusion d'images de synthèse à l'usage d'au moins une personne (1) située dans un lieu déterminé (3) et transportant un appareil de projection (2), ledit système comprenant: - des moyens pour projeter sur un écran (dont l'emplacement 2b est visible sur la figure 3) réel ou virtuel dudit appareil de projection (2), des images de synthèse d'un univers virtuel dans lequel ladite personne (1) est immergée; - des moyens (13, 14, 20, 21, 41) pour localiser ledit appareil de projection transporté par ladite personne (1) par rapport au lieu (3) o il est situé; - une base de données (24) contenant des données décrivant ledit univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront; - des moyens pour calculer (22) des images de synthèse destinées à être projetées sur l'écran réel ou virtuel (dont l'emplacement 2b est visible sur la figure 3), à partir des coordonnées spatiales de l'appareil de projection (2) et des données contenues dans la base de données (24) décrivant l'univers virtuel (de sorte que l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre des environnements).
5. Système selon la revendication 4, caractérisé en ce que les moyens pour localiser l'appareil de projection transporté par la personne comprennent un dispositif de positionnement par satellite (21) notamment du type GPS ou une version
différentielle de celui-ci notamment du type DGPS.
6. Système selon la revendication 4, caractérisé en ce que les moyens pour localiser l'appareil de projection transporté par la personne, comprennent: - des repères (41) actifs ou passifs destinés à baliser ledit lieu (3), - des moyens de détection 20 pour détecter les repères (41), lesdits moyens de
détection (20) étant embarqués dans l'appareil de projection (2).
7. Appareil de projection (2) pour diffuser des images de synthèse à l'usage d'au moins une personne (1) située dans un lieu déterminé (3) et transportant le dit appareil de projection, ledit appareil comprenant: des moyens pour projeter sur un écran (dont l'emplacement 2b est visible sur la figure 3) réel ou virtuel dudit appareil de projection (2), des images de synthèse d'un univers virtuel dans lequel ladite personne (1) est immergée; - des moyens (20) pour localiser ledit appareil de projection (2) transporté par ladite personne (1), par rapport au lieu (3) o il est situé; - une base de données (24) contenant des données décrivant ledit univers virtuel en fonction de l'un et/ou l'autre des éléments suivants: la topographie présente, passée ou future dudit lieu, les personnes ou les objets qui s'y trouvent, qui s'y sont trouvés ou qui s'y trouveront, les événements qui s'y déroulent, qui s'y sont déroulés ou qui s'y dérouleront; - des moyens pour calculer (22) des images de synthèse destinées à être projetées sur l'écran virtuel, à partir des coordonnées spatiales de l'appareil de projection (2) et des données contenues dans la base de données (24) décrivant l'univers virtuel; (de sorte que l'utilisateur peut évoluer au même moment au sein du monde réel et au sein d'un univers virtuel lié, en visionnant tour à tour l'un ou l'autre des environnements).
FR9805768A 1998-04-30 1998-04-30 Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese Withdrawn FR2778248A1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR9805768A FR2778248A1 (fr) 1998-04-30 1998-04-30 Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9805768A FR2778248A1 (fr) 1998-04-30 1998-04-30 Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese

Publications (1)

Publication Number Publication Date
FR2778248A1 true FR2778248A1 (fr) 1999-11-05

Family

ID=9526117

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9805768A Withdrawn FR2778248A1 (fr) 1998-04-30 1998-04-30 Procede et systeme de diffusion d'images de synthese d'un univers virtuel en relation avec le lieu ou evolue la personne recevant les images de synthese

Country Status (1)

Country Link
FR (1) FR2778248A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014108675A1 (fr) * 2013-01-08 2014-07-17 Sony Computer Entertainment Europe Limited Appareil pouvant être monté sur la tête détectant un emmêlement de câble

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807202A (en) * 1986-04-17 1989-02-21 Allan Cherri Visual environment simulator for mobile viewer
JPH0647170A (ja) * 1992-07-21 1994-02-22 Sega Enterp Ltd 仮想現実感生成装置
GB2278196A (en) * 1993-05-18 1994-11-23 William Michael Frederi Taylor Information system using GPS
WO1995007526A1 (fr) * 1993-09-10 1995-03-16 Criticom Corporation Systemes d'observation electro-optiques exploitant la position et l'attitude
GB2295938A (en) * 1994-12-09 1996-06-12 Sega Enterprises Kk Head mounted display
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
DE29719230U1 (de) * 1997-10-29 1998-02-19 Allinger Hans Joachim Interaktives Führungssystem für Museen, Ausstellungen, Messen und Weiteres

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807202A (en) * 1986-04-17 1989-02-21 Allan Cherri Visual environment simulator for mobile viewer
JPH0647170A (ja) * 1992-07-21 1994-02-22 Sega Enterp Ltd 仮想現実感生成装置
GB2278196A (en) * 1993-05-18 1994-11-23 William Michael Frederi Taylor Information system using GPS
WO1995007526A1 (fr) * 1993-09-10 1995-03-16 Criticom Corporation Systemes d'observation electro-optiques exploitant la position et l'attitude
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
GB2295938A (en) * 1994-12-09 1996-06-12 Sega Enterprises Kk Head mounted display
DE29719230U1 (de) * 1997-10-29 1998-02-19 Allinger Hans Joachim Interaktives Führungssystem für Museen, Ausstellungen, Messen und Weiteres

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
PATENT ABSTRACTS OF JAPAN vol. 018, no. 276 (C - 1204) 26 May 1994 (1994-05-26) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014108675A1 (fr) * 2013-01-08 2014-07-17 Sony Computer Entertainment Europe Limited Appareil pouvant être monté sur la tête détectant un emmêlement de câble

Similar Documents

Publication Publication Date Title
US10404945B1 (en) Display an image during a communication
CN105378801B (zh) 全息图快照网格
EP0610414B1 (fr) Lecteur de cartes numerisees portable
CN102999160B (zh) 混合现实显示器中用户控制的现实对象的消失
CN104935905B (zh) 自动3d照相亭
CN105144022B (zh) 头戴式显示器资源管理
US20180046874A1 (en) System and method for marker based tracking
CN107209950A (zh) 从现实世界材料自动生成虚拟材料
CN107209564A (zh) 将现实世界比例应用于虚拟内容
CN110011897A (zh) 具有光学窄播的社交媒体
EP3058444A1 (fr) Procédé d'interaction par le regard et dispositif associé
CN107430278A (zh) 基于用户的上下文敏感全息图反应
CN107111370A (zh) 现实世界对象的虚拟表示
CN105453011A (zh) 虚拟对象朝向和可视化
US20120246223A1 (en) System and method for distributing virtual and augmented reality scenes through a social network
WO2001061588A1 (fr) Procede et systeme de recherche prealable de collaborateur utilisateur de telephone mobile
CN105452994A (zh) 虚拟物体的同时优选观看
EP2685707A1 (fr) Système de tir vidéo sphérique
CN110192389A (zh) 一种网真系统
CA2942652A1 (fr) Systeme de simulation tridimensionnelle virtuelle propre a engendrer un environnement virtuel reunissant une pluralite d'utilisateurs et procede associe
CN110168615A (zh) 信息处理设备、信息处理方法和程序
CN106716497A (zh) 在表面重构中使用自由形式变形
CN111341013A (zh) 智能售货机的移动方法、装置、设备及存储介质
EP3983870B1 (fr) Système numérique de préparation de mission
FR2741224A1 (fr) Systeme de camera virtuelle et procede interactif de participation a une retransmission d'evenement dans un espace limite

Legal Events

Date Code Title Description
ST Notification of lapse