ES2203076T3 - Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real. - Google Patents

Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real.

Info

Publication number
ES2203076T3
ES2203076T3 ES99907666T ES99907666T ES2203076T3 ES 2203076 T3 ES2203076 T3 ES 2203076T3 ES 99907666 T ES99907666 T ES 99907666T ES 99907666 T ES99907666 T ES 99907666T ES 2203076 T3 ES2203076 T3 ES 2203076T3
Authority
ES
Spain
Prior art keywords
user
virtual
real
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99907666T
Other languages
English (en)
Inventor
Olivier Lestruhaut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rasterland Ste SA
Original Assignee
Rasterland Ste SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rasterland Ste SA filed Critical Rasterland Ste SA
Application granted granted Critical
Publication of ES2203076T3 publication Critical patent/ES2203076T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Radio Relay Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Generation (AREA)

Abstract

Dispositivo de visualización de imágenes tridimensionales realistas calculadas por ordenador e incrustadas informáticamente en un entorno real, incluyendo al menos un dispositivo individual y portátil de captura de imágenes reales percibidas por el usuario tal como una cámara, un dispositivo de memorización de las características de los objetos virtuales a visualizar, un dispositivo de memorización de la posición prevista de dichos objetos en un entorno geográfico real, un dispositivo de seguimiento de la posición del usuario, un dispositivo de seguimiento del campo visual del usuario, un dispositivo de introducción de comandos por el usuario, un dispositivo de cálculo informático que incluye un programa de cálculo, y un dispositivo individual y portátil de visualización de las imágenes así calculadas.

Description

Sistema de visualización de imágenes tridimensionales realistas virtuales en tiempo real.
La presente invención se refiere a sistemas de visualización de imágenes tridimensionales realistas virtuales en tiempo real.
Se conocen numerosos dispositivos de visualización de imágenes realistas y de realidad virtual. Se conocen particularmente sistemas de simulación de vuelo que incluyen bases de datos con información de carácter geográfico, correspondientes a paisajes reales o inventados, con un programa informático que reproduce la imagen correspondiente a la posición en un instante dado del usuario con respecto a los elementos de la base.
La patente EP-0-700-018 describe un procedimiento de generación de imágenes interactivas. Las etapas del procedimiento consisten en crear, en un servidor, imágenes en tres dimensiones de un entorno virtual conformes a los puntos de vista de cierto número de posiciones predeterminadas en dicho entorno virtual. El usuario, situado ante su pantalla, evoluciona en este entorno virtual y su posición virtual es transmitida al servidor por medio de una red de comunicaciones. El servidor reenvía luego a la terminal del usuario la imagen virtual del entorno correspondiente a su posición. El servidor puede, por ejemplo, transmitir una imagen del plano en último término que corresponde a la posición virtual del usuario. La imagen del primer plano de la escena se crea en la terminal del usuario. Las dos imágenes obtenidas se mezclan y se muestran sobre la pantalla de la terminal del usuario. Este procedimiento permite tanto obtener las imágenes a menor coste como simplificar la estructura de la terminal del usuario debido a que gran parte del tratamiento informático se realiza en un servidor centralizado.
La patente EP-0-817-133, A. SUN MICROSYSTEM INC., describe un procedimiento que permite visualizar objetos virtuales en un entorno real. El sistema comprende una pantalla, una cámara, un sistema de posicionamiento por telemetría y un sistema de cálculo de imágenes virtuales en dos dimensiones con respecto a un entorno real. La imagen así calculada se superpone a continuación a la imagen tomada por la cámara.
Este sistema presenta ciertas limitaciones, sobre todo en lo referente al sistema de telemetría. En efecto, este tipo de sistema de localización no permite el posicionamiento preciso de ciertas aplicaciones en unos espacios amplios.
Por otra parte, este sistema de visualización está completamente aislado y no permite ninguna interactividad con otros aparatos similares. En efecto, la memorización de la posición del objeto está contenida en la memoria interna del sistema. Este aspecto limita el realismo del sistema debido a que sólo un usuario puede visualizar el objeto, desplazarlo y observarlo desde otra posición. Cada uno de los usuarios, por lo tanto, navega entre sus propios objetos virtuales e ignora totalmente los de los demás. Por lo tanto, este sistema no permite la creación y visualización de un entorno virtual común a un conjunto de usuarios superpuesto al entorno real por naturaleza común a todos los usuarios.
La patente US-5-556-073, MARGOLIN JED, describe un sistema de ayuda al pilotaje. El sistema incluye un G.P.S. que permite determinar la posición del avión. Una base de datos contiene una representación virtual del entorno del avión. En función de la posición del avión es por lo tanto posible visualizar el entorno virtual sin preocuparse por el entorno real. La visualización del entorno puede ser realizada por medio de un casco de visualización. Este tipo de sistema no permite superponer un entorno virtual sobre el entorno real sino que únicamente permite sustituir el entorno real por un entorno virtual que representa las características del entorno real.
La patente US-4-970-666, WELSH WILLIAM T Y COL., describe un sistema de representación de imágenes en un entorno real. Las imágenes del entorno real son digitalizadas, después la representación de la imagen virtual es posicionada por referencia a la imagen digitalizada. Las dos imágenes son instantáneamente superpuestas. Este tipo de sistema sólo permite tratar imágenes fijas para simular un objeto virtual recalculando su imagen al tiempo y a medida que el usuario se desplaza y superponiéndola sobre el entorno real. Por otra parte, este sistema permite añadir a la imagen efectos, por ejemplo, de iluminación. De nuevo, esta operación es muy fácil en el caso de imágenes fijas, pero resulta muy complicada en el caso de un usuario en movimiento en el que las imágenes deben ser recalculadas ininterrumpidamente.
La patente US-5-625-765, ELLENBY JOHN Y COL., describe un sistema que permite mejorar mediante un ordenador la definición de imágenes ampliadas. Las imágenes reales de una escena pueden ser ampliadas por medio de las informaciones contenidas en el ordenador que reproduce la escena real. Dado que los modelos contenidos en el ordenador no tienen ningún límite en cuanto a resolución, el sistema puede ofrecer una imagen infinitamente ampliada. La imagen producida por el ordenador y la imagen real son combinadas para formar una imagen ampliada según el punto de vista del usuario. Este tipo de sistema está restringido por el proceso de mejora de imágenes reales y no permite superponer un entorno virtual que represente objetos virtuales desplazables y en los que la posición sea común a un conjunto de usuarios en un entorno real.
La patente US-5-579-165, MICHEL CLAUDE Y COL., describe un sistema óptico que permite superponer una imagen virtual sobre una imagen real. La imagen virtual puede ser, por ejemplo, una imagen simbólica procedente de un mapa. Esta patente se limita al dispositivo óptico de superposición de imágenes pero no describe con precisión sus aplicaciones. Por tanto no es posible a partir de los elementos de esta patente realizar una aplicación concerniente a la creación de un entorno virtual interactivo que se superponga al entorno real.
La presente invención intenta proponer un sistema móvil de visualización de imágenes tridimensionales virtuales incrustadas sobre el fondo de un entorno real, capaz de seguir en tiempo real los desplazamientos de uno o de varios usuarios y de mostrar en tiempo real los resultados de sus interacciones. La finalidad es ofrecer a cada usuario la visualización de un entorno virtual interactivo que esté superpuesto a su entorno real. El entorno virtual puede ser común a todos los usuarios, percibiéndolo cada uno de ellos según su punto de vista, y pudiendo ciertos elementos del entorno virtual ser desplazados por un usuario de forma que los demás usuarios perciban ese movimiento en tiempo real.
La invención se describe en la reivindicación 1 adjunta al presente documento.
Se entiende que gracias a esta disposición, el usuario podrá simular el emplazamiento de objetos tales como edificios, rotondas, obras de arte, etc., en el sitio previsto para emplazarlos, con un realismo extremo, facilitando de esta manera la toma de decisiones respecto a diferentes opciones de un proyecto. En realidad se trata para los usuarios de un nuevo modo de ver y de aprehender el espacio: ya no van ellos al ordenador, si no que es la informática la que va a ellos incrustándose en su campo visual.
Esta disposición pone remedio asimismo a la ausencia de convicción de tantas personas ante las imágenes presentadas sobre una pantalla de vídeo o de ordenador, en que el paisaje que ha sido recalculado digitalmente, aparece de forma indudablemente artificial, anguloso, discontinuo, sin variedad cromática, carente de movimientos naturales, etc. Aquí se conserva la imagen real del paisaje, ya que se trata de una retransmisión de vídeo, y se adjunta una imagen virtual calculada, facilitando así su aceptación por el público. En efecto, la familiaridad de éste con la visualización de imágenes de vídeo hará más creíble la integración de la imagen virtual enviada, que no representará más que una superficie blanda en la imagen global.
Según una disposición particular, el medio de detección en tiempo real de la posición de los usuarios en el sitio geográfico de emplazamiento de los objetos virtuales toma la forma o bien de un sistema G.P.S., abreviatura de "Global Positioning System", conectado por satélite, incluyendo un puesto fijo y puestos móviles en forma de mochilas de menos de 4 kilos de peso, o bien de cámaras de vídeo de seguimiento, con lo cual la posición es conocida con precisión.
Esta disposición contribuye a poner en práctica la invención con la ayuda de medios simples y ya conocidos.
La siguiente descripción, hecha conforme a los dibujos anejos con una finalidad explicativa y de ningún modo limitativa, permite comprender mejor las ventajas, finalidades y características de la invención.
- La figura 1 muestra esquemáticamente los principales elementos de la invención.
- La figura 2 ilustra los diferentes elementos funcionales.
- La figura 3 ilustra la arquitectura del sistema.
Tal como muestra la figura 1, el dispositivo inmersivo In Situ de Imaginería virtual interactiva de referencia geográfica en tiempo real en un entorno geográfico dado (1) comprende los siguientes subconjuntos principales: para cada uno de los usuarios (2) una cámara de vídeo (3), un casco de visualización de imágenes virtuales (4), un joystick (5), un trazador de movimientos de cabeza (6), una antena G.P.S. móvil (7) conectada con uno o varios satélites (7), todo ello enviando sus datos a la central de tratamiento (8) por vía hertziana (9). La central de tratamiento (8) (un microordenador) recibe asimismo los datos de la antena G.P.S. fija (10), recurre a la base de datos de objetos virtuales (11) y calcula una imagen compuesta final que es reenviada al casco (12).
De darse el caso, esta imagen o secuencia de imágenes puede ser conservada mediante un disco duro ultrarrápido (13), como CD (14), cinta de vídeo analógica o digital (15), o enviada a un periférico de impresión (16).
La arquitectura del sistema está organizada conforme al esquema de la figura 3, en la cual el punto de referencia (17) indica la parte del usuario con (18) la posición definida por el trazador de la cabeza (19) y el G.P.S. móvil (19'); (20) la interacción con el joystick (21); (22) el sitio real con la cámara de vídeo, (23) la reproducción (24) al usuario con el casco virtual (25) desde la parte del ordenador (28) por transmisión hertziana (26).
Desde el usuario (17), por transmisión hertziana (27), los elementos son transmitidos al ordenador (28). Se observa apreciar que:
- La posición (18) con un G.P.S. en un puesto fijo (29) con tratamiento de la posición (30), cálculo de la imagen virtual (31) según el punto de vista correcto y una base de datos (32) de los objetos virtuales. La base de datos (32) contiene la posición y los parámetros característicos de cada objeto virtual. Esta base de datos (32) está centralizada, es decir, todos sus usuarios tienen la visión del mismo entorno virtual, presentado a cada uno conforme a su punto de vista.
- La interacción (20) con análisis de la interacción (33) y cálculo de la imagen virtual modificada (34).
- El sitio real (22) con la adquisición en tiempo real de la imagen de vídeo (35) y la mezcla (36) de la imagen de vídeo y de la imagen virtual, estando dirigido el resultado obtenido por la reproducción (24) por un emisor de vídeo (37) y hacia el disco duro (38) con un periférico de salida (39).
A nivel del usuario, ver la figura 1, la función posición está articulada en torno al G.P.S. móvil (7) que permite determinar la posición del usuario sobre el terreno por medio de un punto de referencia inicial. Las informaciones (x, y, z) son enviadas al ordenador mediante ondas.
El aparato establece un diálogo en tiempo real con los satélites y con un puesto fijo.
El trazador de cabeza (4) permite determinar si el usuario está mirando arriba, abajo, a la derecha, etc.
La función de interacción está asegurada por el joystick (5), dispositivo idéntico a un ratón pero con movilidad en las tres dimensiones y que permite al usuario interactuar sobre el objeto virtual visualizado conforma a unas cuantas acciones básicas simples: desplazar, suprimir, girar, ampliar o reducir, cambiar de color. Los nuevos datos relativos al objeto virtual modificado son tomados en cuenta por la base de datos (32).
Las pantallas interiores del casco virtual (4) son utilizadas como una pantalla estándar. Es por lo tanto posible dejar que aparezcan en ellas menús desenrollables simples como, por ejemplo, los de Windows 95, marca registrada.
Sobre el sitio real, la cámara de vídeo (3) situada sobre el caso del usuario capta una imagen del sitio correspondiente a su campo visual. La imagen es enviada por ondas a la tarjeta de adquisición en tiempo real del ordenador.
La reproducción se efectúa con la recepción en el casco virtual de la transmisión hertziana del ordenador. El casco virtual está provisto de dos pantallas LCD, una para cada ojo. Esto permite al usuario visualizar la imagen final en monoscopia o en estereoscopia, siendo las imágenes de derecha y de izquierda levemente diferentes a fin de acentuar el efecto de relieve.
El sistema ofrece un seguimiento perfectamente fluido de los movimientos y del os desplazamientos del usuario en tiempo real.
El conjunto de los datos del nivel del usuario es emitido al ordenador por transmisión hertziana. A este nivel del ordenador, la función posición está asegurada por el G.P.S. fijo (10) que determina la posición del usuario sobre el terreno por comparación con los satélites y con el puesto móvil, todo ello en tiempo real.
El tratamiento de la posición que conduce al cálculo de la imagen virtual es efectuado mediante la recopilación de datos de situación (x, y, z) y del ángulo de mirada, permitiendo esta recopilación calcular la imagen virtual conforme al punto de vista correcto. Una base de datos de objetos virtuales (11) interviene en este nivel.
El análisis de la interacción es efectuado al tener en cuenta algunas acciones básicas simples: desplazar, suprimir, girar, ampliar o reducir o cambiar de color, etc., que son efectuadas por el usuario. El cálculo de la imagen virtual y de la interacción contribuyen a la obtención de la imagen virtual modificada.
La adquisición en tiempo real de la imagen de vídeo es efectuada en la posición "sitio real". La tarjeta de adquisición sincronizará la imagen de vídeo y la imagen virtual modificada. Inmediatamente, esta mezcla será a la vez guardada y reproducida a nivel del casco virtual del usuario.
El dispositivo inmersivo In Situ de Imaginería virtual de referencia geográfica interactiva en tiempo real está destinado a visualizar un objeto o una base de datos de objetos virtuales. Estos datos informáticos pueden ser o bien provistos por el cliente final, o bien creados a partir de planos sobre papel. En todos los casos, deberán contar con las siguientes características:
La estructura inicial del objeto o de los objetos que serán visualizados es de tipo alambre tridimensional. El objeto a crear es dividido en subconjuntos correspondientes a los diferentes materiales que lo componen, por lo que lo mostrado deberá simular el aspecto visual de estos materiales en el momento de la visualización. Cada uno de estos subconjuntos será trazado mediante una densa armadura de líneas y se le adscribirá un código. Sobre esta armadura vendrá a adherirse, adaptándose a su forma, la imagen que simula el material. Esta imagen será escogida en función del código mencionado. Si no se cuenta con ninguna base de datos, la creación se realizará por un proceso de vectorización automática.
En una primera fase, el plano sobre papel de los objetos a visualizar es digitalizado mediante un escáner óptico de alta resolución del tipo conocido, conectado a un ordenador tipo PC que almacena en memoria los planos digitalizados. El archivo así obtenido contiene un gran número de puntos negros y blancos que, alineados en el orden registrado por la máquina, reconstruyen la imagen del plano original, tal como hace una fotocopiadora. Los elementos dibujados por estos puntos no tienen consistencia alguna, no existen como entes mensurables, cuantificables o diferenciables por criterios geométricos. Estos puntos indican la posición de los elementos mediante la referencia de unos con otros, pero no su naturaleza (círculos, textos, etc.). Este tipo de imagen es conocido con el nombre de imagen rasterizada o de mapa de bits.
El plano es luego vectorizado con la ayuda de un programa informático paramétrico en función del tipo de datos adquiridos. Esta operación consiste en situar vectores sobre los alineamientos de puntos negros del plano digitalizado. Los vectores son objetos matemáticos definidos por coordenadas, líneas, polígonos, círculos, etc., y no por yuxtaposición de puntos. A cada objeto se le pueden atribuir individualmente las características de visualización: color, grosor, etc. Es entonces posible estructurar el plano por elementos, y clasificar éstos según familias: por ejemplo, edificios, vías públicas, parcelas.
Ciertos elementos no susceptibles de ser reconocidos por el programa de vectorización, deben ser por ello corregidos manualmente mediante métodos de captura de datos conocidos, con programas de dibujo asistido por ordenador clásicos como, por ejemplo, Microstation® y Autocad®.
Como resultado de esta fase, el plano inicial queda transformado en un archivo informático que contiene todos los datos originales, clasificados por capas en, por ejemplo, edificios, vías públicas, parcelas, dispuestos como en una libreta de hojas transparentes. Es posible por tanto visualizar sólo determinados elementos, conservando todos su posición exacta.
La siguiente fase es la de referencia geográfica:
Gracias al carácter vectorial del archivo obtenido, es posible ajustar la escala de cada objeto, por separado o en grupo, hasta que su dimensión informática llegue a tener su dimensión en el terreno real a escala 1, y no unas dimensiones sobre el papel, y luego desplazarlo y orientarlo hasta que sus coordenadas reflejen su posición geográfica exacta en un punto de referencia dado: UTM, sistema de coordenadas Lambert, etc.
De esta forma se consiguen dos objetivos:
- La exactitud de las dimensiones:
Las dimensiones vertidas en el archivo informático son las dimensiones reales del objeto medido. Es posible de este modo verificar sobre el terreno, si es necesario, la exactitud y la tolerancia del documento original o conformar la validez del procedimiento.
- La determinación de un emplazamiento geográfico único dentro de un punto de referencia dado. Por ejemplo, las coordenadas x=564224,25 e y=178206,43 dentro del sistema de coordenadas Lambert II sur designan el centro de la iglesia de San Juan en Gaillac (81).
La precisión a la escala de un municipio, por ejemplo, está en el orden de los milímetros.
De esta forma se ha creado un archivo informático referido geográficamente conteniendo todas las informaciones del documento original, pero que únicamente existe en dos dimensiones (plano).
La siguiente fase es, por lo tanto, añadir la dimensión de la altura a los elementos contenidos en el archivo informático de forma que aparezcan como volúmenes. Para hacer esto es preciso indicar para cada elemento gráfico unas coordenadas de altura z.
En el caso de los objetos simples o destinados a aparecer en último término, esta operación puede ser efectuada de forma automática, con la adición de una altura aleatoria y parametrada a ciertas categorías de elementos. Por ejemplo, se puede decidir atribuir una altura aleatoria comprendida entre 4 y 6 metros según tramos de 50 cm a todos los elementos de la familia de los edificios.
En el caso de proyectos que necesiten de una mayor precisión es igualmente posible adscribir a cada edificio su altura real si ésta ha sido calculada sobre el terreno por un agrimensor. Esta adscripción se realiza manualmente.
En ciertos casos de figuras, la etapa de vectorización no tendrá lugar y el objeto u objetos serán creados directamente a partir de un programa de modelado conocido. Hemos dado aquí muchos ejemplos con el propósito de explicar las fases de creación de una base de datos de objetos virtuales, pero tenemos que señalar que dentro del alcance del dispositivo de visualización que es objeto del presente documento, sólo los objetos no existentes en el sitio real serán objeto de semejante modelado.
La fase de recubrimiento de los elementos representativos de los elementos geométricos es realizada a partir de una representación de alambre inicial del ordenador. La base de objetos virtuales, en este estado, consiste únicamente en estructuras de alambre. Un poco como se hace con los maniquís, serán revestidos de imágenes digitales de modo que se recree la ilusión de su material. Para ello se usan dos técnicas conocidas:
- La yuxtaposición de multitud de pequeñas imágenes idénticas recrea por ilusión óptica la apariencia de materiales como la madera, la piedra, el hormigón, etc. Es igualmente posible recrear asimismo apariencias más trabajadas, como la de las paredes de ladrillo, vallas, revestimientos, etc. La memoria del ordenador almacena una biblioteca de texturas de materiales disponibles que puede ser constantemente ampliada. Será cargada en la memoria de la tarjeta gráfica en el momento de inicialización del dispositivo.
- La fotografía digital de un elemento existente en el entorno, por ejemplo, la fachada de un inmueble, o de una parte de dicho elemento, como puertas de entrada, ventanas, etc., es colocada sobre la estructura de alambre del objeto virtual. Este procedimiento, muy económico, permite reproducir en la visualización los objetos corrientes sin tener que reconstruirlos informáticamente hablando. Asimismo, para modelar una puerta de garaje de manera realista, es necesario descomponerla en bastidor y batiente, y después distinguir en él el marco y los entrepaños y así sucesivamente. Con el mapaje, es suficiente con dibujar un rectángulo.
La reproducción de los efectos de iluminación, sombras y reflejos, es indispensable para dotar de realismo un objeto virtual. El término usado es rendición de la imagen. Los algoritmos, como los de Gouraud o de Phong, son clásicos para el experto en la materia. Si no es objeto de una innovación, el motor de rendición será en todo caso aplicado específicamente por el dispositivo, para responder a las exigencias en cuanto a velocidad y sobre todo de interacción.
Esta reproducción tiene en cuenta el origen de la luz y el emplazamiento de los objetos por referencia de unos con otros. Es posible considerar la posición real de la luz solar en un instante dado del día, así como su evolución, lo cual acentuará la impresión de integración de los edificios en el paisaje real.
La parte del programa informático a cargo de esta función se llama motor de rendición. El cálculo de la reproducción de las texturas y de los efectos de iluminación en tiempo real es hecho por medio de tarjetas gráficas especializadas integradas en el seno del microordenador. Son del conocimiento de los expertos en la materia muchas tarjetas aptas para desempeñar esta tarea.
La explotación de esta base de datos se efectúa de la siguiente manera:
El trabajo escenográfico consiste en la colocación informática de objetos virtuales como los que deberán ser visualizados sobre el sitio real. Gracias al proceso de referencia geográfica, este trabajo escenográfico consiste por tanto en la adscripción de coordenadas a los diferentes objetos virtuales, dentro del mismo punto de referencia geográfico que el del sitio en cuestión.
Una vez presentes en el sitio, los usuarios deberán ponerse el casco y la mochila y después inicializarlos. Esto significa simplemente que deberán activar su equipo en un entorno que se ha escogido arbitrariamente en el sitio pero que es idéntico para todos los usuarios. Este entorno será bautizado con el nombre de "punto 0" o punto de referencia, a partir del cual se calcularán sus desplazamientos.
El seguimiento de los desplazamientos del usuario es realizado usando los captores de posición y de altitud de tipo G.P.S., abreviatura de "Global Positioning System". Se conoce este dispositivo. El seguimiento del campo visual del usuario es asegurado por un dispositivo de detección de movimientos denominado trazador, integrado en el casco de visualización. Se conoce este dispositivo. Entonces, un sencillo programa determina a partir de estos datos la posición y el ángulo según el cual calcular la imagen del objeto virtual de forma que quede perfectamente integrada en el campo visual del usuario.
Las imágenes que ven los usuarios son mostradas por mediación de cascos de visualización de tipo clásico en el campo de la realidad virtual. Estos cascos incluyen dos pantallas de cristal líquido, una delante de cada ojo. Estas pantallas podrán mostrar dos imágenes muy ligeramente diferentes, lo que conducirá a una impresión reforzada de imagen tridimensional. Es un proceso conocido denominado restitución estereoscópica.
El usuario está provisto de un joystick que le permitirá ejercer algunas interacciones básicas sobre el objeto que está visualizando. Asimismo podrá en un primer momento suprimir, desplazar, hacer girar, ampliar o reducir, o cambiar el color de los objetos que visualice, y sobre todo observar instantáneamente el resultado de su interacción, todo ello conservando la fluidez de visualización y la implantación en el sitio real.
El dispositivo se completa con un dispositivo de almacenamiento que puede estar activo ocasional o continuamente, permitiendo documentar la combinación de imagen virtual/imagen del sitio. Es asimismo posible archivar varias hipótesis de emplazamiento o de color para el objeto u objetos virtuales, e imprimirlas o visualizarlas posteriormente por medio de periféricos clásicos conocidos en la informática, como impresoras, o en formato vídeo mediante un magnetoscopio analógico o digital.
Como se ha visto en la descripción, el dispositivo según la invención permite que las personas encargadas de decidir evolucionen físicamente en el interior de estudios o de proyectos y aprehender mejor el impacto de trabajos previstos sobre el entorno, y dentro del espacio.
Permite igualmente poner a prueba en tiempo real opciones e hipótesis y apreciar instantáneamente su impacto. El tiempo real, además de una gran comodidad de uso, implica asimismo una indudable ventaja económica cuando el estudio de una variante necesita previamente de días, tras semanas de preparativos y cálculos para presentar un nuevo proyecto. Gracias al dispositivo según la invención, las hipótesis que no se habría osado considerar por razones económicas pueden serlo sin ningún coste adicional.
El resultado buscado es la reducción del tiempo de decisión, una mejor percepción de las eventuales inadecuaciones entre la teoría del proyecto sobre el plano y la realidad del sitio, en particular para las personas que no tienen una buena capacidad de abstracción, y, finalmente, la supresión de los límites a las hipótesis debido al coste de los estudios. El tiempo real y la interacción permiten un número ilimitado de ensayos, los cuales permiten aproximarse cada vez mejor a la mejor solución o al mejor consenso.
Una variante consiste en reemplazar el sistema G.P.S. de seguimiento del usuario por cámaras de vídeo de seguimiento de tipo conocido, cuyos datos de posicionamiento pueden ser recuperados en el microordenador. Este sistema de seguimiento es claramente menos preciso y tiene un radio de acción inferior, pero puede hacer posible contar con un sistema a un coste más asequible para aplicaciones en un perímetro restringido a aproximadamente 400 m^{2}.
En otra variante, la base de datos de objetos a visualizar está conectada a datos alfanuméricos que caracterizan a cada uno de los elementos, por ejemplo, su coste de implantación. De esta manera es fácilmente posible, en función de la configuración visualizada en un momento dado, mostrar simultáneamente en un ángulo de las pantallas del casco virtual las informaciones sobre el precio global que evolucionarán a medida y al ritmo en que se vayan probando las hipótesis.
Por extensión, todas las variantes resultantes de la conexión al dispositivo de programas o de materiales informáticos y periféricos informáticos conocidos.
El alcance de la presente invención no se limita a las formas de realización presentes, sino que se extiende, por el contrario, a los perfeccionamientos y modificaciones al alcance del experto en la materia.

Claims (7)

1. Dispositivo de visualización de imágenes tridimensionales realistas calculadas por ordenador e incrustadas informáticamente en un entorno real, incluyendo al menos un dispositivo individual y portátil de captura de imágenes reales percibidas por el usuario tal como una cámara, un dispositivo de memorización de las características de los objetos virtuales a visualizar, un dispositivo de memorización de la posición prevista de dichos objetos en un entorno geográfico real, un dispositivo de seguimiento de la posición del usuario, un dispositivo de seguimiento del campo visual del usuario, un dispositivo de introducción de comandos por el usuario, un dispositivo de cálculo informático que incluye un programa de cálculo, y un dispositivo individual y portátil de visualización de las imágenes así calculadas, estando caracterizado este dispositivo por comprender una combinación de:
- un medio de detección y de seguimiento en tiempo real de la posición de cada usuario en el sitio geográfico de emplazamiento de los objetos virtuales, con respecto a un punto de referencia arbitrario,
- un medio de detección y de seguimiento en tiempo real de la posición del campo visual de cada usuario (arriba, abajo, derecha, izquierda) con respecto a un punto de referencia situado sobre cada usuario,
- un medio videográfico de captura y de seguimiento en tiempo real de las imágenes reales percibidas por cada usuario,
- una base de datos común a todos los usuarios que contiene las posiciones y los parámetros característicos de cada objeto virtual y que memoriza sus eventuales desplazamientos,
- un medio de cálculo de imágenes virtuales en tiempo real en función de posición y del campo visual de cada usuario previamente detectado,
- un medio de mezcla de la imagen virtual así calculada con la imagen de vídeo previamente capturada, de forma que, para cada usuario, la imagen virtual se incruste sobre la imagen de vídeo de forma realista y no transparente, en cada usuario equipado de un medio de visualización individual y portátil visualizando la imagen así calculada, combinando las imágenes reales percibidas por el usuario y las imágenes de los objetos virtuales cuyas posiciones son comunes para todos los usuarios, pero visualizadas por cada usuario en un ángulo diferente.
2. Dispositivo según la reivindicación 1, caracterizado por que el medio de visualización toma la forma de casco de visualización de imágenes virtuales, incluyendo una pantalla delante de cada ojo del usuario.
3. Dispositivo según la reivindicación 1, caracterizado por que el medio de detección en tiempo real de la posición de los usuarios en el sitio geográfico de emplazamiento de los objetos virtuales toma la forma de un sistema G.P.S. o de cámaras de vídeo de seguimiento con lo cual posición es conocida con precisión.
4. Dispositivo según una cualquiera de las reivindicaciones 1 a 3, caracterizado por que comprende igualmente:
- un medio de digitalización de planos,
- un medio de vectorización de imágenes digitalizadas,
- un medio de referencia geográfica de dichas imágenes vectorizadas.
5. Dispositivo según una cualquiera de las reivindicaciones 1 a 4, caracterizado por que comprende igualmente un medio para dar altura a los datos bidimensionales de referencia geográfica.
6. Dispositivo según una cualquiera de las reivindicaciones 1 a 5, caracterizado por que comprende igualmente un medio de reproducción de los efectos de iluminación teniendo en cuenta la posición real del sol sobre los lugares de la visualización,
7. Dispositivo según una cualquiera de las reivindicaciones 1 a 6, caracterizado por que comprende igualmente un medio de visualización de datos representativos de un parámetro que caracteriza la configuración completa en curso de visualización,
ES99907666T 1998-03-06 1999-03-08 Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real. Expired - Lifetime ES2203076T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9802768A FR2775814B1 (fr) 1998-03-06 1998-03-06 Systeme de visualisation d'images tridimensionnelles realistes virtuelles en temps reel
FR9802768 1998-03-06

Publications (1)

Publication Number Publication Date
ES2203076T3 true ES2203076T3 (es) 2004-04-01

Family

ID=9523750

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99907666T Expired - Lifetime ES2203076T3 (es) 1998-03-06 1999-03-08 Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real.

Country Status (10)

Country Link
US (1) US6653990B1 (es)
EP (1) EP1058915B1 (es)
AT (1) ATE239951T1 (es)
AU (1) AU2732299A (es)
CA (1) CA2322702A1 (es)
DE (1) DE69907644T2 (es)
ES (1) ES2203076T3 (es)
FR (1) FR2775814B1 (es)
PT (1) PT1058915E (es)
WO (1) WO1999045503A1 (es)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
JP3788111B2 (ja) * 1999-06-30 2006-06-21 株式会社デンソー 情報サービスシステム
US7237197B2 (en) * 2000-04-25 2007-06-26 Microsoft Corporation Method and system for presenting a video stream of a video streaming device
WO2001093209A1 (de) * 2000-06-02 2001-12-06 Eidgenössische Technische Hochschule Zürich, Gruppe Für Graphische Datenverarbeitung, Institut Für Wissenschaftliches Rechnen, Verfahren zur bereitstellung einer virtual-reality-umgebung
JP4701479B2 (ja) * 2000-07-05 2011-06-15 ソニー株式会社 リンク情報表示装置及びその表示方法
US6891960B2 (en) 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
JP4649050B2 (ja) 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US7508946B2 (en) 2001-06-27 2009-03-24 Sony Corporation Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus
US7002551B2 (en) * 2002-09-25 2006-02-21 Hrl Laboratories, Llc Optical see-through augmented reality modified-scale display
CA2526105C (en) * 2003-06-20 2010-08-10 Mitsubishi Denki Kabushiki Kaisha Image display method and image display apparatus
US20050228860A1 (en) * 2004-04-12 2005-10-13 Kimmo Hamynen Methods and apparatus for geographically based Web services
US7590310B2 (en) * 2004-05-05 2009-09-15 Facet Technology Corp. Methods and apparatus for automated true object-based image analysis and retrieval
US8301159B2 (en) * 2004-12-31 2012-10-30 Nokia Corporation Displaying network objects in mobile devices based on geolocation
US7451041B2 (en) 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
GB2428102A (en) * 2005-07-06 2007-01-17 David Smith Viewing device
FR2889753A1 (fr) 2005-08-09 2007-02-16 Total Immersion Sa Systeme permettant a un utilisateur de visualiser un cockpit virtuel dans un environnement video
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
US7797019B2 (en) 2006-03-29 2010-09-14 Research In Motion Limited Shared image database with geographic navigation
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
US20080218331A1 (en) * 2007-03-08 2008-09-11 Itt Manufacturing Enterprises, Inc. Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness
ES2306616B1 (es) 2008-02-12 2009-07-24 Fundacion Cidaut Procedimiento de determinacion de la luminancia de señales de trafico y dispositivo para su realizacion.
EP2193825B1 (en) * 2008-12-03 2017-03-22 Alcatel Lucent Mobile device for augmented reality applications
DE102009037835B4 (de) 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
JP2011197777A (ja) * 2010-03-17 2011-10-06 Sony Corp 情報処理装置、情報処理方法およびプログラム
EP2820576A4 (en) 2012-02-29 2015-11-18 Nokia Technologies Oy METHOD AND DEVICE FOR PRESENTING OBJECTS AT A USER INTERFACE
US9646422B2 (en) * 2013-09-24 2017-05-09 Apple Inc. Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor
CN106157352B (zh) * 2015-04-08 2019-01-01 苏州美房云客软件科技股份有限公司 精装360度图片与毛坯无缝切换的数字展示方法
US10973391B1 (en) * 2017-05-22 2021-04-13 James X. Liu Mixed reality viewing of a surgical procedure
US11494153B2 (en) 2020-07-27 2022-11-08 Shopify Inc. Systems and methods for modifying multi-user augmented reality
US11527045B2 (en) * 2020-07-27 2022-12-13 Shopify Inc. Systems and methods for generating multi-user augmented reality content
US11908159B2 (en) 2020-07-27 2024-02-20 Shopify Inc. Systems and methods for representing user interactions in multi-user augmented reality
US11935202B2 (en) 2022-05-25 2024-03-19 Shopify Inc. Augmented reality enabled dynamic product presentation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4970666A (en) * 1988-03-30 1990-11-13 Land Development Laboratory, Inc. Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment
GB9121707D0 (en) * 1991-10-12 1991-11-27 British Aerospace Improvements in computer-generated imagery
FR2683330B1 (fr) * 1991-10-31 1994-11-25 Thomson Csf Jumelle informatique.
US5432895A (en) * 1992-10-01 1995-07-11 University Corporation For Atmospheric Research Virtual reality imaging system
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
US5625765A (en) * 1993-09-03 1997-04-29 Criticom Corp. Vision systems including devices and methods for combining images for extended magnification schemes
US5566073A (en) * 1994-07-11 1996-10-15 Margolin; Jed Pilot aid using a synthetic environment
JP3632705B2 (ja) * 1994-08-31 2005-03-23 ソニー株式会社 対話型画像提供方法、サーバ装置、提供方法、ユーザ端末、受信方法、画像提供システム、および画像提供方法
US6020885A (en) * 1995-07-11 2000-02-01 Sony Corporation Three-dimensional virtual reality space sharing method and system using local and global object identification codes
US6532021B1 (en) * 1996-04-30 2003-03-11 Sun Microsystems, Inc. Opaque screen visualizer

Also Published As

Publication number Publication date
AU2732299A (en) 1999-09-20
FR2775814A1 (fr) 1999-09-10
EP1058915B1 (fr) 2003-05-07
FR2775814B1 (fr) 2001-01-19
ATE239951T1 (de) 2003-05-15
CA2322702A1 (fr) 1999-09-10
DE69907644T2 (de) 2004-02-19
PT1058915E (pt) 2003-09-30
US6653990B1 (en) 2003-11-25
DE69907644D1 (de) 2003-06-12
EP1058915A1 (fr) 2000-12-13
WO1999045503A1 (fr) 1999-09-10

Similar Documents

Publication Publication Date Title
ES2203076T3 (es) Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real.
CN104318617B (zh) 一种面向虚拟应急演练的三维地理场景仿真方法
CN104995665B (zh) 用于在真实环境中表示虚拟信息的方法
Hatzopoulos et al. Use of various surveying technologies to 3D digital mapping and modelling of cultural heritage structures for maintenance and restoration purposes: The Tholos in Delphi, Greece
Thomas et al. Using augmented reality to visualise architecture designs in an outdoor environment
CN108140254A (zh) 从地图数据中生成3d模型
CN108140260A (zh) 来自地图数据的3d模型生成以及用户界面
CN106462997A (zh) 街道视图和地球视图之间的混合
Honkamaa et al. Interactive outdoor mobile augmentation using markerless tracking and GPS
Tao et al. Automatic SAR simulation technique for object identification in complex urban scenarios
CN106326334A (zh) 一种电子地图的显示、生成方法和装置
Sefercik et al. UAV-based 3D virtual tour creation
Hodgson et al. An indoor landscape for instruction of 3-D aerial drone imagery
Piatti et al. Virtual worlds for photogrammetric image‐based simulation and learning
Gonzalez-Aguilera et al. Application of non-destructive techniques to the recording and modelling of palaeolithic rock art
Niederöst Landscape as a historical object: 3D reconstruction and evaluation of a relief model from the 18th century
Bosselmann et al. Visualizing urban form
Lambers et al. Context matters: GIS-based spatial analysis of the Nasca geoglyphs of Palpa
Stauch SMARTPHONE-SUPPORTED MAPPING OF LANDFORMS A NEW TOOL IN TEACHING GEOMORPHOLOGY
JP2009086110A (ja) 景観図作成装置
Summerfield et al. On capturing context in architecture
Fukuda et al. Development of the environmental design tool “Tablet MR” on-site by mobile mixed reality technology
Poli et al. Reality-based 3D city models from aerial satellite data
Bleisch et al. More than rendering—printed tourist maps and an interactive 3D information system from highly detailed 3D landscape models
Blanco Pons Analysis and development of augmented reality applications for the dissemination of cultural heritage