ES2203076T3 - Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real. - Google Patents
Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real.Info
- Publication number
- ES2203076T3 ES2203076T3 ES99907666T ES99907666T ES2203076T3 ES 2203076 T3 ES2203076 T3 ES 2203076T3 ES 99907666 T ES99907666 T ES 99907666T ES 99907666 T ES99907666 T ES 99907666T ES 2203076 T3 ES2203076 T3 ES 2203076T3
- Authority
- ES
- Spain
- Prior art keywords
- user
- virtual
- real
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Radio Relay Systems (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Generation (AREA)
Abstract
Dispositivo de visualización de imágenes tridimensionales realistas calculadas por ordenador e incrustadas informáticamente en un entorno real, incluyendo al menos un dispositivo individual y portátil de captura de imágenes reales percibidas por el usuario tal como una cámara, un dispositivo de memorización de las características de los objetos virtuales a visualizar, un dispositivo de memorización de la posición prevista de dichos objetos en un entorno geográfico real, un dispositivo de seguimiento de la posición del usuario, un dispositivo de seguimiento del campo visual del usuario, un dispositivo de introducción de comandos por el usuario, un dispositivo de cálculo informático que incluye un programa de cálculo, y un dispositivo individual y portátil de visualización de las imágenes así calculadas.
Description
Sistema de visualización de imágenes
tridimensionales realistas virtuales en tiempo real.
La presente invención se refiere a sistemas de
visualización de imágenes tridimensionales realistas virtuales en
tiempo real.
Se conocen numerosos dispositivos de
visualización de imágenes realistas y de realidad virtual. Se
conocen particularmente sistemas de simulación de vuelo que incluyen
bases de datos con información de carácter geográfico,
correspondientes a paisajes reales o inventados, con un programa
informático que reproduce la imagen correspondiente a la posición en
un instante dado del usuario con respecto a los elementos de la
base.
La patente
EP-0-700-018
describe un procedimiento de generación de imágenes interactivas.
Las etapas del procedimiento consisten en crear, en un servidor,
imágenes en tres dimensiones de un entorno virtual conformes a los
puntos de vista de cierto número de posiciones predeterminadas en
dicho entorno virtual. El usuario, situado ante su pantalla,
evoluciona en este entorno virtual y su posición virtual es
transmitida al servidor por medio de una red de comunicaciones. El
servidor reenvía luego a la terminal del usuario la imagen virtual
del entorno correspondiente a su posición. El servidor puede, por
ejemplo, transmitir una imagen del plano en último término que
corresponde a la posición virtual del usuario. La imagen del primer
plano de la escena se crea en la terminal del usuario. Las dos
imágenes obtenidas se mezclan y se muestran sobre la pantalla de la
terminal del usuario. Este procedimiento permite tanto obtener las
imágenes a menor coste como simplificar la estructura de la terminal
del usuario debido a que gran parte del tratamiento informático se
realiza en un servidor centralizado.
La patente
EP-0-817-133, A. SUN
MICROSYSTEM INC., describe un procedimiento que permite visualizar
objetos virtuales en un entorno real. El sistema comprende una
pantalla, una cámara, un sistema de posicionamiento por telemetría y
un sistema de cálculo de imágenes virtuales en dos dimensiones con
respecto a un entorno real. La imagen así calculada se superpone a
continuación a la imagen tomada por la cámara.
Este sistema presenta ciertas limitaciones, sobre
todo en lo referente al sistema de telemetría. En efecto, este tipo
de sistema de localización no permite el posicionamiento preciso de
ciertas aplicaciones en unos espacios amplios.
Por otra parte, este sistema de visualización
está completamente aislado y no permite ninguna interactividad con
otros aparatos similares. En efecto, la memorización de la posición
del objeto está contenida en la memoria interna del sistema. Este
aspecto limita el realismo del sistema debido a que sólo un usuario
puede visualizar el objeto, desplazarlo y observarlo desde otra
posición. Cada uno de los usuarios, por lo tanto, navega entre sus
propios objetos virtuales e ignora totalmente los de los demás. Por
lo tanto, este sistema no permite la creación y visualización de un
entorno virtual común a un conjunto de usuarios superpuesto al
entorno real por naturaleza común a todos los usuarios.
La patente
US-5-556-073,
MARGOLIN JED, describe un sistema de ayuda al pilotaje. El sistema
incluye un G.P.S. que permite determinar la posición del avión. Una
base de datos contiene una representación virtual del entorno del
avión. En función de la posición del avión es por lo tanto posible
visualizar el entorno virtual sin preocuparse por el entorno real.
La visualización del entorno puede ser realizada por medio de un
casco de visualización. Este tipo de sistema no permite superponer
un entorno virtual sobre el entorno real sino que únicamente permite
sustituir el entorno real por un entorno virtual que representa las
características del entorno real.
La patente
US-4-970-666, WELSH
WILLIAM T Y COL., describe un sistema de representación de imágenes
en un entorno real. Las imágenes del entorno real son digitalizadas,
después la representación de la imagen virtual es posicionada por
referencia a la imagen digitalizada. Las dos imágenes son
instantáneamente superpuestas. Este tipo de sistema sólo permite
tratar imágenes fijas para simular un objeto virtual recalculando su
imagen al tiempo y a medida que el usuario se desplaza y
superponiéndola sobre el entorno real. Por otra parte, este sistema
permite añadir a la imagen efectos, por ejemplo, de iluminación. De
nuevo, esta operación es muy fácil en el caso de imágenes fijas,
pero resulta muy complicada en el caso de un usuario en movimiento
en el que las imágenes deben ser recalculadas
ininterrumpidamente.
La patente
US-5-625-765,
ELLENBY JOHN Y COL., describe un sistema que permite mejorar
mediante un ordenador la definición de imágenes ampliadas. Las
imágenes reales de una escena pueden ser ampliadas por medio de las
informaciones contenidas en el ordenador que reproduce la escena
real. Dado que los modelos contenidos en el ordenador no tienen
ningún límite en cuanto a resolución, el sistema puede ofrecer una
imagen infinitamente ampliada. La imagen producida por el ordenador
y la imagen real son combinadas para formar una imagen ampliada
según el punto de vista del usuario. Este tipo de sistema está
restringido por el proceso de mejora de imágenes reales y no permite
superponer un entorno virtual que represente objetos virtuales
desplazables y en los que la posición sea común a un conjunto de
usuarios en un entorno real.
La patente
US-5-579-165, MICHEL
CLAUDE Y COL., describe un sistema óptico que permite superponer una
imagen virtual sobre una imagen real. La imagen virtual puede ser,
por ejemplo, una imagen simbólica procedente de un mapa. Esta
patente se limita al dispositivo óptico de superposición de imágenes
pero no describe con precisión sus aplicaciones. Por tanto no es
posible a partir de los elementos de esta patente realizar una
aplicación concerniente a la creación de un entorno virtual
interactivo que se superponga al entorno real.
La presente invención intenta proponer un sistema
móvil de visualización de imágenes tridimensionales virtuales
incrustadas sobre el fondo de un entorno real, capaz de seguir en
tiempo real los desplazamientos de uno o de varios usuarios y de
mostrar en tiempo real los resultados de sus interacciones. La
finalidad es ofrecer a cada usuario la visualización de un entorno
virtual interactivo que esté superpuesto a su entorno real. El
entorno virtual puede ser común a todos los usuarios, percibiéndolo
cada uno de ellos según su punto de vista, y pudiendo ciertos
elementos del entorno virtual ser desplazados por un usuario de
forma que los demás usuarios perciban ese movimiento en tiempo
real.
La invención se describe en la reivindicación 1
adjunta al presente documento.
Se entiende que gracias a esta disposición, el
usuario podrá simular el emplazamiento de objetos tales como
edificios, rotondas, obras de arte, etc., en el sitio previsto para
emplazarlos, con un realismo extremo, facilitando de esta manera la
toma de decisiones respecto a diferentes opciones de un proyecto. En
realidad se trata para los usuarios de un nuevo modo de ver y de
aprehender el espacio: ya no van ellos al ordenador, si no que es la
informática la que va a ellos incrustándose en su campo visual.
Esta disposición pone remedio asimismo a la
ausencia de convicción de tantas personas ante las imágenes
presentadas sobre una pantalla de vídeo o de ordenador, en que el
paisaje que ha sido recalculado digitalmente, aparece de forma
indudablemente artificial, anguloso, discontinuo, sin variedad
cromática, carente de movimientos naturales, etc. Aquí se conserva
la imagen real del paisaje, ya que se trata de una retransmisión de
vídeo, y se adjunta una imagen virtual calculada, facilitando así su
aceptación por el público. En efecto, la familiaridad de éste con la
visualización de imágenes de vídeo hará más creíble la integración
de la imagen virtual enviada, que no representará más que una
superficie blanda en la imagen global.
Según una disposición particular, el medio de
detección en tiempo real de la posición de los usuarios en el sitio
geográfico de emplazamiento de los objetos virtuales toma la forma o
bien de un sistema G.P.S., abreviatura de "Global Positioning
System", conectado por satélite, incluyendo un puesto fijo y
puestos móviles en forma de mochilas de menos de 4 kilos de peso, o
bien de cámaras de vídeo de seguimiento, con lo cual la posición es
conocida con precisión.
Esta disposición contribuye a poner en práctica
la invención con la ayuda de medios simples y ya conocidos.
La siguiente descripción, hecha conforme a los
dibujos anejos con una finalidad explicativa y de ningún modo
limitativa, permite comprender mejor las ventajas, finalidades y
características de la invención.
- La figura 1 muestra esquemáticamente los
principales elementos de la invención.
- La figura 2 ilustra los diferentes elementos
funcionales.
- La figura 3 ilustra la arquitectura del
sistema.
Tal como muestra la figura 1, el dispositivo
inmersivo In Situ de Imaginería virtual interactiva de
referencia geográfica en tiempo real en un entorno geográfico dado
(1) comprende los siguientes subconjuntos principales: para cada uno
de los usuarios (2) una cámara de vídeo (3), un casco de
visualización de imágenes virtuales (4), un joystick (5), un
trazador de movimientos de cabeza (6), una antena G.P.S. móvil (7)
conectada con uno o varios satélites (7), todo ello enviando sus
datos a la central de tratamiento (8) por vía hertziana (9). La
central de tratamiento (8) (un microordenador) recibe asimismo los
datos de la antena G.P.S. fija (10), recurre a la base de datos de
objetos virtuales (11) y calcula una imagen compuesta final que es
reenviada al casco (12).
De darse el caso, esta imagen o secuencia de
imágenes puede ser conservada mediante un disco duro ultrarrápido
(13), como CD (14), cinta de vídeo analógica o digital (15), o
enviada a un periférico de impresión (16).
La arquitectura del sistema está organizada
conforme al esquema de la figura 3, en la cual el punto de
referencia (17) indica la parte del usuario con (18) la posición
definida por el trazador de la cabeza (19) y el G.P.S. móvil (19');
(20) la interacción con el joystick (21); (22) el sitio real con la
cámara de vídeo, (23) la reproducción (24) al usuario con el casco
virtual (25) desde la parte del ordenador (28) por transmisión
hertziana (26).
Desde el usuario (17), por transmisión hertziana
(27), los elementos son transmitidos al ordenador (28). Se observa
apreciar que:
- La posición (18) con un G.P.S. en un puesto
fijo (29) con tratamiento de la posición (30), cálculo de la imagen
virtual (31) según el punto de vista correcto y una base de datos
(32) de los objetos virtuales. La base de datos (32) contiene la
posición y los parámetros característicos de cada objeto virtual.
Esta base de datos (32) está centralizada, es decir, todos sus
usuarios tienen la visión del mismo entorno virtual, presentado a
cada uno conforme a su punto de vista.
- La interacción (20) con análisis de la
interacción (33) y cálculo de la imagen virtual modificada (34).
- El sitio real (22) con la adquisición en tiempo
real de la imagen de vídeo (35) y la mezcla (36) de la imagen de
vídeo y de la imagen virtual, estando dirigido el resultado obtenido
por la reproducción (24) por un emisor de vídeo (37) y hacia el
disco duro (38) con un periférico de salida (39).
A nivel del usuario, ver la figura 1, la función
posición está articulada en torno al G.P.S. móvil (7) que permite
determinar la posición del usuario sobre el terreno por medio de un
punto de referencia inicial. Las informaciones (x, y, z) son
enviadas al ordenador mediante ondas.
El aparato establece un diálogo en tiempo real
con los satélites y con un puesto fijo.
El trazador de cabeza (4) permite determinar si
el usuario está mirando arriba, abajo, a la derecha, etc.
La función de interacción está asegurada por el
joystick (5), dispositivo idéntico a un ratón pero con movilidad en
las tres dimensiones y que permite al usuario interactuar sobre el
objeto virtual visualizado conforma a unas cuantas acciones básicas
simples: desplazar, suprimir, girar, ampliar o reducir, cambiar de
color. Los nuevos datos relativos al objeto virtual modificado son
tomados en cuenta por la base de datos (32).
Las pantallas interiores del casco virtual (4)
son utilizadas como una pantalla estándar. Es por lo tanto posible
dejar que aparezcan en ellas menús desenrollables simples como, por
ejemplo, los de Windows 95, marca registrada.
Sobre el sitio real, la cámara de vídeo (3)
situada sobre el caso del usuario capta una imagen del sitio
correspondiente a su campo visual. La imagen es enviada por ondas a
la tarjeta de adquisición en tiempo real del ordenador.
La reproducción se efectúa con la recepción en el
casco virtual de la transmisión hertziana del ordenador. El casco
virtual está provisto de dos pantallas LCD, una para cada ojo. Esto
permite al usuario visualizar la imagen final en monoscopia o en
estereoscopia, siendo las imágenes de derecha y de izquierda
levemente diferentes a fin de acentuar el efecto de relieve.
El sistema ofrece un seguimiento perfectamente
fluido de los movimientos y del os desplazamientos del usuario en
tiempo real.
El conjunto de los datos del nivel del usuario es
emitido al ordenador por transmisión hertziana. A este nivel del
ordenador, la función posición está asegurada por el G.P.S. fijo
(10) que determina la posición del usuario sobre el terreno por
comparación con los satélites y con el puesto móvil, todo ello en
tiempo real.
El tratamiento de la posición que conduce al
cálculo de la imagen virtual es efectuado mediante la recopilación
de datos de situación (x, y, z) y del ángulo de mirada, permitiendo
esta recopilación calcular la imagen virtual conforme al punto de
vista correcto. Una base de datos de objetos virtuales (11)
interviene en este nivel.
El análisis de la interacción es efectuado al
tener en cuenta algunas acciones básicas simples: desplazar,
suprimir, girar, ampliar o reducir o cambiar de color, etc., que son
efectuadas por el usuario. El cálculo de la imagen virtual y de la
interacción contribuyen a la obtención de la imagen virtual
modificada.
La adquisición en tiempo real de la imagen de
vídeo es efectuada en la posición "sitio real". La tarjeta de
adquisición sincronizará la imagen de vídeo y la imagen virtual
modificada. Inmediatamente, esta mezcla será a la vez guardada y
reproducida a nivel del casco virtual del usuario.
El dispositivo inmersivo In Situ de
Imaginería virtual de referencia geográfica interactiva en tiempo
real está destinado a visualizar un objeto o una base de datos de
objetos virtuales. Estos datos informáticos pueden ser o bien
provistos por el cliente final, o bien creados a partir de planos
sobre papel. En todos los casos, deberán contar con las siguientes
características:
La estructura inicial del objeto o de los objetos
que serán visualizados es de tipo alambre tridimensional. El objeto
a crear es dividido en subconjuntos correspondientes a los
diferentes materiales que lo componen, por lo que lo mostrado deberá
simular el aspecto visual de estos materiales en el momento de la
visualización. Cada uno de estos subconjuntos será trazado mediante
una densa armadura de líneas y se le adscribirá un código. Sobre
esta armadura vendrá a adherirse, adaptándose a su forma, la imagen
que simula el material. Esta imagen será escogida en función del
código mencionado. Si no se cuenta con ninguna base de datos, la
creación se realizará por un proceso de vectorización
automática.
En una primera fase, el plano sobre papel de los
objetos a visualizar es digitalizado mediante un escáner óptico de
alta resolución del tipo conocido, conectado a un ordenador tipo PC
que almacena en memoria los planos digitalizados. El archivo así
obtenido contiene un gran número de puntos negros y blancos que,
alineados en el orden registrado por la máquina, reconstruyen la
imagen del plano original, tal como hace una fotocopiadora. Los
elementos dibujados por estos puntos no tienen consistencia alguna,
no existen como entes mensurables, cuantificables o diferenciables
por criterios geométricos. Estos puntos indican la posición de los
elementos mediante la referencia de unos con otros, pero no su
naturaleza (círculos, textos, etc.). Este tipo de imagen es conocido
con el nombre de imagen rasterizada o de mapa de bits.
El plano es luego vectorizado con la ayuda de un
programa informático paramétrico en función del tipo de datos
adquiridos. Esta operación consiste en situar vectores sobre los
alineamientos de puntos negros del plano digitalizado. Los vectores
son objetos matemáticos definidos por coordenadas, líneas,
polígonos, círculos, etc., y no por yuxtaposición de puntos. A cada
objeto se le pueden atribuir individualmente las características de
visualización: color, grosor, etc. Es entonces posible estructurar
el plano por elementos, y clasificar éstos según familias: por
ejemplo, edificios, vías públicas, parcelas.
Ciertos elementos no susceptibles de ser
reconocidos por el programa de vectorización, deben ser por ello
corregidos manualmente mediante métodos de captura de datos
conocidos, con programas de dibujo asistido por ordenador clásicos
como, por ejemplo, Microstation® y Autocad®.
Como resultado de esta fase, el plano inicial
queda transformado en un archivo informático que contiene todos los
datos originales, clasificados por capas en, por ejemplo, edificios,
vías públicas, parcelas, dispuestos como en una libreta de hojas
transparentes. Es posible por tanto visualizar sólo determinados
elementos, conservando todos su posición exacta.
La siguiente fase es la de referencia
geográfica:
Gracias al carácter vectorial del archivo
obtenido, es posible ajustar la escala de cada objeto, por separado
o en grupo, hasta que su dimensión informática llegue a tener su
dimensión en el terreno real a escala 1, y no unas dimensiones sobre
el papel, y luego desplazarlo y orientarlo hasta que sus coordenadas
reflejen su posición geográfica exacta en un punto de referencia
dado: UTM, sistema de coordenadas Lambert, etc.
De esta forma se consiguen dos objetivos:
- La exactitud de las dimensiones:
Las dimensiones vertidas en el archivo
informático son las dimensiones reales del objeto medido. Es posible
de este modo verificar sobre el terreno, si es necesario, la
exactitud y la tolerancia del documento original o conformar la
validez del procedimiento.
- La determinación de un emplazamiento geográfico
único dentro de un punto de referencia dado. Por ejemplo, las
coordenadas x=564224,25 e y=178206,43 dentro del sistema de
coordenadas Lambert II sur designan el centro de la iglesia de San
Juan en Gaillac (81).
La precisión a la escala de un municipio, por
ejemplo, está en el orden de los milímetros.
De esta forma se ha creado un archivo informático
referido geográficamente conteniendo todas las informaciones del
documento original, pero que únicamente existe en dos dimensiones
(plano).
La siguiente fase es, por lo tanto, añadir la
dimensión de la altura a los elementos contenidos en el archivo
informático de forma que aparezcan como volúmenes. Para hacer esto
es preciso indicar para cada elemento gráfico unas coordenadas de
altura z.
En el caso de los objetos simples o destinados a
aparecer en último término, esta operación puede ser efectuada de
forma automática, con la adición de una altura aleatoria y
parametrada a ciertas categorías de elementos. Por ejemplo, se puede
decidir atribuir una altura aleatoria comprendida entre 4 y 6 metros
según tramos de 50 cm a todos los elementos de la familia de los
edificios.
En el caso de proyectos que necesiten de una
mayor precisión es igualmente posible adscribir a cada edificio su
altura real si ésta ha sido calculada sobre el terreno por un
agrimensor. Esta adscripción se realiza manualmente.
En ciertos casos de figuras, la etapa de
vectorización no tendrá lugar y el objeto u objetos serán creados
directamente a partir de un programa de modelado conocido. Hemos
dado aquí muchos ejemplos con el propósito de explicar las fases de
creación de una base de datos de objetos virtuales, pero tenemos que
señalar que dentro del alcance del dispositivo de visualización que
es objeto del presente documento, sólo los objetos no existentes en
el sitio real serán objeto de semejante modelado.
La fase de recubrimiento de los elementos
representativos de los elementos geométricos es realizada a partir
de una representación de alambre inicial del ordenador. La base de
objetos virtuales, en este estado, consiste únicamente en
estructuras de alambre. Un poco como se hace con los maniquís, serán
revestidos de imágenes digitales de modo que se recree la ilusión de
su material. Para ello se usan dos técnicas conocidas:
- La yuxtaposición de multitud de pequeñas
imágenes idénticas recrea por ilusión óptica la apariencia de
materiales como la madera, la piedra, el hormigón, etc. Es
igualmente posible recrear asimismo apariencias más trabajadas, como
la de las paredes de ladrillo, vallas, revestimientos, etc. La
memoria del ordenador almacena una biblioteca de texturas de
materiales disponibles que puede ser constantemente ampliada. Será
cargada en la memoria de la tarjeta gráfica en el momento de
inicialización del dispositivo.
- La fotografía digital de un elemento existente
en el entorno, por ejemplo, la fachada de un inmueble, o de una
parte de dicho elemento, como puertas de entrada, ventanas, etc., es
colocada sobre la estructura de alambre del objeto virtual. Este
procedimiento, muy económico, permite reproducir en la visualización
los objetos corrientes sin tener que reconstruirlos informáticamente
hablando. Asimismo, para modelar una puerta de garaje de manera
realista, es necesario descomponerla en bastidor y batiente, y
después distinguir en él el marco y los entrepaños y así
sucesivamente. Con el mapaje, es suficiente con dibujar un
rectángulo.
La reproducción de los efectos de iluminación,
sombras y reflejos, es indispensable para dotar de realismo un
objeto virtual. El término usado es rendición de la imagen. Los
algoritmos, como los de Gouraud o de Phong, son clásicos para el
experto en la materia. Si no es objeto de una innovación, el motor
de rendición será en todo caso aplicado específicamente por el
dispositivo, para responder a las exigencias en cuanto a velocidad y
sobre todo de interacción.
Esta reproducción tiene en cuenta el origen de la
luz y el emplazamiento de los objetos por referencia de unos con
otros. Es posible considerar la posición real de la luz solar en un
instante dado del día, así como su evolución, lo cual acentuará la
impresión de integración de los edificios en el paisaje real.
La parte del programa informático a cargo de esta
función se llama motor de rendición. El cálculo de la reproducción
de las texturas y de los efectos de iluminación en tiempo real es
hecho por medio de tarjetas gráficas especializadas integradas en el
seno del microordenador. Son del conocimiento de los expertos en la
materia muchas tarjetas aptas para desempeñar esta tarea.
La explotación de esta base de datos se efectúa
de la siguiente manera:
El trabajo escenográfico consiste en la
colocación informática de objetos virtuales como los que deberán ser
visualizados sobre el sitio real. Gracias al proceso de referencia
geográfica, este trabajo escenográfico consiste por tanto en la
adscripción de coordenadas a los diferentes objetos virtuales,
dentro del mismo punto de referencia geográfico que el del sitio en
cuestión.
Una vez presentes en el sitio, los usuarios
deberán ponerse el casco y la mochila y después inicializarlos. Esto
significa simplemente que deberán activar su equipo en un entorno
que se ha escogido arbitrariamente en el sitio pero que es idéntico
para todos los usuarios. Este entorno será bautizado con el nombre
de "punto 0" o punto de referencia, a partir del cual se
calcularán sus desplazamientos.
El seguimiento de los desplazamientos del usuario
es realizado usando los captores de posición y de altitud de tipo
G.P.S., abreviatura de "Global Positioning System". Se conoce
este dispositivo. El seguimiento del campo visual del usuario es
asegurado por un dispositivo de detección de movimientos denominado
trazador, integrado en el casco de visualización. Se conoce este
dispositivo. Entonces, un sencillo programa determina a partir de
estos datos la posición y el ángulo según el cual calcular la imagen
del objeto virtual de forma que quede perfectamente integrada en el
campo visual del usuario.
Las imágenes que ven los usuarios son mostradas
por mediación de cascos de visualización de tipo clásico en el campo
de la realidad virtual. Estos cascos incluyen dos pantallas de
cristal líquido, una delante de cada ojo. Estas pantallas podrán
mostrar dos imágenes muy ligeramente diferentes, lo que conducirá a
una impresión reforzada de imagen tridimensional. Es un proceso
conocido denominado restitución estereoscópica.
El usuario está provisto de un joystick que le
permitirá ejercer algunas interacciones básicas sobre el objeto que
está visualizando. Asimismo podrá en un primer momento suprimir,
desplazar, hacer girar, ampliar o reducir, o cambiar el color de los
objetos que visualice, y sobre todo observar instantáneamente el
resultado de su interacción, todo ello conservando la fluidez de
visualización y la implantación en el sitio real.
El dispositivo se completa con un dispositivo de
almacenamiento que puede estar activo ocasional o continuamente,
permitiendo documentar la combinación de imagen virtual/imagen del
sitio. Es asimismo posible archivar varias hipótesis de
emplazamiento o de color para el objeto u objetos virtuales, e
imprimirlas o visualizarlas posteriormente por medio de periféricos
clásicos conocidos en la informática, como impresoras, o en formato
vídeo mediante un magnetoscopio analógico o digital.
Como se ha visto en la descripción, el
dispositivo según la invención permite que las personas encargadas
de decidir evolucionen físicamente en el interior de estudios o de
proyectos y aprehender mejor el impacto de trabajos previstos sobre
el entorno, y dentro del espacio.
Permite igualmente poner a prueba en tiempo real
opciones e hipótesis y apreciar instantáneamente su impacto. El
tiempo real, además de una gran comodidad de uso, implica asimismo
una indudable ventaja económica cuando el estudio de una variante
necesita previamente de días, tras semanas de preparativos y
cálculos para presentar un nuevo proyecto. Gracias al dispositivo
según la invención, las hipótesis que no se habría osado considerar
por razones económicas pueden serlo sin ningún coste adicional.
El resultado buscado es la reducción del tiempo
de decisión, una mejor percepción de las eventuales inadecuaciones
entre la teoría del proyecto sobre el plano y la realidad del sitio,
en particular para las personas que no tienen una buena capacidad de
abstracción, y, finalmente, la supresión de los límites a las
hipótesis debido al coste de los estudios. El tiempo real y la
interacción permiten un número ilimitado de ensayos, los cuales
permiten aproximarse cada vez mejor a la mejor solución o al mejor
consenso.
Una variante consiste en reemplazar el sistema
G.P.S. de seguimiento del usuario por cámaras de vídeo de
seguimiento de tipo conocido, cuyos datos de posicionamiento pueden
ser recuperados en el microordenador. Este sistema de seguimiento es
claramente menos preciso y tiene un radio de acción inferior, pero
puede hacer posible contar con un sistema a un coste más asequible
para aplicaciones en un perímetro restringido a aproximadamente 400
m^{2}.
En otra variante, la base de datos de objetos a
visualizar está conectada a datos alfanuméricos que caracterizan a
cada uno de los elementos, por ejemplo, su coste de implantación. De
esta manera es fácilmente posible, en función de la configuración
visualizada en un momento dado, mostrar simultáneamente en un ángulo
de las pantallas del casco virtual las informaciones sobre el precio
global que evolucionarán a medida y al ritmo en que se vayan
probando las hipótesis.
Por extensión, todas las variantes resultantes de
la conexión al dispositivo de programas o de materiales informáticos
y periféricos informáticos conocidos.
El alcance de la presente invención no se limita
a las formas de realización presentes, sino que se extiende, por el
contrario, a los perfeccionamientos y modificaciones al alcance del
experto en la materia.
Claims (7)
1. Dispositivo de visualización de imágenes
tridimensionales realistas calculadas por ordenador e incrustadas
informáticamente en un entorno real, incluyendo al menos un
dispositivo individual y portátil de captura de imágenes reales
percibidas por el usuario tal como una cámara, un dispositivo de
memorización de las características de los objetos virtuales a
visualizar, un dispositivo de memorización de la posición prevista
de dichos objetos en un entorno geográfico real, un dispositivo de
seguimiento de la posición del usuario, un dispositivo de
seguimiento del campo visual del usuario, un dispositivo de
introducción de comandos por el usuario, un dispositivo de cálculo
informático que incluye un programa de cálculo, y un dispositivo
individual y portátil de visualización de las imágenes así
calculadas, estando caracterizado este dispositivo por
comprender una combinación de:
- un medio de detección y de seguimiento en
tiempo real de la posición de cada usuario en el sitio geográfico de
emplazamiento de los objetos virtuales, con respecto a un punto de
referencia arbitrario,
- un medio de detección y de seguimiento en
tiempo real de la posición del campo visual de cada usuario (arriba,
abajo, derecha, izquierda) con respecto a un punto de referencia
situado sobre cada usuario,
- un medio videográfico de captura y de
seguimiento en tiempo real de las imágenes reales percibidas por
cada usuario,
- una base de datos común a todos los usuarios
que contiene las posiciones y los parámetros característicos de cada
objeto virtual y que memoriza sus eventuales desplazamientos,
- un medio de cálculo de imágenes virtuales en
tiempo real en función de posición y del campo visual de cada
usuario previamente detectado,
- un medio de mezcla de la imagen virtual así
calculada con la imagen de vídeo previamente capturada, de forma
que, para cada usuario, la imagen virtual se incruste sobre la
imagen de vídeo de forma realista y no transparente, en cada usuario
equipado de un medio de visualización individual y portátil
visualizando la imagen así calculada, combinando las imágenes reales
percibidas por el usuario y las imágenes de los objetos virtuales
cuyas posiciones son comunes para todos los usuarios, pero
visualizadas por cada usuario en un ángulo diferente.
2. Dispositivo según la reivindicación 1,
caracterizado por que el medio de visualización toma la forma
de casco de visualización de imágenes virtuales, incluyendo una
pantalla delante de cada ojo del usuario.
3. Dispositivo según la reivindicación 1,
caracterizado por que el medio de detección en tiempo real de
la posición de los usuarios en el sitio geográfico de emplazamiento
de los objetos virtuales toma la forma de un sistema G.P.S. o de
cámaras de vídeo de seguimiento con lo cual posición es conocida con
precisión.
4. Dispositivo según una cualquiera de las
reivindicaciones 1 a 3, caracterizado por que comprende
igualmente:
- un medio de digitalización de planos,
- un medio de vectorización de imágenes
digitalizadas,
- un medio de referencia geográfica de dichas
imágenes vectorizadas.
5. Dispositivo según una cualquiera de las
reivindicaciones 1 a 4, caracterizado por que comprende
igualmente un medio para dar altura a los datos bidimensionales de
referencia geográfica.
6. Dispositivo según una cualquiera de las
reivindicaciones 1 a 5, caracterizado por que comprende
igualmente un medio de reproducción de los efectos de iluminación
teniendo en cuenta la posición real del sol sobre los lugares de la
visualización,
7. Dispositivo según una cualquiera de las
reivindicaciones 1 a 6, caracterizado por que comprende
igualmente un medio de visualización de datos representativos de un
parámetro que caracteriza la configuración completa en curso de
visualización,
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9802768A FR2775814B1 (fr) | 1998-03-06 | 1998-03-06 | Systeme de visualisation d'images tridimensionnelles realistes virtuelles en temps reel |
FR9802768 | 1998-03-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2203076T3 true ES2203076T3 (es) | 2004-04-01 |
Family
ID=9523750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES99907666T Expired - Lifetime ES2203076T3 (es) | 1998-03-06 | 1999-03-08 | Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real. |
Country Status (10)
Country | Link |
---|---|
US (1) | US6653990B1 (es) |
EP (1) | EP1058915B1 (es) |
AT (1) | ATE239951T1 (es) |
AU (1) | AU2732299A (es) |
CA (1) | CA2322702A1 (es) |
DE (1) | DE69907644T2 (es) |
ES (1) | ES2203076T3 (es) |
FR (1) | FR2775814B1 (es) |
PT (1) | PT1058915E (es) |
WO (1) | WO1999045503A1 (es) |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194726A (ja) * | 1998-10-19 | 2000-07-14 | Sony Corp | 情報処理装置及び方法、情報処理システム並びに提供媒体 |
JP3788111B2 (ja) * | 1999-06-30 | 2006-06-21 | 株式会社デンソー | 情報サービスシステム |
US7237197B2 (en) * | 2000-04-25 | 2007-06-26 | Microsoft Corporation | Method and system for presenting a video stream of a video streaming device |
WO2001093209A1 (de) * | 2000-06-02 | 2001-12-06 | Eidgenössische Technische Hochschule Zürich, Gruppe Für Graphische Datenverarbeitung, Institut Für Wissenschaftliches Rechnen, | Verfahren zur bereitstellung einer virtual-reality-umgebung |
JP4701479B2 (ja) * | 2000-07-05 | 2011-06-15 | ソニー株式会社 | リンク情報表示装置及びその表示方法 |
US6891960B2 (en) | 2000-08-12 | 2005-05-10 | Facet Technology | System for road sign sheeting classification |
JP4878083B2 (ja) * | 2001-03-13 | 2012-02-15 | キヤノン株式会社 | 画像合成装置及び方法、プログラム |
JP4649050B2 (ja) | 2001-03-13 | 2011-03-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、及び制御プログラム |
US7508946B2 (en) | 2001-06-27 | 2009-03-24 | Sony Corporation | Integrated circuit device, information processing apparatus, memory management method for information storage device, mobile terminal apparatus, semiconductor integrated circuit device, and communication method using mobile terminal apparatus |
US7002551B2 (en) * | 2002-09-25 | 2006-02-21 | Hrl Laboratories, Llc | Optical see-through augmented reality modified-scale display |
CA2526105C (en) * | 2003-06-20 | 2010-08-10 | Mitsubishi Denki Kabushiki Kaisha | Image display method and image display apparatus |
US20050228860A1 (en) * | 2004-04-12 | 2005-10-13 | Kimmo Hamynen | Methods and apparatus for geographically based Web services |
US7590310B2 (en) * | 2004-05-05 | 2009-09-15 | Facet Technology Corp. | Methods and apparatus for automated true object-based image analysis and retrieval |
US8301159B2 (en) * | 2004-12-31 | 2012-10-30 | Nokia Corporation | Displaying network objects in mobile devices based on geolocation |
US7451041B2 (en) | 2005-05-06 | 2008-11-11 | Facet Technology Corporation | Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route |
GB2428102A (en) * | 2005-07-06 | 2007-01-17 | David Smith | Viewing device |
FR2889753A1 (fr) | 2005-08-09 | 2007-02-16 | Total Immersion Sa | Systeme permettant a un utilisateur de visualiser un cockpit virtuel dans un environnement video |
US7606392B2 (en) * | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
US7797019B2 (en) | 2006-03-29 | 2010-09-14 | Research In Motion Limited | Shared image database with geographic navigation |
US9323055B2 (en) * | 2006-05-26 | 2016-04-26 | Exelis, Inc. | System and method to display maintenance and operational instructions of an apparatus using augmented reality |
US20080218331A1 (en) * | 2007-03-08 | 2008-09-11 | Itt Manufacturing Enterprises, Inc. | Augmented reality-based system and method to show the location of personnel and sensors inside occluded structures and provide increased situation awareness |
ES2306616B1 (es) | 2008-02-12 | 2009-07-24 | Fundacion Cidaut | Procedimiento de determinacion de la luminancia de señales de trafico y dispositivo para su realizacion. |
EP2193825B1 (en) * | 2008-12-03 | 2017-03-22 | Alcatel Lucent | Mobile device for augmented reality applications |
DE102009037835B4 (de) | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
JP2011197777A (ja) * | 2010-03-17 | 2011-10-06 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
EP2820576A4 (en) | 2012-02-29 | 2015-11-18 | Nokia Technologies Oy | METHOD AND DEVICE FOR PRESENTING OBJECTS AT A USER INTERFACE |
US9646422B2 (en) * | 2013-09-24 | 2017-05-09 | Apple Inc. | Method for representing points of interest in a view of a real environment on a mobile device and mobile device therefor |
CN106157352B (zh) * | 2015-04-08 | 2019-01-01 | 苏州美房云客软件科技股份有限公司 | 精装360度图片与毛坯无缝切换的数字展示方法 |
US10973391B1 (en) * | 2017-05-22 | 2021-04-13 | James X. Liu | Mixed reality viewing of a surgical procedure |
US11494153B2 (en) | 2020-07-27 | 2022-11-08 | Shopify Inc. | Systems and methods for modifying multi-user augmented reality |
US11527045B2 (en) * | 2020-07-27 | 2022-12-13 | Shopify Inc. | Systems and methods for generating multi-user augmented reality content |
US11908159B2 (en) | 2020-07-27 | 2024-02-20 | Shopify Inc. | Systems and methods for representing user interactions in multi-user augmented reality |
US11935202B2 (en) | 2022-05-25 | 2024-03-19 | Shopify Inc. | Augmented reality enabled dynamic product presentation |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4645459A (en) * | 1982-07-30 | 1987-02-24 | Honeywell Inc. | Computer generated synthesized imagery |
US4970666A (en) * | 1988-03-30 | 1990-11-13 | Land Development Laboratory, Inc. | Computerized video imaging system for creating a realistic depiction of a simulated object in an actual environment |
GB9121707D0 (en) * | 1991-10-12 | 1991-11-27 | British Aerospace | Improvements in computer-generated imagery |
FR2683330B1 (fr) * | 1991-10-31 | 1994-11-25 | Thomson Csf | Jumelle informatique. |
US5432895A (en) * | 1992-10-01 | 1995-07-11 | University Corporation For Atmospheric Research | Virtual reality imaging system |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US5625765A (en) * | 1993-09-03 | 1997-04-29 | Criticom Corp. | Vision systems including devices and methods for combining images for extended magnification schemes |
US5566073A (en) * | 1994-07-11 | 1996-10-15 | Margolin; Jed | Pilot aid using a synthetic environment |
JP3632705B2 (ja) * | 1994-08-31 | 2005-03-23 | ソニー株式会社 | 対話型画像提供方法、サーバ装置、提供方法、ユーザ端末、受信方法、画像提供システム、および画像提供方法 |
US6020885A (en) * | 1995-07-11 | 2000-02-01 | Sony Corporation | Three-dimensional virtual reality space sharing method and system using local and global object identification codes |
US6532021B1 (en) * | 1996-04-30 | 2003-03-11 | Sun Microsystems, Inc. | Opaque screen visualizer |
-
1998
- 1998-03-06 FR FR9802768A patent/FR2775814B1/fr not_active Expired - Fee Related
-
1999
- 1999-03-08 DE DE69907644T patent/DE69907644T2/de not_active Expired - Fee Related
- 1999-03-08 AT AT99907666T patent/ATE239951T1/de not_active IP Right Cessation
- 1999-03-08 EP EP99907666A patent/EP1058915B1/fr not_active Expired - Lifetime
- 1999-03-08 US US09/623,639 patent/US6653990B1/en not_active Expired - Fee Related
- 1999-03-08 ES ES99907666T patent/ES2203076T3/es not_active Expired - Lifetime
- 1999-03-08 CA CA002322702A patent/CA2322702A1/fr not_active Abandoned
- 1999-03-08 PT PT99907666T patent/PT1058915E/pt unknown
- 1999-03-08 WO PCT/FR1999/000517 patent/WO1999045503A1/fr active IP Right Grant
- 1999-03-08 AU AU27322/99A patent/AU2732299A/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
AU2732299A (en) | 1999-09-20 |
FR2775814A1 (fr) | 1999-09-10 |
EP1058915B1 (fr) | 2003-05-07 |
FR2775814B1 (fr) | 2001-01-19 |
ATE239951T1 (de) | 2003-05-15 |
CA2322702A1 (fr) | 1999-09-10 |
DE69907644T2 (de) | 2004-02-19 |
PT1058915E (pt) | 2003-09-30 |
US6653990B1 (en) | 2003-11-25 |
DE69907644D1 (de) | 2003-06-12 |
EP1058915A1 (fr) | 2000-12-13 |
WO1999045503A1 (fr) | 1999-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2203076T3 (es) | Sistema de visualizacion de imagenes tridimensionales realistas virtuales en tiempo real. | |
CN104318617B (zh) | 一种面向虚拟应急演练的三维地理场景仿真方法 | |
CN104995665B (zh) | 用于在真实环境中表示虚拟信息的方法 | |
Hatzopoulos et al. | Use of various surveying technologies to 3D digital mapping and modelling of cultural heritage structures for maintenance and restoration purposes: The Tholos in Delphi, Greece | |
Thomas et al. | Using augmented reality to visualise architecture designs in an outdoor environment | |
CN108140254A (zh) | 从地图数据中生成3d模型 | |
CN108140260A (zh) | 来自地图数据的3d模型生成以及用户界面 | |
CN106462997A (zh) | 街道视图和地球视图之间的混合 | |
Honkamaa et al. | Interactive outdoor mobile augmentation using markerless tracking and GPS | |
Tao et al. | Automatic SAR simulation technique for object identification in complex urban scenarios | |
CN106326334A (zh) | 一种电子地图的显示、生成方法和装置 | |
Sefercik et al. | UAV-based 3D virtual tour creation | |
Hodgson et al. | An indoor landscape for instruction of 3-D aerial drone imagery | |
Piatti et al. | Virtual worlds for photogrammetric image‐based simulation and learning | |
Gonzalez-Aguilera et al. | Application of non-destructive techniques to the recording and modelling of palaeolithic rock art | |
Niederöst | Landscape as a historical object: 3D reconstruction and evaluation of a relief model from the 18th century | |
Bosselmann et al. | Visualizing urban form | |
Lambers et al. | Context matters: GIS-based spatial analysis of the Nasca geoglyphs of Palpa | |
Stauch | SMARTPHONE-SUPPORTED MAPPING OF LANDFORMS A NEW TOOL IN TEACHING GEOMORPHOLOGY | |
JP2009086110A (ja) | 景観図作成装置 | |
Summerfield et al. | On capturing context in architecture | |
Fukuda et al. | Development of the environmental design tool “Tablet MR” on-site by mobile mixed reality technology | |
Poli et al. | Reality-based 3D city models from aerial satellite data | |
Bleisch et al. | More than rendering—printed tourist maps and an interactive 3D information system from highly detailed 3D landscape models | |
Blanco Pons | Analysis and development of augmented reality applications for the dissemination of cultural heritage |