ES2233201A1 - Sistema de simulacion de realidad mixta. - Google Patents

Sistema de simulacion de realidad mixta.

Info

Publication number
ES2233201A1
ES2233201A1 ES200302732A ES200302732A ES2233201A1 ES 2233201 A1 ES2233201 A1 ES 2233201A1 ES 200302732 A ES200302732 A ES 200302732A ES 200302732 A ES200302732 A ES 200302732A ES 2233201 A1 ES2233201 A1 ES 2233201A1
Authority
ES
Spain
Prior art keywords
active user
group
data
motion capture
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES200302732A
Other languages
English (en)
Other versions
ES2233201B1 (es
Inventor
Manuel Martin Alonso
Sergio Vila Martinez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SEAT SA
Original Assignee
SEAT SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SEAT SA filed Critical SEAT SA
Priority to ES200302732A priority Critical patent/ES2233201B1/es
Priority to EP04380231A priority patent/EP1533683A3/en
Publication of ES2233201A1 publication Critical patent/ES2233201A1/es
Application granted granted Critical
Publication of ES2233201B1 publication Critical patent/ES2233201B1/es
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M17/00Testing of vehicles
    • G01M17/007Wheeled or endless-tracked vehicles
    • G06F19/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/04Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
    • G09B9/05Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles the view from a vehicle being simulated

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Un sistema de simulación de realidad mixta, que comprende: - un sistema de captura de movimiento (20) en tiempo real, que incluye los siguientes elementos conectados entre sí, - al menos una unidad de procesamiento de datos (PC1, PC2), - un grupo de marcadores (22) sujetables al cuerpo de un usuario activo (100) del sistema, - una pluralidad de cámaras (21) dispuestas de forma que en todo momento como mínimo dos de ellas puedan captar un mismo marcador (22), - dos guantes de datos (30), - una estación gráfica (10), - un primer dispositivo de visualización (40) para dicho usuario activo, y - al menos una maqueta física (60), estando configurada dicha estación gráfica para procesar la información proporcionada por el sistema de captura de movimiento y los guantes de datos, y para enviar en tiempo real dicha información en forma de imágenes al primer dispositivo de visualización.

Description

Sistema de simulación de realidad mixta.
Campo de la invención
La presente invención se enmarca dentro de las técnicas de simulación y análisis virtual, aplicables especialmente al sector de la automoción.
Antecedentes de la invención
En relación con el sector del automóvil, el lanzamiento al mercado de un nuevo modelo debe afrontar el constante recorte de los plazos de desarrollo, exigido por la disminución del ciclo de vida de los vehículos y la necesaria diversificación de la gama para atender la mayor demanda posible. El éxito de esta adaptación se debe, en gran medida, a la introducción y al desarrollo de las técnicas de simulación y análisis virtual. Hasta la introducción de la Realidad Virtual (RV), todas las valoraciones de diseño, calidad superficial y ergonomía se realizaban sobre modelos físicos, modelados a mano o fresados durante la fase inicial del proyecto, o en forma de vehículos funcionantes durante la fase de prototipos. Con la utilización de la RV se ha reducido el número de modelos necesarios en cada proyecto, ya que las valoraciones de diseño y calidad superficial se realizan ya en gran parte sobre modelos virtuales, con el ahorro en tiempo y costes que ello conlleva.
Hoy en día la realidad virtual permite adelantar la toma de decisiones sobre ciertos proyectos: el tiempo de fabricación de un prototipo virtual es, por ejemplo, de una semana frente a los dos meses necesarios para un modelo fresado. Esto permite tener en cuenta un mayor número de variantes, con lo que se llega a la fase de prototipos físicos con el proyecto más
\hbox{maduro.}
Hasta la fecha, la tecnología ha permitido introducir a las personas en espacios que no existen físicamente, sino que son tan sólo una representación concebida desde los equipos informáticos (mediante RV).
Descripción de la invención
La invención se refiere a un sistema de acuerdo con la reivindicación 1. Realizaciones preferidas del sistema se definen en las reivindicaciones dependientes.
Es un objetivo de la presente invención proporcionar un sistema que permita realizar diversas simulaciones en prototipos virtuales, sin necesidad de recurrir a prototipos físicos.
Es también un objetivo de la presente invención proporcionar un sistema que implemente el sentido del tacto al sentido de la vista, que es el que ya se aplica para análisis virtuales, de forma que el usuario del sistema se encuentra más inmerso en la virtualidad y, por tanto, su valoración será más objetiva.
Mediante el sistema de la invención se introduce en la valoración virtual las restricciones que tiene el observador real en un prototipo físico.
El sistema de la invención permite hacer valoraciones más objetivas de prototipos virtuales de automóviles sin necesidad de realizar los modelos físicos completamente.
El sistema de simulación de realidad mixta de la presente invención comprende:
- un sistema de captura de movimiento en tiempo real que incluye los siguientes elementos conectados entre sí:
-
al menos una unidad de procesamiento de datos,
-
un grupo de marcadores sujetables al cuerpo de un usuario activo del sistema, preferiblemente definiendo dicho grupo de marcadores el esqueleto de dicho usuario activo,
-
una pluralidad de cámaras dispuestas de forma que en todo momento como mínimo dos de ellas puedan captar un mismo marcador,
estando la unidad de procesamiento de datos configurada para adquirir y procesar un primer grupo de datos relativos a la información capturada por dichas cámaras y extraer de dicho primer grupo de datos, preferiblemente mediante cálculo de la biomecánica de dicho usuario activo, un primer grupo de coordenadas de posición y vectores directores de las articulaciones de dicho usuario activo,
- medios de envío de dicho primer grupo de coordenadas de posición y vectores directores hacia una estación gráfica,
- dos guantes de datos configurados para proporcionar un segundo grupo de coordenadas de posición y vectores directores de los dedos de las manos de dicho usuario activo,
- medios de envío de dicho segundo grupo de coordenadas de posición y vectores directores hacia una estación gráfica,
- un primer dispositivo de visualización para dicho usuario activo, como puede ser un casco estereoscópico, y
- al menos una maqueta física, representativa de un entorno real,
estando configurada dicha estación gráfica para procesar la información proporcionada por los primero y segundo grupo de coordenadas de posición y vectores directores, representativos de un entorno virtual y del cuerpo virtual del usuario activo, y para enviar en tiempo real dicha información en forma de imágenes al primer dispositivo de visualización,
de forma que las imágenes percibidas por dicho usuario activo del sistema dependen de la posición de la cabeza de dicho usuario activo, de la posición de dicha maqueta física y de la posición del cuerpo del usuario activo con relación a la maqueta física.
Gracias a la maqueta física, el usuario activo se encuentra en la correcta posición respecto al entorno virtual y tiene contacto físico con aquellas partes definidas para el análisis; esta maqueta física permite al usuario activo del sistema relacionar mediante el tacto la virtualidad que está viendo con la realidad que está tocando.
Este usuario activo del sistema es quien está inmerso en el "entorno virtual" y puede interactuar en ella; este usuario activo se encuentra en la misma posición en la que estaría en el prototipo real y tiene contacto físico con la maqueta física.
Preferiblemente dicha maqueta física está constituida por elementos regulables y calibrables, de forma que dicha maqueta sea polivalente para diversos modelos.
Mediante este sistema se da un salto desde la Realidad Virtual a la Realidad Mixta, para conseguir que la validación virtual sea, además de objetiva, lógica, priorizando aquellos puntos de vista que son visibles e importantes. El cuerpo virtual en el prototipo pasa a ser una representación geométrica del cuerpo, que con las restricciones impuestas por una maqueta física ayuda a lograr una valoración del prototipo virtual mucho más cercana a la real. Mediante la combinación de elementos físicos (diferentes maquetas correspondientes a diversas zonas del vehículo) y virtuales (resto de geometrías del entorno de cada maqueta), el sistema permite, por ejemplo, evaluar la ergonomía de cualquier interior de un vehículo en una fase muy temprana de su desarrollo.
Preferiblemente el sistema además comprende un segundo dispositivo de visualización para al menos, un usuario pasivo del sistema. Este usuario o usuarios pasivos observan los resultados de la simulación en dicho segundo dispositivo de visualización, como puede ser una pantalla estereoscópica (o
\hbox{ StereoWall )}
pero no pueden interactuar en el sistema. El o los usuarios pasivos tienen la opción de elegir qué punto de vista desean: el mismo que el del usuario activo o un punto de vista sin referencia con éste.
El sistema de la invención presenta varias innovaciones tecnológicas:
i)
Unión en un sólo sistema de distintos dispositivos de entrada (sistema óptico de captura del movimiento, guante de datos) y distintos dispositivos efectores (casco estereoscópico, pantalla estereoscópica), todos ellos gestionados por una estación gráfica de última generación.
ii)
Adaptación de un sistema de captura óptico, proveniente del mundo de la animación por ordenador, para trabajos de ingeniería, con unos requisitos determinados de luz, precisión y procesado de la información en tiempo real.
iii)
Utilización de un software modular de Realidad Virtual que permite: configurar los distintos dispositivos efectores; representar con un alto nivel de definición y realismo las superficies virtuales a valorar; utilizar distintos avatares dentro de la escena virtual, bien adaptándolos a las medidas antropométricas de los distintos usuarios o bien utilizando modelos humanos disponibles en librerías; crear simulaciones de luz en la escena virtual, con resultados muy cercanos a la realidad; procesar todos los datos de los dispositivos de entrada y modificar la escena virtual a tiempo real, aprovechando al máximo los recursos de nuestro hardware.
iv)
Evolución hacia un nuevo concepto de realidad virtual más inmersivo, la realidad mixta. Este nuevo concepto intenta suplir las carencias actuales de la realidad virtual en lo que respecta al sentido del tacto.
De los cinco sentidos principales (vista, oído, tacto, gusto y olfato) la Realidad Virtual ha evolucionado básicamente en el campo del sentido de la vista y del oído. Por lo que respecta al tacto, existen algunos dispositivos de realimentación de fuerza (force feedback), a nivel de prototipos, que empiezan a trabajar en este campo. Pero todos se encuentran con un problema básico de falta de ordenadores capaces de trabajar con una frecuencia de refresco de 1000 fps, que es la frecuencia necesaria para engañar al sentido del tacto, frente a los 30 fps necesarios para el sentido de la vista.
Por todo esto el sistema utiliza el concepto de realidad mixta, al utilizar por un lado dispositivos efectores de realidad virtual para el sentido de la vista y por el otro, una maqueta física que introduce las restricciones para el sentido del tacto.
Entre las ventajas del sistema, se pueden destacar:
- Mediante la Realidad Mixta se obtiene una validación virtual lógica.
- En el aspecto económico, la adopción de este sistema permite analizar en cada maqueta física toda la gama de versiones y opciones de cada producto.
- La ventaja más importante es el ahorro de tiempo de desarrollo, puesto que las maquetas permiten realizar diferentes pruebas con pocos y sencillos cambios, ya sean de piezas físicas como de piezas virtuales, que resultan fáciles de ejecutar. Se trata así de un sistema diseñado para aportar una gran flexibilidad a la configuración de las simulaciones.
- Se trata de simulaciones que aportan calidad a las evaluaciones, ya que emplean archivos virtuales de geometría teórica exacta y una serie de maquetas físicas calibradas con un error inferior a 0,5 mm.
El sistema de la invención puede ser también utilizado para realizar los siguientes análisis, lo que extenderá el uso del sistema de la invención a lo largo de todo el desarrollo del ciclo de vida de nuevos productos:
-
Análisis de montabilidades: se aplica el sistema de la invención para el análisis del montaje y desmontaje de todos los componentes del vehículo, tanto para el reciclaje futuro de éste, como para que el usuario final pueda realizar de forma fácil las tareas básicas de mantenimiento, cambio de las lámparas, ruedas, batería, etc.
-
Virtual Manufacturing: se aplica el sistema de la invención para analizar todo el proceso de fabricación en una Fábrica Virtual. Se podrá analizar la ergonomía de las operaciones y del puesto de trabajo, y colaborar en la definición de los métodos y tiempos de los procesos de ensamblaje, soldadura, pintura y montaje, de manera que sean lo más cómodos posible y garanticen una mayor rapidez de la operación y la máxima calidad de ejecución. Esta tarea de diseño industrial incluirá la simplificación de las tareas a realizar en la cadena mediante contenedores, carros y herramientas que hagan fácil su utilización por el trabajador.
Estos análisis ya se realizan en la actualidad, pero se efectúan sobre prototipos físicos, en el caso de las montabilidades, y con las preseries en el caso del proceso de fabricación. Con la ayuda del sistema de la invención se hace sobre Prototipos Virtuales y en la Fábrica Virtual, reduciendo el tiempo y los costes de desarrollo de los nuevos productos y recortando su tiempo de fabricación.
Breve descripción de los dibujos
A continuación se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.
La Figura 1 muestra un esquema del sistema de la invención y los principales elementos que lo componen.
La Figura 2 muestra una posible realización de parte del sistema de captura del movimiento.
La Figura 3 muestra dos posibles realizaciones de una maqueta física.
Descripción de una realización preferida de la invención
En la figura 1 se muestra un esquema del sistema de simulación de realidad mixta de acuerdo con una realización preferida del mismo. Como se muestra en dicho esquema, en el sistema de simulación de la invención podemos distinguir:
- una estación gráfica 10 sobre la que rueda, entre otros, el software de realidad virtual,
- un sistema de captura de movimiento 20 (que se muestra con más detalle en la figura 2), que es una de las entradas del sistema,
- dos guantes de datos 30 (de los cuales, para evitar complicar el dibujo, sólo se muestra uno), que es otra de las entradas del sistema,
- un ratón 3D 51 para obtener los puntos de vista deseados por los usuarios pasivos del sistema,
- un casco estereoscópico 40 en la cabeza de un usuario activo 100,
- una pantalla estereoscópica 50 para visualización por parte de uno o más usuarios pasivos (no mostrados), y
- la maqueta física 60 (que se muestra con más detalle en la figura 3), en este caso representativa del puesto de conducción.
La estación gráfica 10, de acuerdo con este ejemplo de realización, se trata de un supercomputador de última generación capaz de modelizar en tiempo real más de un millón de polígonos y 256 Mbyte de texturas. Tiene la capacidad de renderizar grandes cantidades de información, y procesa todos los datos que le llegan, modificando la escena virtual en tiempo real.
Como se muestra en la figura 2, en la presente invención se utiliza un sistema de captura del movimiento que es una adaptación de un sistema de captura que se utiliza en el mundo de la animación. Consta de seis cámaras 21, dos más que el sistema estándar utilizado en animación, para poder reducir al máximo las zonas ocultas a las cámaras que se generan al utilizar la maqueta física dentro de la zona de captura.
En este caso la iluminación es mediante luz infrarroja, para que la luz del sistema de captura no impida la visualización de la simulación por parte de las usuarios pasivos, que se realiza en la pantalla estereoscópica 50 (de 2,4 x 1,8 m) contigua al emplazamiento de la maqueta.
El sistema de captura del movimiento también incluye un juego de marcadores para seguimiento del cuerpo entero del usuario activo 100; el número de marcadores están en función del análisis a realizar, dependiendo de si el usuario activo está de pie o sentado; en la presente realización se han utilizado veintidós marcadores 22, modelo sentado.
Así mismo incluye dos ordenadores PC1 y PC2. En el ordenador PC1 hay seis tarjetas gráficas, una por cámara, que reciben las imágenes de la zona de captura a una frecuencia de 50 Hz. Este PC simplemente adquiere esta información y la transmite al PC2 para su posterior procesado.
El PC2 tiene instalado un software que permite procesar las imágenes adquiridas en el PC1 para extraer las coordenadas de cada posición y orientación de las articulaciones del usuario activo. Este software está especialmente diseñado para resolver de forma eficiente el problema de las oclusiones, común a todos los sistemas de captación de movimientos ópticos. La reconstrucción de las coordenadas 3D de una articulación se realiza mediante los datos de la lente (procedentes del proceso de calibración) y la posición del centroide de la proyección de dicho marcador en al menos dos cámaras. Si en un instante dado un marcador no es visto simultáneamente por dos o más cámaras, se produce una "oclusión". El software de este sistema resuelve este problema mediante un sofisticado modelo matemático que permite el cálculo de la solución óptica para la posición de todos los marcadores, incluso en el caso de que se produzcan oclusiones.
Una vez extraídas las coordenadas de posición y los vectores directores de todas las articulaciones (huesos), éstas son enviadas por el puerto serie
RS-232 en paquetes hacia la estación gráfica 10, a una velocidad de 100 Mbit/s.
Otro aspecto importante del funcionamiento del sistema de seguimiento y captura del movimiento es el volumen de captura, ya que afecta directamente a la precisión de ésta. El sistema está diseñado para trabajar de manera óptima en un volumen máximo de
\hbox{4 m}
de diámetro y 2,2 m de altura. Para ello las cámaras tienen que estar dispuestas en un diámetro de 7 m y una altura de 2,8 m. Si se trabaja en estas condiciones la precisión es de 2,2 mm. La primera maqueta física 60 que se exhibe tiene unas dimensiones de 1800 x 750 x 1400 mm, por lo que se puede reducir el volumen de captura a 2 m de diámetro y 2 m de altura, con lo que la precisión aumentará hasta aproximadamente 1,5 mm.
Para tener una captura de alta precisión de los movimientos de las manos, el sistema de la invención utiliza los guantes de datos 30, que permiten captar la posición exacta de cada dedo. Las coordenadas de la posición de la mano dentro del sistema las obtiene del sistema óptico de captura del movimiento. Las coordenadas relativas de las distintas falanges de la mano son captadas por los sensores (galgas extensiométricas) que incorpora el guante. Ambos datos son enviados a la estación gráfica de forma independiente y por distintos puertos serie RS-232.
Por su parte, el casco estereoscópico 40 es el dispositivo de visualización (efector) más importante del sistema, ya que es el que da la inmersión necesaria para que la simulación sea lo más real posible para el usuario activo 100 del sistema de la invención. Las características técnicas de este casco estereoscópico deberían ser: alta resolución (1600 x 1200
píxels), campo de visión aproximadamente como el del ojo humano (140º en horizontal y 90º en vertical) y ergonomía de uso (poco peso, fácilmente adaptable a distintos usuarios, etc.). Actualmente los cascos estereoscópicos disponibles en el mercado que se acercan a estas características, lo hacen sólo en resolución y campo de visión, pero no en ergonomía, ya que utilizan tecnologías CRT (Cathode Ray Tube) y necesitan estructuras especiales para soportar su gran peso. Otro inconveniente muy importante es su elevado coste. Por todo esto el sistema de la invención utiliza el casco estereoscópico CyberMlND HI-RES 900 3D de menor resolución y campo de visión, pero con una buena ergonomía; en un futuro próximo se espera poder introducir alguno de los cascos estereoscópicos que en la actualidad se están desarrollando con tecnología LCD y que están enfocados a la industria del automóvil.
Por su parte, la pantalla estereoscópica 50 o StereoWall, consta de dos proyectores CRT con filtros polarizados y una pantalla Fresnel. Gracias a la utilización de filtros y gafas polarizados, es posible separar la imagen del proyector superior en un ojo y la del proyector inferior en el otro, creando en nuestro cerebro el efecto de que los objetos proyectados sobre la pantalla Fresnel, con propiedades especiales para conservar la polarización de los haces de luz, están en 3D. La gran ventaja de este sistema de realidad virtual es que puede ser utilizado por un gran grupo de personas al mismo tiempo. De esta forma, las simulaciones realizadas por el sistema de la invención pueden ser vistas al mismo tiempo por distintas personas de diferentes áreas de proyectos, diseño, marketing, calidad, etc. (usuarios pasivos del sistema). Estos usuarios pasivos tienen la opción de elegir qué punto de vista desean, el mismo que el del usuario activo o un punto de vista sin referencia con éste. En el segundo caso la navegación dentro del entorno virtual se realiza mediante el ratón 3D 51.
La maqueta física 60 es un elemento importante dentro del sistema de la invención, puesto que es la que aporta al usuario activo 100 del sistema la sensación de tacto, ayudándole a encontrar su posición en la escena virtual. Para el diseño de la maqueta física utilizada en esta realización, que se han tenido en cuenta los siguientes requisitos:
- Impedir que la maqueta oculte partes del cuerpo del usuario, para evitar problemas en la captura del movimiento de éste.
- Se han introducido los elementos básicos de los que dispone el usuario de cualquier vehículo estando en el puesto de conducción, esto es asiento, volante y pedalería. Pero se pueden introducir el resto de elementos básicos, como el pomo de cambio de marchas, el espejo retrovisor interior, etc.
- Se han utilizado materiales ligeros para la estructura (aluminio), evitando que en ningún caso la maqueta sobrepase los 100 kg. de peso.
- Todos los elementos se han fijado sobre bases regulables y calibrables, para tener una maqueta polivalente para que valga para distintos modelos.
Así, por ejemplo, el asiento será intercambiable según el modelo que se quiera simular, y fijado sobre guías; el volante y la pedalería: también intercambiables y regulables según modelo.
En el ejemplo de realización mostrado, el sistema de simulación de realidad mixta de la invención se vale del siguiente software para la correcta ejecución de la simulación:
1. Visualizador de Realidad Virtual (Virtual Design 2): que es el software base del sistema, cuyas principales características son:
- Motor de visualización muy optimizado para estaciones gráficas, con unos rendimientos muy superiores a cualquier otra solución sobre otras plataformas. Se puede llegar a trabajar con 1 millón de polígonos y 256 Mbyte de texturas a 30 fps (frames por segundo).
- Software modular: Incorpora distintos módulos con funciones específicas y módulos para la conexión on-line con otras aplicaciones, aprovechando así los recursos gráficos de éstas.
- Es configurable para cualquier tipo de salida gráfica: estéreo activo, estéreo pasivo, casco estereoscópico, etc.
- Gestiona la mayoría de los periféricos de Realidad Virtual.
2. Módulo de ergonomía (ERG VD2): es el que permite enlazar on-line VD2 con el software de antropometría del cuerpo humano (RAMSIS VR), y obtener un avatar dentro de la escena virtual que se adapte a las medidas antropométricas del usuario activo del sistema. Además este módulo hace de enlace entre el sistema de captura de movimiento óptico y RAMSIS VR, para poder unir los movimientos del esqueleto del usuario con los del esqueleto de RAMSIS VR.
3. Software de modelos humanos (RAMSIS VR): RAMSIS es un software de modelos humanos. A partir del estudio de poblaciones de distintos países (Alemania, Japón, etc.) y su evolución en el tiempo, extrae distintas librerías de modelos humanos de poblaciones actuales y futuras, las cuales son la base para el desarrollo del package de nuestros productos. Por ejemplo, si se está diseñando un modelo de vehículo con un lanzamiento al mercado previsto para el 2004, se utilizarán modelos humanos que representen las medidas antropométricas que tendrá la población ese año en los países a los cuales va destinado el vehículo. Dentro de estas librerías de modelos humanos existen distintos percentiles, que representan a los porcentajes de población que tienen ese tamaño o uno inferior. Por ejemplo, el 95 percentil es el modelo más grande que se utiliza, ya que el 95% de la población es de menor tamaño que él. Para el sistema de la invención se utiliza RAMSIS VR, que además de las características de RAMSIS, incorpora la posibilidad de conectarse con VD2.
Una vez conocidos los elementos que componen el sistema de la invención, el funcionamiento del mismo sería el siguiente:
Como se ha indicado, el usuario activo 100 del sistema se encuentra ubicado en la maqueta física 60 en la misma posición en la que estaría dentro del prototipo real y tiene contacto físico con el asiento, la pedalería y el volante de la maqueta. Lleva colocados en su cuerpo marcadores 22 en las articulaciones y en la cabeza. En las manos lleva guantes de datos 30 conectados a la estación gráfica 10 (entrada) a través de puertos serie RS-232. En la cabeza lleva un casco estereoscópico 40 conectado a la estación gráfica 10 (salida) a través de dos cables de vídeo.
El usuario activo 100 recibe constantemente las imágenes actualizadas, según la posición de la cabeza, de las superficies del prototipo a valorar y de su propio cuerpo (avatar) dentro de éste. En el momento en que mueve la cabeza, el sistema óptico de captura del movimiento capta la nueva posición. Después de procesar la nueva posición, envía los datos a la estación gráfica, que recalcula la nueva imagen que el usuario ve de la escena virtual y la envía a través de dos cables VGA a la pantalla estereoscópica y a través de dos cables de vídeo al casco estereoscópico. Esta operación se hace a 30 fps, con lo que el usuario activo no percibe ningún salto en las imágenes y cree estar realmente en el interior del prototipo.
Si al movimiento de la cabeza se le añade el de alguna parte del cuerpo, por ejemplo el brazo y la mano derechos, el sistema de captura del movimiento 20 y los guantes de datos 30 envían los datos de la nueva posición a la estación gráfica 10, donde el software VD2 genera el avatar del usuario en esta nueva posición y éste lo visualiza también a tiempo real. Esta simulación es de gran importancia para que la persona que está utilizando el sistema tenga realmente la sensación de encontrarse dentro del entorno virtual.
Con los elementos indicados en este ejemplo de realización, el sistema es capaz de realizar dos tipos de simulaciones:
- La primera de ellas es la descrita anteriormente, en la cual el avatar de la escena virtual se adapta a las medidas del usuario activo para que la inmersión de éste sea la completa; en este caso los usuarios u observadores pasivos ven lo mismo que lo que está viendo el usuario activo.
- En el segundo caso se trabaja con distintos avatares de distintos tamaños (percentiles) que representan distintos modelos humanos de poblaciones futuras. Estos distintos percentiles se unen al movimiento del usuario activo, con la consecuente pérdida de inmersión para éste. Por el contrario, los observadores pasivos tienen la posibilidad de navegar dentro de la escena virtual para analizar puntos de vista diferentes al del usuario activo. Por ejemplo, si se está simulando la posición del brazo y de la mano en el apoyabrazo de la puerta con los modelos del 5 percentil mujer y el 95 percentil hombre, casos extremos con los que normalmente se trabaja, los usuarios pasivos pueden ver el brazo y la mano apoyados en la puerta desde todos los puntos de vista que decidan, sacando conclusiones sobre la ergonomía en cada caso, de manera mucho más rápida que mediante simulaciones en las estaciones de trabajo convencionales.

Claims (8)

1. Un sistema de simulación de realidad mixta, que comprende
- un sistema de captura de movimiento (20) en tiempo real, que incluye los siguientes elementos conectados entre sí:
-
al menos una unidad de procesamiento de datos (PC1, PC2),
-
un grupo de marcadores (22) sujetables al cuerpo de un usuario activo (100) del sistema,
-
una pluralidad de cámaras (21) dispuestas de forma que en todo momento como mínimo dos de ellas puedan captar un mismo marcador (22),
estando la unidad de procesamiento de datos configurada para adquirir y procesar un primer grupo de datos relativos a la información capturada por dichas cámaras y extraer de dicho primer grupo de datos un primer grupo de coordenadas de posición y vectores directores de las articulaciones de dicho usuario activo,
- medios de envío de dicho primer grupo de coordenadas de posición y vectores directores hacia una estación gráfica,
- dos guantes de datos (30), configurados para proporcionar un segundo grupo de coordenadas de posición y vectores directores de los dedos de las manos de dicho usuario activo,
- medios de envío de dicho segundo grupo de coordenadas de posición y vectores directores, hacia una estación gráfica (10),
- un primer dispositivo de visualización (40) para dicho usuario activo, y
- al menos una maqueta física (60),
estando configurada dicha estación gráfica para procesar la información proporcionada por los primer y segundo grupo de coordenadas de posición y vectores directores, y para enviar en tiempo real dicha información en forma de imágenes al primer dispositivo de visualización,
de forma que las imágenes percibidas por dicho usuario activo del sistema dependen de la posición de la cabeza de dicho usuario activo, de la posición de dicha maqueta física y de la posición del cuerpo del usuario activo con relación a la maqueta física.
2. Sistema según reivindicación 1, caracterizado porque dicha unidad de procesamiento de datos está configurada para crear un origen de coordenadas común a un entorno virtual relacionado con el sistema de captura de movimiento (20) y a un entorno real relacionado con la maqueta física (60).
3. Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicho grupo de marcadores (22) define el esqueleto de dicho usuario activo.
4. Sistema según reivindicación 3, caracterizado porque dicha unidad de procesamiento de datos está configurada extraer de dicho primer grupo de datos un primer grupo de coordenadas de posición y vectores directores de las articulaciones de dicho usuario activo mediante cálculo de la biomecánica de dicho usuario activo.
5. Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicho sistema de captura de movimiento en tiempo real es un sistema de captura de movimiento de cuerpo entero.
6. Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicha maqueta física (60) está constituida por elementos regulables y calibrables.
7. Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque el sistema de simulación comprende un segundo dispositivo de visualización (50) para al menos, un usuario pasivo del sistema.
8. Sistema según cualquiera de las reivindicaciones anteriores, caracterizado porque dicha estación gráfica está configurada para controlar los diferentes elementos constitutivos del sistema.
ES200302732A 2003-11-21 2003-11-21 Sistema de simulacion de realidad mixta. Expired - Fee Related ES2233201B1 (es)

Priority Applications (2)

Application Number Priority Date Filing Date Title
ES200302732A ES2233201B1 (es) 2003-11-21 2003-11-21 Sistema de simulacion de realidad mixta.
EP04380231A EP1533683A3 (en) 2003-11-21 2004-11-19 Mixed reality simulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES200302732A ES2233201B1 (es) 2003-11-21 2003-11-21 Sistema de simulacion de realidad mixta.

Publications (2)

Publication Number Publication Date
ES2233201A1 true ES2233201A1 (es) 2005-06-01
ES2233201B1 ES2233201B1 (es) 2006-07-16

Family

ID=34429689

Family Applications (1)

Application Number Title Priority Date Filing Date
ES200302732A Expired - Fee Related ES2233201B1 (es) 2003-11-21 2003-11-21 Sistema de simulacion de realidad mixta.

Country Status (2)

Country Link
EP (1) EP1533683A3 (es)
ES (1) ES2233201B1 (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289125A (zh) * 2020-11-16 2021-01-29 株洲壹星科技股份有限公司 一种车辆mr模拟驾驶实训方法及实训装置

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005011432B4 (de) * 2005-03-12 2019-03-21 Volkswagen Ag Datenhandschuh
CN100585329C (zh) * 2007-04-10 2010-01-27 南京航空航天大学 基于指端标记的视频手指定位系统及其定位方法
CA2662318C (en) * 2009-01-17 2014-12-02 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US9251721B2 (en) 2010-04-09 2016-02-02 University Of Florida Research Foundation, Inc. Interactive mixed reality system and uses thereof
CN103208214A (zh) * 2013-03-15 2013-07-17 江苏省电力公司 一种电力变电站新型仿真系统
WO2016112383A1 (en) * 2015-01-10 2016-07-14 University Of Florida Research Foundation, Inc. Simulation features combining mixed reality and modular tracking
DE102015003881B4 (de) * 2015-03-26 2024-07-11 Audi Ag Verfahren zum Bereitstellen einer Simulation einer virtuellen Umgebung mit zumindest einem Teil eines Kraftfahrzeugs und Kraftfahrzeugsimulationsanordnung
CN105225551A (zh) * 2015-11-12 2016-01-06 武汉科迪奥电力科技有限公司 基于虚拟现实技术的高压开关柜培训方法
CN107844191A (zh) * 2016-09-21 2018-03-27 北京诺亦腾科技有限公司 用于虚拟现实的动作捕捉装置
CN106530891A (zh) * 2017-01-03 2017-03-22 刘晨 基于vr技术的驾驶模拟系统
CN109445585A (zh) * 2018-10-22 2019-03-08 广州星唯信息科技有限公司 一种基于手势操控模拟真实驾驶方向方法
US11450233B2 (en) 2019-02-19 2022-09-20 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
US11521512B2 (en) 2019-02-19 2022-12-06 Illinois Tool Works Inc. Systems for simulating joining operations using mobile devices
IT201900017573A1 (it) * 2019-09-30 2021-03-30 Italdesign Giugiaro Spa Metodo e apparecchiatura per verificare e/o configurare la disposizione degli elementi fisici di un veicolo
US11322037B2 (en) * 2019-11-25 2022-05-03 Illinois Tool Works Inc. Weld training simulations using mobile devices, modular workpieces, and simulated welding equipment
WO2021137788A1 (en) * 2019-12-31 2021-07-08 Borcelik Celik San. Tic. A.S. A bridge crane simulator with increased virtual reality
DE102020130113A1 (de) 2020-11-16 2022-05-19 Audi Aktiengesellschaft Verfahren zur Validierung und/oder Anpassung eines virtuellen Innenraummodells und Verfahren zur Herstellung eines Kraftfahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5831584A (en) * 1995-07-28 1998-11-03 Chrysler Corporation Hand calibration system and virtual display selection for vehicle simulator
EP1124212A1 (fr) * 2000-02-10 2001-08-16 Renault Procédé et dispositif de présentation visuelle d'un espace virtuel à trois dimentsions simulant un véhicule automobile
GB2369467A (en) * 2000-08-02 2002-05-29 Ford Global Tech Inc Subjective evaluation of a vehicle design
US6415043B1 (en) * 1997-01-13 2002-07-02 Qualisys Ab Method and arrangement for determining the position of an object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5831584A (en) * 1995-07-28 1998-11-03 Chrysler Corporation Hand calibration system and virtual display selection for vehicle simulator
US6415043B1 (en) * 1997-01-13 2002-07-02 Qualisys Ab Method and arrangement for determining the position of an object
EP1124212A1 (fr) * 2000-02-10 2001-08-16 Renault Procédé et dispositif de présentation visuelle d'un espace virtuel à trois dimentsions simulant un véhicule automobile
GB2369467A (en) * 2000-08-02 2002-05-29 Ford Global Tech Inc Subjective evaluation of a vehicle design

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Recuperado de World Patent Index en EPOQUE Database. & EP 1124212 A1 (RENAULT) 16.08.2001, resumen; figuras. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112289125A (zh) * 2020-11-16 2021-01-29 株洲壹星科技股份有限公司 一种车辆mr模拟驾驶实训方法及实训装置

Also Published As

Publication number Publication date
ES2233201B1 (es) 2006-07-16
EP1533683A3 (en) 2007-03-28
EP1533683A2 (en) 2005-05-25

Similar Documents

Publication Publication Date Title
ES2233201B1 (es) Sistema de simulacion de realidad mixta.
JP6226697B2 (ja) 仮想現実ディスプレイシステム
CN109791442B (zh) 表面建模系统和方法
US20210283496A1 (en) Realistic Virtual/Augmented/Mixed Reality Viewing and Interactions
US10762714B2 (en) Method and system for calibrating a virtual reality system
JP6352426B2 (ja) ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム
CN105159450B (zh) 一种便携式可交互桌面级虚拟现实系统
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US20080030429A1 (en) System and method of enhanced virtual reality
WO2009153975A1 (ja) 電子ミラー装置
Grossman et al. An evaluation of depth perception on volumetric displays
WO2015090421A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
Vasylevska et al. Towards efficient spatial compression in self-overlapping virtual environments
JP2006301654A (ja) 画像呈示装置
CN115244492A (zh) 物理对象对增强现实中的虚拟对象的遮挡
Basu A brief chronology of Virtual Reality
Debarba et al. Embodied interaction using non-planar projections in immersive virtual reality
Shao et al. Development of a 1: 1 Scale True Perception Virtual Reality System for design review in automotive industry
US9679352B2 (en) Method for operating a display device and system with a display device
JP2017069924A (ja) 画像表示装置
Rolland et al. Teleportal Augmented Reality System: Integrating virtual objects, remote collaborators, and physical reality for distributed networked manufacturing
Smith et al. Really getting into your work: The use of immersive simulations
Moreau et al. Stereoscopic displays for Virtual Reality in the car manufacturing industry: application to design review and ergonomic studies
Adelstein et al. Rotation and direction judgment from visual images head-slaved in two and three degrees-of-freedom

Legal Events

Date Code Title Description
EC2A Search report published

Date of ref document: 20050601

Kind code of ref document: A1

FG2A Definitive protection

Ref document number: 2233201B1

Country of ref document: ES

FD2A Announcement of lapse in spain

Effective date: 20180809