ES2770306T3 - Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual - Google Patents

Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual Download PDF

Info

Publication number
ES2770306T3
ES2770306T3 ES16797566T ES16797566T ES2770306T3 ES 2770306 T3 ES2770306 T3 ES 2770306T3 ES 16797566 T ES16797566 T ES 16797566T ES 16797566 T ES16797566 T ES 16797566T ES 2770306 T3 ES2770306 T3 ES 2770306T3
Authority
ES
Spain
Prior art keywords
virtual
virtual reality
reality glasses
housing
observation position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16797566T
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Application granted granted Critical
Publication of ES2770306T3 publication Critical patent/ES2770306T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Procedimiento para accionar un sistema de realidad virtual (10), con las etapas: - detectar la posición de unas gafas de realidad virtual (12) mediante un equipo de detección (16); - predeterminar una posición de observación virtual (26) en dependencia de la posición detectada de las gafas de realidad virtual (12); - mostrar un objeto virtual (24), dispuesto en un entorno virtual (22), desde la posición de observación virtual (26) mediante las gafas de realidad virtual (12); caracterizado por que se predetermina un cuerpo envolvente virtual (28) que rodea al menos parcialmente la posición de observación virtual (26), en donde, mientras una parte del objeto virtual (24) esté sumergida en el cuerpo envolvente virtual (28), esta parte se muestra de manera al menos parcialmente transparente, en donde la parte entera del objeto virtual (24) se muestra de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente (28), o la transparencia de la parte del objeto virtual (24) se muestra en aumento cada vez con mayor intensidad de un área que secciona un límite del cuerpo envolvente (28) a un área que se sumerge a la mayor profundidad del cuerpo envolvente (28).

Description

DESCRIPCIÓN
Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual
La presente invención se refiere a un procedimiento para accionar un sistema de realidad virtual y a un sistema de realidad virtual.
Mediante un sistema de realidad virtual se puede representar una realidad virtual, en donde habitualmente se denomina realidad virtual a la representación y percepción simultánea de la realidad en sus propiedades físicas en un entorno virtual interactivo, generado por ordenador en tiempo real.
Los sistemas de realidad virtual pueden presentar unas gafas de realidad virtual para mostrar un entorno virtual. En unas gafas de realidad virtual se trata de una forma determinada del llamado visualizador montado sobre la cabeza, en el que se trata de un aparato de emisión visual soportado sobre la cabeza. Este presenta imágenes en una pantalla próxima a los ojos, o las proyecta directamente sobre la retina. A este respecto, unas gafas de realidad virtual tiene además adicionalmente sensores para la detección del movimiento de la cabeza. Con ello, la indicación de una gráfica calculada puede adaptarse a los movimientos de un portador de las gafas de realidad virtual. Gracias a la proximidad física, las superficies de imágenes mostradas del visualizador montado sobre la cabeza parecen considerablemente mayores que las pantallas autónomas y, en un caso extremo, cubren incluso todo el campo de visión del usuario. Puesto que los visualizadores correspondientes de las gafas de realidad virtual siguen mediante la postura de la cabeza todos los movimientos de la cabeza del portador, este percibe la sensación de moverse directamente en un paisaje de imágenes generado por un ordenador.
Habitualmente, una persona que se haya puesto unas gafas de realidad virtual puede moverse en un área de detección determinada dentro de la cual es posible una detección fiable de la posición de las gafas de realidad virtual y, por tanto, también de la persona. En consecuencia, los movimientos de la persona pueden transformarse en movimientos virtuales correspondientes dentro de un entorno virtual mostrado mediante las gafas de realidad virtual. A modo de ejemplo, un objeto virtual mostrado dentro del entorno virtual, por ejemplo, un vehículo virtual, puede examinarse de este modo desde diferentes posiciones de observación virtuales.
A este respecto, en el caso de un movimiento correspondiente de la persona que se haya puesto las gafas de realidad virtual, puede suceder que esta se mueva dentro del entorno virtual a través del objeto virtual mostrado. Esto puede producir una sensación desagradable en la persona, ya que se mueve a través de materia sólida simulada, por ejemplo, a través de una puerta de vehículo virtual. Esto va en contra del comportamiento humano aprendido convencionalmente consistente en evitar las colisiones con objetos. Aunque la colisión no se produce realmente, la conciencia percibe que algo no va bien, por lo que, en el mejor de los casos, solo se perturba la inmersión o, en el peor de los casos, se produce en la persona malestar o mareo.
El documento US 2005/024388 A1 muestra un procedimiento para mostrar contenidos virtuales mediante uno o varios visualizadores montados sobre la cabeza. A este respecto, está previsto definir un campo de visión visual que esté definido en forma de pirámide con una superficie base rectangular. El vértice de la pirámide se extiende a este respecto desde una posición de observación virtual del portador del visualizador montado sobre la cabeza, y entonces se va ampliando cada vez más. Los llamados planos de clipado ("superficie de clipado") están definidos dentro del campo de visión, por tanto, de la pirámide. Dentro del propio vértice de la pirámide y de todas las demás áreas situadas fuera de la pirámide no se muestran objetos virtuales. Además, el tronco de la pirámide no rodea la posición de observación virtual ("punto de vista 301"). Por tanto, únicamente se muestra algo dentro del tronco inferior, o bien, posterior, de la pirámide.
Por lo tanto, el objetivo de la presente invención consiste en proporcionar un procedimiento para accionar un sistema de realidad virtual y un sistema de realidad virtual mediante los cuales se puedan evitar colisiones virtuales con objetos virtuales mostrados en un entorno virtual.
Este objetivo se consigue mediante un procedimiento para accionar un sistema de realidad virtual y mediante un sistema de realidad virtual con las características de las reivindicaciones independientes. En las reivindicaciones dependientes se indican realizaciones ventajosas con perfeccionamientos de la invención apropiados y no triviales.
En el procedimiento según la invención para accionar un sistema de realidad virtual, se detecta la posición de unas gafas de realidad virtual mediante un equipo de detección. Además, se predetermina una posición de observación virtual en dependencia de la posición detectada de las gafas de realidad virtual. Asimismo, se predetermina un cuerpo envolvente virtual que rodea al menos parcialmente la posición de observación virtual. Se muestra un objeto virtual, dispuesto en un entorno virtual, desde la posición de observación virtual predeterminada, en donde, mientras una parte del objeto virtual esté sumergida en el cuerpo envolvente virtual, esta parte se muestra de manera al menos parcialmente transparente.
En función de la posición detectada de manera continua de las gafas de realidad virtual, se predetermina por tanto la posición de observación virtual a partir de la cual se muestra el objeto virtual, dispuesto en el entorno virtual, mediante las gafas de realidad virtual. A partir de la posición detectada de las gafas de realidad virtual, se puede deducir la posición correspondiente de una persona que se ha puesto las gafas de realidad virtual. Preferiblemente, por medio de la posición detectada de las gafas de realidad virtual se determina la posición de los ojos del portador de las gafas de realidad virtual. La posición de observación virtual se predetermina de manera correspondiente a la posición de los ojos determinada del portador de las gafas de realidad virtual. Expresado de otro modo, la posición de observación virtual se corresponde por tanto con una posición de los ojos virtual, desde la cual se muestra al portador de las gafas de realidad virtual el entorno virtual junto con el objeto virtual dispuesto en este. A este respecto, el cuerpo envolvente rodea al menos parcialmente la posición de observación virtual, lo cual se puede materializar también, por ejemplo, de tal modo que el cuerpo envolvente virtual rodee al menos parcialmente una cabeza virtual del portador de las gafas de realidad virtual dentro del entorno virtual.
Si el portador de las gafas de realidad virtual se mueve en la realidad, entonces se mueve también automáticamente de manera correspondiente en el entorno virtual mostrado mediante las gafas de realidad virtual. Con el fin de impedir que el portador de las gafas de realidad virtual se choque dentro del entorno virtual mostrado con el objeto virtual mostrado, o que incluso se mueva atravesándolo, de acuerdo con la invención está previsto que se muestre de manera al menos parcialmente transparente la parte del objeto virtual que esté sumergida en el cuerpo envolvente virtual. Gracias a que se muestre de manera al menos parcialmente transparente la parte del objeto virtual que esté sumergida en el cuerpo envolvente virtual, se pone en conocimiento del portador de las gafas de realidad virtual tempranamente que está a punto de colisionar con el objeto virtual dentro del entorno virtual o, incluso, de moverse a través de él. A través de que la parte del objeto virtual que se sumerge en el cuerpo envolvente virtual no se oculte enseguida por completo a este respecto, no se pierde la referencia de esta parte con respecto al objeto virtual entero. De este modo, también la parte del objeto virtual que se sumerge en el cuerpo envolvente se percibe como perteneciente al objeto virtual restante.
Por tanto, mediante el procedimiento según la invención, se puede, por un lado, advertir tempranamente al portador de las gafas de realidad virtual si está a punto de chocar con el objeto virtual mostrado o, incluso, de andar a través de él. Por otro lado, solo se perjudica en muy pequeña medida al portador de las gafas de realidad virtual en su percepción lo más próxima posible a la realidad del entorno virtual y del objeto virtual dispuesto en este.
Una forma de realización ventajosa de la invención prevé que el cuerpo envolvente virtual se predetermine con forma globular, en donde el punto central del cuerpo envolvente se disponga en la posición de observación virtual. No obstante, el cuerpo envolvente virtual también puede presentar, por ejemplo, otra forma esférica. Por lo tanto, el cuerpo envolvente virtual rodea preferiblemente la posición de observación virtual por completo, la cual, tal y como se ha expuesto, constituye una especie de posición de los ojos virtual del portador de las gafas de realidad virtual. Por lo tanto, dentro del entorno virtual mostrado, la cabeza virtual del portador de las gafas de realidad virtual está, por así decirlo, rodeada en forma globular por el cuerpo envolvente virtual. Al girarse las gafas de realidad virtual, también se gira automáticamente la dirección de visión virtual dentro del entorno virtual, de modo que se modifica la perspectiva virtual sobre el objeto virtual mostrado. Ante todo si el cuerpo envolvente virtual se predetermina con forma globular y el punto central del cuerpo envolvente se dispone en la posición de observación virtual, también en el caso de movimientos de giro rápidos de las gafas de realidad virtual en todas las direcciones posibles, se puede poner en conocimiento del portador de las gafas de realidad virtual con tiempo que está a punto de colisionar con el objeto virtual dentro del entorno virtual o de sumergirse a través de él.
Además, de acuerdo con la invención está previsto que la parte entera del objeto se muestre de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente. El portador de las gafas de realidad virtual reconoce así de manera particularmente sencilla cuánto se ha aproximado al objeto virtual dentro del entorno virtual todavía antes de que toque, o bien, choque con el objeto virtual. Puesto que el portador de las gafas de realidad virtual perseguirá que se le muestre el objeto virtual entero de manera no transparente en la medida de lo posible, aquel aumentará automáticamente su distancia virtual con respecto al objeto virtual.
De manera alternativa, la invención prevé que la transparencia de la parte del objeto virtual se muestre en aumento cada vez con mayor intensidad de un área que seccione un límite del cuerpo envolvente a un área que se sumerja a la mayor profundidad del cuerpo envolvente. Expresado de otro modo, el grado de transparencia aumenta por tanto cada vez con mayor intensidad del área que secciona el límite del cuerpo envolvente al área que se sumerge a la mayor profundidad del cuerpo envolvente. La transparencia puede aumentar, por ejemplo, de manera lineal con la profundidad de inmersión en el cuerpo envolvente. De este modo, el portador de las gafas de realidad virtual puede reconocer de manera particularmente sencilla con qué área del objeto virtual chocará antes, de modo que pueda adaptar de manera correspondiente su movimiento real para modificar su distancia virtual con respecto al objeto virtual mostrado de tal modo que no choque con ninguna parte del objeto virtual ni se sumerja a través de este.
De acuerdo con otra forma de realización ventajosa de la invención, está previsto que, tan pronto como la parte del objeto virtual supere una profundidad de inmersión predeterminada en el cuerpo envolvente, se oculte por completo un componente o un grupo constructivo al que pertenezca la parte del objeto virtual. De este modo, se proporciona una función de advertencia particularmente buena para el portador de las gafas de realidad virtual, ya que, ocultándose el componente o el grupo constructivo correspondiente al que pertenezca la parte del objeto virtual en el caso de una aproximación excesiva al objeto virtual, se le advierte de manera inequívoca de que está a punto de chocar con el objeto virtual. Además, siempre y cuando la persona se tenga no obstante que seguir aproximando a la parte del objeto virtual, se evita de esta forma que la persona pueda chocar con esta parte del objeto virtual. Además, ocultándose todo un componente o, en su caso, todo un grupo constructivo, se sigue obteniendo una representación relativamente realista del objeto virtual mostrado.
En otro diseño ventajoso de la invención, está previsto que como el objeto virtual se muestre un vehículo virtual. En este contexto, está previsto que, en el caso de que el vehículo virtual se muestre en una vista interior, el cuerpo envolvente se predetermine con menor tamaño que si el vehículo virtual se muestra en una vista exterior. Puesto que el portador de las gafas de realidad virtual habría de observar, por ejemplo, la cabina virtual del vehículo virtual, entonces ya movimientos relativamente pequeños del portador de las gafas de realidad virtual pueden provocar que se sumerja en componentes virtuales correspondientes de la cabina del vehículo. En el caso de que, por el contrario, se haya de mostrar el vehículo virtual en una vista exterior virtual, entonces el riesgo de que el portador de las gafas de realidad virtual se sumerja virtualmente en componentes del vehículo virtual es considerablemente menor. Mediante la adaptación del tamaño del cuerpo envolvente en función de si el vehículo virtual se muestra desde dentro o desde fuera, se puede asegurar que, por un lado, se advierta al portador de las gafas de realidad virtual con suficiente tiempo de que va a chocar enseguida con el vehículo virtual mostrado, pudiéndose también asegurar por otro lado, no obstante, que la representación realista del vehículo virtual no se restrinja en gran medida por las dimensiones mostrándose de manera parcialmente transparente u ocultándose demasiado pronto partes del vehículo virtual. En el caso de un cuerpo envolvente globular, se puede, por ejemplo, predeterminar el radio del cuerpo envolvente con un menor tamaño en el caso de una vista interior que en el caso de una vista exterior del vehículo virtual. En el caso de otras conformaciones del cuerpo envolvente, este se predetermina análogamente con un menor o mayor tamaño de manera correspondiente.
El sistema de realidad virtual según la invención comprende unas gafas de realidad virtual y un equipo de detección que está configurado para detectar la posición de las gafas de realidad virtual. Asimismo, el sistema de realidad virtual comprende un equipo de control que está configurado para predeterminar una posición de observación virtual en dependencia de la posición detectada de las gafas de realidad virtual. Además, el equipo de control está configurado para predeterminar un cuerpo envolvente virtual que rodea al menos parcialmente la posición de observación virtual. Finalmente, el equipo de control está configurado también para activar las gafas de realidad virtual de tal modo que mediante ellas se muestre un objeto virtual, dispuesto en un entorno virtual, desde la posición de observación virtual y que, mientras una parte del objeto virtual esté sumergida en el cuerpo envolvente virtual, esta parte se muestre de manera al menos parcialmente transparente. Además, el equipo de control está configurado para activar las gafas de realidad virtual de tal modo que, mientras una parte del objeto virtual esté sumergida en el cuerpo envolvente virtual, esta parte se muestre de manera al menos parcialmente transparente. Además, el equipo de control está configurado para activar las gafas de realidad virtual de tal modo que la parte entera del objeto virtual se muestre de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente, o que la transparencia de la parte del objeto virtual se muestre en aumento cada vez con mayor intensidad de un área que seccione un límite del cuerpo envolvente a un área que se sumerja a la mayor profundidad del cuerpo envolvente. Los diseños ventajosos del procedimiento de acuerdo con la invención han de considerarse a este respecto diseños ventajosos del sistema de realidad virtual de acuerdo con la invención, en donde el sistema de realidad virtual presenta en particular medios para la ejecución de las etapas del procedimiento.
Otras ventajas, características y particularidades de la invención se extraen de la siguiente descripción de un ejemplo de realización preferido y por medio del dibujo. Las características y combinaciones de características mencionadas anteriormente en la descripción, así como las características y combinaciones de características mencionadas a continuación en la descripción de las figuras y/o mostradas solas en las figuras, son utilizables no solo en la combinación indicada en cada caso, sino también en otras combinaciones o por separado, sin abandonar el marco de la invención.
El dibujo muestra en:
Fig. 1 una representación esquemática de un sistema de realidad virtual que presenta unas gafas de realidad virtual, un equipo de detección para la detección de la posición de las gafas de realidad virtual, y un equipo de control para la activación de las gafas de realidad virtual;
Fig. 2 una vista esquemática en perspectiva de un área de detección en la que aparece representada una persona con las gafas de realidad virtual puestas; y en
Fig. 3 una vista esquemática en perspectiva de un entorno virtual, mostrado mediante las gafas de realidad virtual, dentro del cual está dispuesto un vehículo virtual, en donde está indicada una posición de observación virtual de la persona que lleva puestas las gafas de realidad virtual.
En las figuras, los elementos iguales o de igual función van acompañados de los mismos símbolos de referencia.
Un sistema de realidad virtual 10 se muestra en la figura 1 en una representación esquemática. El sistema de realidad virtual 10 comprende unas gafas de realidad virtual 12, un equipo de control 14 para activar las gafas de realidad virtual 12, y un equipo de detección 16 para la detección de la posición de las gafas de realidad virtual 12.
En la figura 2, se muestra un área de detección 18 en una vista esquemática en perspectiva, en donde una persona 20 permanece en el área de detección 18 con las gafas de realidad virtual 12 puestas. Mientras que la persona 20 permanezca en el área de detección 18, es posible detectar la posición y la orientación de las gafas de realidad virtual 12 de manera segura mediante el equipo de detección 16. Basándose en la detección de la posición y la orientación de las gafas de realidad virtual 12, también es posible deducir la posición y la orientación de la persona 20. En particular teniéndose en cuenta la posición y la orientación conocidas de las gafas de realidad virtual 12, es posible determinar la posición y la orientación de los ojos de la persona 20.
En la figura 3, se muestra en una vista esquemática en perspectiva un entorno virtual 22 dentro del cual está dispuesto un vehículo virtual 24. El entorno virtual 22 se muestra junto con el vehículo virtual 24 mediante las gafas de realidad virtual 12. La persona 20 que lleva puestas las gafas de realidad virtual 12 se representa en la figura 3 solo para indicar una posición de observación virtual 26 de la persona 20 desde la cual esta mira hacia el entorno virtual 22 y el vehículo virtual 24 mediante las gafas de realidad virtual 12. Por tanto, de acuerdo con la presente representación, la persona 20 obtiene una representación desde delante a la izquierda oblicuamente del vehículo virtual 24 precisamente mediante las gafas de realidad virtual 12.
Mediante el equipo de detección 16, la posición y la orientación de las gafas de realidad virtual 12 se determinan de manera continua. En función de la posición recién detectada de las gafas de realidad virtual 12, el equipo de control 14 predetermina la posición de observación virtual 26 a partir de la cual las gafas de realidad virtual 12 muestran el entorno virtual 22. Además, mediante el equipo de detección 16 también se detecta de manera continua la orientación de las gafas de realidad virtual 12. En función de la orientación detectada de las gafas de realidad virtual 12, el equipo de control 14 fija de manera continua una orientación virtual de la cabeza y, de este modo, también una especie de dirección de visión virtual hacia el vehículo virtual 24 de manera correspondiente a la cual las gafas de realidad virtual 12 muestran el entorno virtual 22 y el vehículo virtual 24 dispuesto en él.
Si, por tanto, la persona 20 pasea dentro del área de detección 18, entonces también pasea virtualmente dentro del entorno virtual 22, de tal modo que puede, por ejemplo, darle la vuelta al vehículo virtual 24 mostrado. Si la persona 20 gira su cabeza, entonces la persona 20 también gira su cabeza dentro del entorno virtual 22, por lo que también puede pasear su mirada virtualmente a lo largo del vehículo virtual 24.
El equipo de control 14 predetermina además un cuerpo envolvente virtual 28 que rodea la posición de observación virtual 26. En el ejemplo de realización mostrado aquí, el cuerpo envolvente virtual 28 está realizado como esfera, la cual envuelve una cabeza virtual 30 de la persona 20 y, por tanto, también la posición de observación virtual 26 que, por así decirlo, se corresponde con la posición virtual de los ojos de la persona 20 dentro del entorno virtual 22. A este respecto, el cuerpo envolvente 28 globular puede estar dispuesto, por ejemplo, concéntricamente alrededor de la posición de observación virtual 26, o también concéntricamente alrededor de la cabeza virtual 30 de la persona 20.
En contraposición a la presente representación, podría ser, por ejemplo, que una puerta 32 del vehículo virtual 24 esté abierta. Si ahora la persona 20 se mueve dentro del entorno virtual 22 aproximándose demasiado a la puerta 32 abierta, podría suceder que la persona 20 choque dentro del entorno virtual 22 con la puerta 32 o que la atraviese.
Con el fin de advertir a tiempo a la persona 20 de que está a punto de chocar con la puerta 32, está previsto que, mientras una parte del vehículo virtual 24 esté sumergida en el cuerpo envolvente virtual 28, esta parte se muestre de manera al menos parcialmente transparente. En el caso de la puerta 32, esto significaría que se mostrase de manera al menos parcialmente transparente la parte de la puerta 32 que se sumerja en el cuerpo envolvente 28. A este respecto, puede estar previsto, por ejemplo, que la parte de la puerta 32 muestre de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente 28. No obstante, de manera alternativa también puede estar previsto que la transparencia de la parte de la puerta 32 se muestre en aumento cada vez con mayor intensidad de un área que seccione un límite del cuerpo envolvente 28 a un área que se sumerja a la mayor profundidad del cuerpo envolvente 28. Por tanto, expresado de otro, también es posible que, en el ejemplo de la puerta 32, la parte de la puerta 32 se muestre cada vez de manera más transparente en cuanta mayor medida penetre en el cuerpo envolvente 28.
Asimismo, puede estar previsto que, tan pronto como la parte de la puerta 32 supere una profundidad de inmersión predeterminada en el cuerpo envolvente 28, se oculte por completo toda la puerta 32. Mostrándose de manera parcialmente transparente la parte de la puerta 32 que se sumerge en el cuerpo envolvente 28, se comunica a su debido tiempo a la persona 20 que está a punto de chocar con la puerta 32 del vehículo virtual 24. A más tardar cuando se oculte toda la puerta 32 debido a una inmersión demasiado profunda de la puerta 32 en el cuerpo envolvente 28, la persona 20 recibe una advertencia visual muy clara acerca de que va a chocar con la puerta 32.
El modus operandi explicado por medio del ejemplo de la puerta 32 del vehículo virtual 24 puede trasladarse análogamente a todas las demás partes del vehículo virtual 24.
A este respecto, el tamaño, por tanto, las dimensiones del cuerpo envolvente 28, se predetermina de manera distinta en función de si la persona 20 se sienta dentro del vehículo virtual 24 o si, tal y como se indica en la figura 3, mira hacia el vehículo virtual 24 en una vista exterior. Si el vehículo virtual 24 se muestra en una vista interior mediante las gafas de realidad virtual 12, el cuerpo envolvente 28 se predetermina con un menor tamaño que si el vehículo virtual 24 se mostrase en una vista exterior. Puesto que la persona 20 se sienta virtualmente en el vehículo virtual 24, entonces también pequeños movimientos reales de la persona 20 pueden bastar ya para chocar con componentes del vehículo virtual 24, como, por ejemplo, un volante, un salpicadero, o similares.
Si, por el contrario, la persona 20 se encuentra fuera del vehículo virtual 24, entonces tiene habitualmente un mayor margen de maniobra antes de chocar con componentes del vehículo virtual 24, en comparación con una vista interior virtual. Mediante la adaptación correspondiente del tamaño del cuerpo envolvente virtual 28, se tiene en consideración esta circunstancia, de modo que, por un lado, todavía se ponga en conocimiento de la persona 20 a su debido tiempo que está a punto de chocar con una parte del vehículo virtual 24, en donde se impida a la vez que se merme la representación y la percepción realistas del vehículo virtual 24 por mostrarse transparentes componentes del vehículo virtual 24 de manera demasiado anticipada.

Claims (5)

REIVINDICACIONES
1. Procedimiento para accionar un sistema de realidad virtual (10), con las etapas:
- detectar la posición de unas gafas de realidad virtual (12) mediante un equipo de detección (16);
- predeterminar una posición de observación virtual (26) en dependencia de la posición detectada de las gafas de realidad virtual (12);
- mostrar un objeto virtual (24), dispuesto en un entorno virtual (22), desde la posición de observación virtual (26) mediante las gafas de realidad virtual (12);
caracterizado por que
se predetermina un cuerpo envolvente virtual (28) que rodea al menos parcialmente la posición de observación virtual (26), en donde, mientras una parte del objeto virtual (24) esté sumergida en el cuerpo envolvente virtual (28), esta parte se muestra de manera al menos parcialmente transparente, en donde la parte entera del objeto virtual (24) se muestra de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente (28), o la transparencia de la parte del objeto virtual (24) se muestra en aumento cada vez con mayor intensidad de un área que secciona un límite del cuerpo envolvente (28) a un área que se sumerge a la mayor profundidad del cuerpo envolvente (28).
2. El procedimiento según la reivindicación 1,
caracterizado por que
el cuerpo envolvente virtual (28) se predetermina con forma globular, en donde el punto central del cuerpo envolvente (28) se dispone en la posición de observación virtual (26).
3. El procedimiento según una de las reivindicaciones anteriores,
caracterizado por que
tan pronto como la parte del objeto virtual (24) supera una profundidad de inmersión predeterminada en el cuerpo envolvente (28), se oculta por completo un componente o un grupo constructivo al que pertenece la parte del objeto virtual (24).
4. El procedimiento según una de las reivindicaciones anteriores,
caracterizado por que
como el objeto virtual (24) se muestra un vehículo virtual.
5. Sistema de realidad virtual (10), con
- unas gafas de realidad virtual (12);
- un equipo de detección (16) que está configurado para detectar la posición de las gafas de realidad virtual (12); - un equipo de control (14) que está configurado para
predeterminar una posición de observación virtual (26) en dependencia de la posición detectada de las gafas de realidad virtual (12);
activar las gafas de realidad virtual (12) de tal modo que mediante ellas se muestra un objeto virtual (24), dispuesto en un entorno virtual (22), desde la posición de observación virtual (26);
caracterizado por que
el equipo de control (14) está configurado para
- predeterminar un cuerpo envolvente (28) que rodea al menos parcialmente la posición de observación virtual (26); - activar las gafas de realidad virtual (12) de tal modo que, mientras una parte del objeto virtual (24) esté sumergida en el cuerpo envolvente virtual (28), esta parte se muestra de manera al menos parcialmente transparente, - activar las gafas de realidad virtual (12) de tal modo que la parte entera del objeto virtual (24) se muestra de manera más transparente en cuanta mayor medida esta se sumerja en el cuerpo envolvente (28), o la transparencia de la parte del objeto virtual (24) se muestra en aumento cada vez con mayor intensidad de un área que secciona un límite del cuerpo envolvente (28) a un área que se sumerge a la mayor profundidad del cuerpo envolvente (28).
ES16797566T 2015-12-22 2016-11-17 Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual Active ES2770306T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015226585.4A DE102015226585A1 (de) 2015-12-22 2015-12-22 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
PCT/EP2016/077971 WO2017108287A1 (de) 2015-12-22 2016-11-17 Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system

Publications (1)

Publication Number Publication Date
ES2770306T3 true ES2770306T3 (es) 2020-07-01

Family

ID=57326418

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16797566T Active ES2770306T3 (es) 2015-12-22 2016-11-17 Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual

Country Status (6)

Country Link
US (1) US10304245B2 (es)
EP (1) EP3394707B1 (es)
CN (1) CN108475105B (es)
DE (1) DE102015226585A1 (es)
ES (1) ES2770306T3 (es)
WO (1) WO2017108287A1 (es)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226585A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
US11107281B2 (en) 2018-05-18 2021-08-31 Valeo Comfort And Driving Assistance Shared environment for vehicle occupant and remote user
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
CN112099638B (zh) * 2020-10-19 2024-02-06 瑞立视多媒体科技(北京)有限公司 虚拟现实场景中的信息处理方法、装置和计算机设备
CN112269472A (zh) * 2020-11-27 2021-01-26 上海影创信息科技有限公司 构建虚拟边界对象的方法和系统及其vr眼镜
US11924393B2 (en) 2021-01-22 2024-03-05 Valeo Comfort And Driving Assistance Shared viewing of video among multiple users
US11983822B2 (en) 2022-09-02 2024-05-14 Valeo Comfort And Driving Assistance Shared viewing of video with prevention of cyclical following among users

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714213B1 (en) * 1999-10-08 2004-03-30 General Electric Company System and method for providing interactive haptic collision detection
JP3764070B2 (ja) * 2001-06-07 2006-04-05 富士通株式会社 オブジェクト表示プログラムおよびオブジェクト表示装置
JP4262011B2 (ja) * 2003-07-30 2009-05-13 キヤノン株式会社 画像提示方法及び装置
JP5154775B2 (ja) * 2006-08-18 2013-02-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
US20130137076A1 (en) * 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US9619911B2 (en) * 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
DE102014009701B4 (de) * 2014-06-26 2024-05-29 Audi Ag Verfahren zum Betreiben einer Virtual-Reality-Brille und System mit einer Virtual-Reality-Brille
US10451875B2 (en) * 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
GB2532954A (en) * 2014-12-02 2016-06-08 Ibm Display control system for an augmented reality display system
DE102015226585A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Also Published As

Publication number Publication date
CN108475105B (zh) 2019-08-16
US20180350143A1 (en) 2018-12-06
EP3394707A1 (de) 2018-10-31
EP3394707B1 (de) 2020-01-08
CN108475105A (zh) 2018-08-31
US10304245B2 (en) 2019-05-28
WO2017108287A1 (de) 2017-06-29
DE102015226585A1 (de) 2017-06-22

Similar Documents

Publication Publication Date Title
ES2770306T3 (es) Procedimiento para accionar un sistema de realidad virtual y sistema de realidad virtual
ES2779600T3 (es) Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual
US10710608B2 (en) Provide specific warnings to vehicle occupants before intense movements
JP6454368B2 (ja) 車両の表示システム及び車両の表示システムの制御方法
ES2900627T3 (es) Procedimiento para hacer funcionar un dispositivo electrónico de visualización que puede llevarse en la cabeza y sistema de visualización para visualizar un contenido virtual
EP2131153B1 (en) Methods and apparatus to assist pilots under conditions in which spatial disorientation may be present
ES2360471T3 (es) Sistema y método para la identificación de maniobras para un vehículo en situaciones de conflicto.
JP2016153899A5 (ja) ディスプレイ
ES2926035T3 (es) Aplicación de seguimiento ocular en realidad virtual y realidad aumentada
CN109305105A (zh) 一种a柱盲区监测装置、车辆及方法
US20190227312A1 (en) Systems and Methods for Collision Avoidance in Virtual Environments
WO2014004715A1 (en) Enhanced peripheral vision eyewear and methods using the same
JP5937142B2 (ja) 車両用の凝視時間インジケータ
CN110692033B (zh) 用于运行虚拟现实系统的方法和虚拟现实系统
ES2704373B2 (es) Método y sistema para mostrar información de realidad virtual en un vehículo
ES2704327B2 (es) Método y sistema para mostrar información de realidad virtual en un vehículo
ES2797684T3 (es) Procedimiento de funcionamiento de un sistema de realidad virtual y sistema de realidad virtual
ES2784441T3 (es) Procedimiento para hacer funcionar un sistema de realidad virtual y sistema de realidad virtual
US20150378155A1 (en) Method for operating virtual reality glasses and system with virtual reality glasses
RU2734063C1 (ru) Устройство для визуального наблюдения для пилота летательного аппарата
EP1654978B1 (en) Method for dealing with singularities in gravity referenced endoscopic imaging
JP2022122936A (ja) 情報表示システム
JP6972789B2 (ja) ヘッドアップディスプレイ装置
CN113573764A (zh) 视觉舒缓装置
CN112041903A (zh) 用于影响用于监控注意力的系统的方法