ES2779600T3 - Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual - Google Patents

Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual Download PDF

Info

Publication number
ES2779600T3
ES2779600T3 ES16801732T ES16801732T ES2779600T3 ES 2779600 T3 ES2779600 T3 ES 2779600T3 ES 16801732 T ES16801732 T ES 16801732T ES 16801732 T ES16801732 T ES 16801732T ES 2779600 T3 ES2779600 T3 ES 2779600T3
Authority
ES
Spain
Prior art keywords
virtual
person
head
virtual reality
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16801732T
Other languages
English (en)
Inventor
Marcus Kühne
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Original Assignee
Audi AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG filed Critical Audi AG
Application granted granted Critical
Publication of ES2779600T3 publication Critical patent/ES2779600T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Procedimiento para operar un sistema de realidad virtual (10), con los pasos siguientes: - capturar una posición y una orientación de la cabeza de una persona (20), la cual se ha colocado unas gafas de realidad virtual (12), y se encuentra en una zona de captación (18), mediante un dispositivo de detección (16); - mostrar un objeto virtual (24), situado en un entorno virtual (22), mediante las gafas de realidad virtual (12), desde una perspectiva virtual, la cual se especifica de acuerdo con la posición capturada y con la orientación de la cabeza; - determinar, sobre la base de la posición registrada, si la persona (20) se ha situado por debajo de una distancia predeterminada hasta un límite de la zona de captación (18); - mientras que se determine que la persona (20) se ha colocado por debajo de la distancia especificada: visualizar un efecto (26, 28), característico de que se ha colocado por debajo de la distancia especificada, por medio de las gafas de realidad virtual (12), estando predeterminado el tipo de representación del efecto (26, 28 ) en dependencia de la orientación determinada de la cabeza; caracterizado por que - se determina, según la orientación captada de la cabeza, si la cabeza de la persona (20) está orientada frontalmente o hacia atrás respecto al límite de la zona de captación (18), al situarse por debajo de la distancia especificada; - en el caso de una alineación frontal de la cabeza hacia el límite, y utilizando las gafas de realidad virtual (12), solamente se muestra como efecto un límite virtual (28) dispuesto en el entorno virtual (22), delante de la persona (20); - en el caso de una orientación trasera de la cabeza respecto al límite, se muestra como efecto, mediante las gafas de realidad virtual (12), una cuadrícula (26) correspondiente a la zona de captación (18) en el entorno virtual (22), y/o se oculta, y/o se oscurece, al menos parcialmente, el objeto virtual (24), y/o se oculta, y/o se oscurece, al menos parcialmente, el entorno virtual (22);

Description

DESCRIPCIÓN
Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual
La invención se refiere a un método para operar un sistema de realidad virtual, y a un sistema de realidad virtual.
Mediante un sistema de realidad virtual se puede representar una realidad virtual, definiéndose por realidad virtual la representación y percepción simultánea de la realidad en sus propiedades físicas, en un entorno virtual interactivo, generado en tiempo real mediante computadora.
Los sistemas de realidad virtual pueden presentar unas gafas de realidad virtual para mostrar un entorno virtual. En las gafas de realidad virtual, se trata de una forma determinada de los denominados Head-Mounted-Displays, que es un dispositivo de salida visual montado sobre la cabeza. El mismo presenta imágenes en una pantalla cercana al ojo, o bien las proyecta directamente sobre la retina. Unas gafas de realidad virtual tienen además sensores para detectar el movimiento de la cabeza. Con ello puede adaptarse la visualización de un gráfico calculado a los movimientos de un portador de las gafas de realidad virtual. A través de la proximidad al cuerpo, las áreas de imagen mostradas por las pantallas montadas en la cabeza parecen considerablemente más grandes que las pantallas independientes y, en casos extremos, cubren incluso todo el campo de visión del usuario. Dado que las respectivas pantallas de gafas de realidad virtual siguen todos los movimientos de la cabeza de un portador a través de la postura de la cabeza, el mismo tiene la sensación de moverse directamente en una imagen de un paisaje, generada por un ordenador.
Los sistemas de realidad virtual de ese tipo pueden presentar un dispositivo de detección mediante el cual se puede detectar una posición de unas gafas de realidad virtual y/o de una persona, dispuestas en un área de detección, que se haya colocado las gafas de realidad virtual. Dependiendo de la posición detectada de las gafas de realidad virtual, y/o de la persona, los contenidos mostrados mediante las gafas de realidad virtual pueden ajustarse de tal manera que la persona que se ha colocado las gafas de realidad virtual puede moverse, dentro de un entorno virtual mostrado, en relación con un objeto virtual. Debido a las limitaciones técnicas y/o de costes, puede darse el caso de que la zona de cobertura dentro de la cual puede ser detectada de forma fiable una posición de las gafas de realidad virtual y/o de la persona, pueda ser relativamente pequeña en comparación con el tamaño del entorno virtual mostrado. Especialmente caso un caso de ese tipo, puede surgir el problema de que un portador de las gafas de realidad virtual se salga del área de detección, dentro de la cual sólo es posible una detección fiable de la posición de las gafas de realidad virtual y/o de la persona que porta las gafas de realidad virtual. Como resultado de lo mismo, ya no es posible garantizar que los cambios reales de la posición de la persona también se traduzcan en los correspondientes ajustes virtuales de posición, al mostrarse el entorno virtual.
El tema de la conferencia „The magic barrier tape: a novel metaphor for infinite navigation in virtual worlds with a restricted work space", de Cirio, G. et al. (2009, Do I 10.1145/1643928.1643965) describe el uso de una metáfora de interacción en forma de al menos una cinta virtual de restricción para una navegación de un usuario en una escena virtual potencialmente infinita, en caso de un espacio real limitado de movimiento. Además, la cinta virtual de restricción, al menos una, debe informar a un usuario de un límite de su área de trabajo, y representar ese límite. En el límite, el usuario puede seguir sumergiéndose aún más en la escena virtual, "alejando" la cinta virtual de restricción. El movimiento del usuario se controla mediante un mecanismo de control híbrido: dentro del área de trabajo posibilita un control de posición del caminar real, mientras que un control de velocidad permite un movimiento fuera del límite, por medio del "alejamiento" de la cinta virtual de restricción.
El documento EP 1538512 A2 muestra un procedimiento para operar con gafas de realidad aumentada. Dependiendo de la dirección real de visión de un usuario de las gafas de realidad aumentada, se determina una dirección virtual de visión para un entorno virtual. En ello, el portador se mueve en un área de detección en el que se puede detectar la dirección real de visión del portador. En cuanto el portador se acerca a un límite del área de detección, se emite un tono de advertencia.
El tema de la conferencia "SpaceWalk: Movement and Interaction in Virtual Space with Commodity Hardware" de Greuter, S. et al. (2014, DOI 10.1145/2677758.2677781) permite a un usuario que porta unas gafas de realidad virtual moverse en un entorno real, como por ejemplo una sala de estar, si su extensión física es distinta de aquella de un mundo virtual. Si un usuario se mueve dentro de una zona de detección, se puede detectar una posición de partes individuales del cuerpo del usuario mediante un dispositivo sensor. A fin de advertir al usuario de una salida del área de detección, se emiten las señales ópticas correspondientes en una pantalla de las gafas de realidad virtual, cuando el usuario alcanza una zona límite de la zona de detección.
El objeto de la presente invención es poner a disposición una solución mediante la cual un portador de unas gafas de realidad virtual puede ser advertido de forma fiable, en cuanto esté a punto de salir de un área de detección de un dispositivo de detección, el cual sirve para la detección de la posición del portador y/o de las gafas de realidad virtual.
Este objetivo se alcanza a través de un procedimiento para operar un sistema de realidad virtual, así como a través de un sistema de realidad virtual con las características de las reivindicaciones independientes. En las reivindicaciones dependientes se especifican configuraciones ventajosas de la invención, con perfeccionamientos adicionales, adecuados y no triviales, de la invención.
En el procedimiento, según la invención, para operar un sistema de realidad virtual, se detecta continuamente, por medio de un dispositivo de detección, una posición y la orientación de la cabeza de una persona, la cual se ha colocado unas gafas de realidad virtual, y se encuentra en un área de detección del dispositivo de registro. De acuerdo con la posición captada y con la orientación de la cabeza, se muestra un objeto virtual mediante las gafas de realidad virtual, colocado en un entorno virtual, y desde una perspectiva virtual. Además, y según la posición registrada continuamente, se determina si la persona se ha situado por debajo de una distancia predeterminada respecto a un límite de la zona de cobertura. Mientras que se determine que la persona se ha situado por debajo de la distancia prefijada, se muestra, por medio de las gafas de realidad virtual, un efecto que caracterice la caída por debajo de la distancia especificada, fijándose previamente la forma de representación del efecto en función de la determinación de la orientación de la cabeza de la persona.
En ello, la invención se basa en el conocimiento de que, en aplicaciones de realidad virtual en las que un usuario puede moverse libremente hacia un objeto reproducido en el entorno virtual, por ejemplo hacia un vehículo virtual, puede suceder una y otra vez que el usuario se salga de la zona de detección, siendo posible solamente dentro de la misma una grabación fiable de la posición de la persona mediante el dispositivo de detección correspondiente. Además, la invención se basa en la comprensión de que existe absolutamente una diferencia si la persona, por ejemplo, se mueve hacia atrás fuera del área de detección, o hacia adelante fuera del área de detección, ya que la perspectiva sobre el entorno virtual mostrado se ajusta generalmente también en dependencia de la orientación de la cabeza.
Por lo tanto, mediante el método según la invención, es posible por tanto, en primer lugar, señalar de manera fiable a la persona que se ha colocado las gafas de realidad virtual, cuando la misma está a punto de salir de la zona de detección del dispositivo de detección. Por otro lado, a través de la representación del efecto, dependiente de la orientación de la cabeza, mediante la cual se muestra a la persona que está por debajo de la distancia especificada respecto al límite correspondiente de la zona de detección, puede identificarse de manera particularmente fiable que la persona está a punto de salir del área de detección del dispositivo de captación. A través de la forma de mostrar el efecto, dependiente de la orientación de la cabeza, puede minimizarse también especialmente bien el efecto perturbador en la percepción del entorno virtual mostrado, sin reducir demasiado el carácter indicativo del efecto mostrado. Si, por ejemplo, la persona que se coloca las gafas de realidad virtual, se mueve hacia atrás en dirección a un límite de la zona de detección, también se mueve hacia atrás alejándose del objeto virtual mostrado. Por lo general, la persona tendrá en ello su mirada orientada hacia el objeto virtual mostrado, y, como consecuencia de ello, otra manera de mostrar el efecto es más útil para la advertencia a la persona, que si la persona está avanzando hacia el límite correspondiente de la zona de captación, y no ha dirigido tampoco en ello su mirada al objeto virtual mostrado.
Además está previsto, según la invención, que se determine, según la orientación capturada de la cabeza, si la cabeza de la persona está alineada frontalmente o por la parte trasera con el límite de la zona de detección, cuando está por debajo de la distancia prefijada. A través de la distinción entre la orientación frontal y trasera de la cabeza de la persona, la inserción del efecto característico se puede seleccionar con especial precisión, de modo que por un lado la persona pueda ser advertida de forma fiable de que está a punto de salir del área de detección, y por otro lado la persona también puede ser molestada lo menos posible en la percepción del entorno virtual a través de la inserción del efecto, adaptado a la orientación de la cabeza.
Una forma de ejecución ventajosa de la invención prevé que está predeterminado para la persona un campo de visión binocular, y se parte de una alineación frontal si el límite de la zona de detección está en el campo visual binocular, y de lo contrario se parte de una orientación trasera. Como campo de visión binocular ha de entenderse, en la fijación de un objeto, el espacio que al mismo tiempo sigue siendo aún delimitable con una postura en reposo de la cabeza, y sin movimientos oculares. A título de ejemplo, el campo de visión binocular, es decir, el espacio delimitable con ambos ojos al mismo tiempo, puede estar preestablecido, en dirección horizontal, en aproximadamente 220°. Esto se corresponde con un valor medio normal para un ser humano. Dado que la persona se ha colocado las gafas de realidad virtual, no puede ver verdaderamente su entorno real, y con ello tampoco el límite de la zona de captación. No obstante, el campo de visión binocular predeterminado se asigna a las gafas de realidad virtual, de modo que, por ejemplo, según la orientación captada de las gafas de realidad virtual, se puede deducir por un lado la orientación de la cabeza, y por otro lado si al quitarse las gafas de realidad virtual el límite respectivo de la zona de captación estaría o no dentro del campo de visión binocular. A través de ello puede determinarse, de una manera especialmente simple y fiable, si la cabeza de la persona está orientada frontalmente o hacia atrás respecto al límite de la zona de detección, cuando está por debajo de la distancia prefijada.
Además está previsto, según la invención, que en una alineación frontal de la cabeza respecto al límite, por medio de las gafas de realidad virtual, sólo se muestra como el efecto un límite virtual colocado en el entorno virtual frente a la persona. A título de ejemplo, puede mostrarse una suerte de bloqueo virtual, o una barrera virtual, que en el entorno virtual está fuertemente limitada en su extensión. A través de ello se limita especialmente poco la percepción casi realista del entorno virtual y del objeto virtual que se muestra en él, advirtiéndose no obstante a la persona, de forma fiable, que la misma está a punto de abandonar la zona de detección del dispositivo de captación.
Además está previsto, según la invención, que en caso de una orientación trasera de la cabeza hacia el límite, mediante las gafas de realidad virtual, se muestra, como el efecto en el entorno virtual, una cuadrícula correspondiente al área de detección. Así, por ejemplo, si la persona se mueve en realidad para atrás, hacia un límite del rango de cobertura, y ha orientado en ello la cabeza justo hacia adelante, no sería capaz de ver en absoluto el área situada detrás de ella en el entorno virtual. Debido a que en ese caso, y también de forma más general en el caso de una orientación trasera de la cabeza hacia el límite, se muestra una cuadrícula correspondiente al área de detección como un efecto en el entorno virtual, a la persona se le muestra no obstante, de forma fiable, que la misma está a punto de abandonar la zona de detección del dispositivo de captación.
Alternativamente, o bien adicionalmente, la invención establece que, en una orientación trasera de la cabeza hacia el límite, y mediante las gafas de realidad virtual, el objeto virtual está al menos parcialmente oculto y/u oscurecido. Esto es por que si la cabeza está alineada hacia atrás hacia el límite, la persona habrá dirigido normalmente su mirada hacia el objeto virtual mostrado. En un caso así, a través de ocultar y/u oscurecer, al menos parcialmente, el objeto virtual, se informa a la persona, de una manera sencilla y fiable, de que la misma está a punto de abandonar el área de detección del dispositivo de detección.
Alternativamente, o bien adicionalmente, la invención establece que, en una orientación trasera de la cabeza hacia el límite, el entorno virtual está al menos parcialmente oculto y / u oscurecido. También en esta forma de proceder, se informa a la persona, de una manera sencilla y fiable, de que la misma está a punto de abandonar el área de detección del dispositivo de detección.
Según otra forma ventajosa de ejecución de la invención, está previsto que la perspectiva virtual desde la que se muestra el objeto virtual situado en el entorno virtual, esté preestablecida de tal forma que se corresponda con una dirección virtual de visión de la orientación captada de la cabeza, y con una posición de observación virtual de la posición captada de la persona.
A título de ejemplo, para la captación de la orientación de la cabeza, y para la captación del posicionamiento de las gafas de realidad virtual, se pueden registrar continuamente, mediante el dispositivo de detección, la orientación y el posicionamiento de las gafas de realidad virtual. Por lo tanto, un cambio real de posición de la persona se convierte preferentemente, uno a uno, en un cambio de posición correspondiente dentro del entorno virtual mostrado. Del mismo modo, un cambio real en la orientación de la cabeza se convierte en un cambio correspondiente en la dirección virtual de visión del objeto virtual mostrado. Por lo tanto, la persona puede moverse virtualmente, de forma especialmente natural, dentro del entorno virtual mostrado, y examinar el objeto virtual mostrado desde las más diferentes direcciones virtuales de visualización y posiciones virtuales de observación, y también es avisado además, de forma fiable, en cuanto esté en peligro de salir de la zona de detección del dispositivo de detección. Por lo tanto, incluso cuando el área de cobertura es relativamente pequeña en comparación con el tamaño del entorno virtual mostrado, la persona no corre el riesgo de salirse de la zona de detección, ya que esto se indica a tiempo a través de la visualización del efecto, dependiente de la orientación de la cabeza.
El sistema de realidad virtual, según la invención, comprende unas gafas de realidad virtual y un dispositivo de captación, el cual está diseñado para captar una posición y una orientación de la cabeza de una persona, la cual se ha colocado las gafas de realidad virtual, y se encuentra en una zona de detección. Además, el sistema de realidad virtual incluye un dispositivo de control, el cual está diseñado para controlar las gafas de realidad virtual para mostrar un objeto virtual, dispuesto en un entorno virtual, desde una perspectiva virtual, la cual está preestablecida de acuerdo con la posición y la orientación de la cabeza captadas. Además, el dispositivo de control está diseñado para determinar, sobre la base de la posición registrada, si la persona se ha situado por debajo de una distancia predeterminada hasta un límite de la zona de cobertura. Además, el dispositivo de control está diseñado para controlar las gafas de realidad virtual, a fin de mostrar un efecto característico que indica que la persona se ha situado por debajo de la distancia predeterminada, siempre y cuando se determine que la persona se ha situado por debajo de la distancia predeterminada, especificándose el tipo de visualización del efecto en dependencia de la orientación de la cabeza. El dispositivo de control está diseñado además para determinar, según la orientación captada de la cabeza, si la cabeza de la persona está orientada frontalmente o hacia atrás respecto al límite de la zona de detección, cuando la persona se sitúa por debajo de la distancia especificada; para mostrar como el efecto, en el caso de una alineación frontal de la cabeza hacia el límite, y utilizando exclusivamente gafas de realidad virtual, un límite virtual dispuesto en el entorno virtual de la persona; para mostrar como el efecto, en el caso de una orientación trasera de la cabeza respecto al límite, mediante las gafas de realidad virtual, una rejilla correspondiente a la zona de detección en el entorno virtual, y/o ocultar, y/u oscurecer el objeto virtual, al menos parcialmente, y/u ocultar, y/u oscurecer el entorno virtual, al menos parcialmente. Las configuraciones ventajosas del procedimiento, según la invención, deben considerarse como configuraciones ventajosas del sistema de realidad virtual según la invención, presentando especialmente el sistema de realidad virtual medios para la realización de los pasos del proceso.
Otras ventajas, características y detalles de la invención se desprenden de la siguiente descripción de un ejemplo preferido de ejecución, así como según el dibujo. Las características, y la combinación de características citadas a continuación en la descripción de las figuras, y/o las características y la combinación de características mostradas solamente en las figuras, son utilizables no sólo en la combinación proporcionada respectivamente, sino también en otras combinaciones o individualmente, sin abandonar el marco de la invención.
El dibujo muestra en:
Fig.1 una representación esquemática de un sistema de realidad virtual, que presenta unas gafas de realidad virtual, un dispositivo de control para el control de las gafas de realidad virtual, así como un dispositivo de captación para la grabación de las posiciones, y para la grabación de la orientación de las gafas de realidad virtual;
Fig. 2 una vista en perspectiva de una zona de detección, representada esquemáticamente, del dispositivo de detección, en la que se está situada una persona, la cual se ha colocado las gafas de realidad virtual;
Fig. 3 una vista esquemática en perspectiva de un entorno virtual, que se muestra a través de las gafas de realidad virtual, dentro del cual se muestra un vehículo virtual;
Fig. 4 otra vista en perspectiva del entorno virtual representado esquemáticamente, mostrándose mediante las gafas de realidad virtual una cuadrícula que caracteriza la zona de detección del dispositivo de detección, dentro del entorno virtual, y en la
Fig. 5 otra vista en perspectiva del entorno representado esquemáticamente, mostrándose un límite virtual mediante las gafas de realidad virtual.
En las figuras, los elementos idénticos o funcionalmente idénticos están dotados con los mismos signos de referencia.
Un sistema de realidad virtual, denominado en su totalidad como 10, se muestra en una representación esquemática en la figura 1. El sistema de realidad virtual 10 comprende unas gafas de realidad virtual 12, un dispositivo de control 14 para el control de las gafas de realidad virtual 12, así como un dispositivo de detección 16, que está diseñado para capturar la posición y la orientación de las gafas de realidad virtual 12.
En la figura 2 se muestra una zona de detección 18 del dispositivo de detección 16, en una vista de esquemática en perspectiva, en la que una persona 20, que se ha colocado las gafas de realidad virtual 12, se encuentra dentro de la zona de detección 18. Mientras las gafas de realidad virtual 12 se encuentren dentro del rango de detección 18, el dispositivo de detección 16 puede determinar de forma fiable la posición y la orientación de las gafas de realidad virtual 12. Según los datos captados de posición y orientación de las gafas de realidad virtual 12, el dispositivo de control 14 puede determinar una posición y una orientación de la cabeza de la persona 20. Es decir, mientras que la persona 20 no se retire del área de detección 18, y con ello las gafas de realidad virtual 12 se encuentren dentro de la zona de detección 18, los cambios en la posición de la persona 20 y los cambios en la orientación de la cabeza de la persona 20 se pueden captar, o bien determinar de forma fiable mediante el dispositivo de detección 16, en combinación con el dispositivo de control 14.
En la figura 3 se muestra, en una vista esquemática en perspectiva, un entorno virtual 22, dentro del cual está situado un vehículo virtual 24. El entorno virtual 22, junto con el vehículo virtual 24, se muestra en ello a través de las gafas de realidad virtual 12. El vehículo virtual 24 se visualiza mediante las gafas de realidad virtual 12 desde una perspectiva virtual, la cual se especifica según las capturas de la posición y de la orientación de la cabeza de la persona 20. La persona 20 está en la figura 3 sólo con fines ilustrativos, para aclarar la perspectiva virtual desde la que se muestra actualmente el vehículo virtual 24 mediante gafas de realidad virtual 12. La perspectiva virtual desde la que se muestra el vehículo virtual 24, dispuesto en el entorno virtual 22, se especifica en ello de tal manera que una visión virtual de la orientación captada de la cabeza, y una observación virtual de la posición captada de la persona, se corresponde con la persona 20. Por lo tanto, si la persona 20 gira la cabeza, las gafas de realidad virtual 12 se controlan en consecuencia, de forma que la persona 20 modifica, dentro del entorno virtual 22, su orientación virtual de la cabeza, y con ello también su dirección virtual de visión sobre vehículo virtual 24. Si la persona 20 se mueve realmente, la persona 20 también se mueve en consecuencia dentro del entorno virtual 22, por lo que, por ejemplo, la misma aumenta o disminuye virtualmente su distancia al vehículo virtual 24.
Como se indica a través de las dos figuras 2 y 3, el entorno virtual 22 es significativamente mayor que la zona de detección 18, dentro de la cual puede determinarse una captación fiable de la posición y de la orientación de las gafas de realidad virtual 12, y con ello también una determinación fiable de la orientación de la cabeza y de la posición de la persona 20. A través de ello se puede poner a la persona 20 en riesgo de salirse accidentalmente del área de detección 18, por ejemplo si la persona 20 quiere aumentar su distancia virtual al vehículo virtual 24. No obstante, tan pronto como la persona 20 abandona la zona de detección 18, ya no se puede asegurar de forma fiable que los cambios de posición, y los cambios en la orientación de la cabeza de la persona 20 dentro del entorno virtual 22, se conviertan correspondientemente uno a uno.
En la figura 4, el entorno virtual 22, junto con el vehículo virtual 24, se muestran en otra vista esquemática en perspectiva. Según la posición de la persona 20, determinada continuamente, el dispositivo de control 14 se utiliza para comprobar si la persona 20 se encuentra por debajo de una distancia predeterminada hasta un límite de la zona de cobertura 18. En una representación en forma de paralelepípedo, como la de la figura 2, de la zona de detección 18, se definen los límites respectivos de la zona de detección 18, a saber, a través de las cuatro paredes laterales, y a través de una especie de techo. Dado que es más bien poco probable una salida de la zona de detección 18 hacia arriba, también puede ser suficiente que sólo se realicen comprobaciones continuas de si la persona 20 ha abandonado la zona de detección 18 en una dirección horizontal.
Tan pronto como se determine que la persona 20 se ha situado por debajo de la distancia especificada hasta uno de los límites de la zona de detección 18, se visualiza un efecto por medio de las gafas de realidad virtual 12, el cual indica la situación por debajo de la distancia especificada. La forma en que se representa este efecto se elige en ello dependiendo de la orientación determinada de la cabeza de la persona 20. En ello se determina, según la orientación captada de la cabeza de la persona 20, si la cabeza de la persona 20 está orientada frontalmente o hacia atrás respecto al límite correspondiente de la zona de detección 18, cuando se haya situado por debajo de la distancia especificada. Para ello, a título de ejemplo, se puede especificar un campo de visión binocular para la persona 20, partiendo de la base de una orientación frontal, en caso de que el límite pertinente de la zona de detección 18 esté en el campo de visión binocular de la persona 20, y de lo contrario se parte de una alineación hacia atrás de la cabeza de la persona 20.
En figura 4 se muestra ahora el caso de que la persona 20 - según la representación de la figura 2 - amenaza con desplazarse hacia atrás y hacia la izquierda fuera de la zona de detección 18, ya que la persona 20 se está moviendo hacia atrás. Mediante las gafas de realidad virtual 12, y debido a la orientación de la cabeza de la persona 20, se muestra entonces el vehículo virtual 24 en una vista frontal, separándose la persona 20 virtualmente cada vez más del vehículo virtual 24, debido a su movimiento real hacia atrás.
Si en ello la persona 20 se acerca en la realidad demasiado al límite izquierdo de la zona de detección 18, se muestra una cuadrícula 26, correspondiente a la zona de detección real 18, dentro del entorno virtual 22, como efecto para informar a la persona 20 de que está a punto de salir de la zona de captación 18. En ello, la cuadrícula 26 se elige del mismo tamaño que la zona de detección real 18. A través de la visualización de la cuadrícula 26, la persona 20, dentro del entorno virtual 22, puede reconocer fácilmente que está en ese momento en el proceso de salir retrocediendo fuera de la zona de captación 18.
Alternativamente, o adicionalmente, con una orientación trasera de la cabeza de la persona 20 hacia el límite correspondiente de la zona de captación 18, puede estar también previsto que, mediante las gafas de realidad virtual 12, el vehículo virtual 24 esté oculto y/u oscurecido, al menos parcialmente. Cuando la persona de 20 está desplazándose hacia atrás, hacia uno de los límites de la zona de captación 18, y en ello ha orientado su cabeza más o menos hacia adelante, la misma sigue mirando hacia el vehículo virtual 24 dentro del entorno virtual 22. Debido a que, al estar por debajo de la distancia preestablecida respecto al límite respectivo de la zona de cobertura 18, el vehículo virtual 24 es ocultado y/u oscurecido al menos parcialmente, la persona 20 es detenida, de forma sencilla, para no salir de la zona de captación 18. Alternativamente, o adicionalmente, puede estar también previsto que, en un caso de ese tipo, el entorno virtual 22, el cual puede consistir por ejemplo en una especie de showroom virtual, o similar, esté oculto y/u oscurecido, al menos parcialmente. A través de ello se indica a la persona 20, también de forma confiable, que está a punto de salir hacia atrás fuera de la zona de captación 18.
En la figura 5 se muestra el entorno virtual 22, junto con el vehículo virtual 24, en otra vista en perspectiva. En el presente caso, la persona 20 está a punto de entrar en la zona de captación 18 - de nuevo partiendo de la representación en la figura 2 - caminando hacia adelante y hacia la izquierda. Dado que la persona 20 ha orientado en ello su cabeza hacia adelante, la misma mira alejándose del vehículo virtual 24, dentro del entorno virtual 22. En ello, si la persona 20 estuviese situada por debajo de la distancia especificada hasta el límite correspondiente de la zona de captación 18, entonces, y debido a la orientación frontal de la cabeza de la persona 20, referido al límite de la zona de captación 18, y mediante de las gafas de realidad virtual 12, se muestra un límite virtual 28 dispuesto en el entorno virtual 22, delante de la persona 20, para informar a la persona 20 que está a punto de salirse fuera de la zona de captación 18. Por lo tanto, en este caso, se muestra un efecto local muy limitado, dentro del entorno virtual 22, para indicar a la persona 20 que están a punto de salir de la zona de captación 18. Por que, debido a la orientación real de su cabeza, y a la dirección visual virtual resultante de ello, es suficiente mostrar el límite relativamente pequeño 28, dentro del entorno virtual 22, a fin de informar a la persona 20 de que está a punto de abandonar la zona de detección 18. Debido a la orientación frontal de la cabeza, el límite 28 también tiene además un carácter indicador de la dirección para la persona 20. La persona 20 tiene claro que se dirige frontalmente hacia uno de los límites de la zona de captación 18, indicándose, a través de la limitación 28, el límite de aproximación de la zona de captación 18 dentro del entorno virtual 22 mostrado.
A través de la superposición, dependiente de la orientación de la cabeza, de un efecto correspondiente, mediante el cual se señala a la persona 20 que está en proceso de salir de la zona de captación 18, se puede evitar por un lado, de forma relativamente efectiva, que la persona 20 abandone realmente la zona de captación 18, y, por otro lado, la percepción del entorno virtual 22 mostrado se ve afectada en ello lo menos posible.

Claims (4)

REIVINDICACIONES
1. Procedimiento para operar un sistema de realidad virtual (10), con los pasos siguientes:
- capturar una posición y una orientación de la cabeza de una persona (20), la cual se ha colocado unas gafas de realidad virtual (12), y se encuentra en una zona de captación (18), mediante un dispositivo de detección (16);
- mostrar un objeto virtual (24), situado en un entorno virtual (22), mediante las gafas de realidad virtual (12), desde una perspectiva virtual, la cual se especifica de acuerdo con la posición capturada y con la orientación de la cabeza;
- determinar, sobre la base de la posición registrada, si la persona (20) se ha situado por debajo de una distancia predeterminada hasta un límite de la zona de captación (18);
- mientras que se determine que la persona (20) se ha colocado por debajo de la distancia especificada:
visualizar un efecto (26, 28), característico de que se ha colocado por debajo de la distancia especificada, por medio de las gafas de realidad virtual (12), estando predeterminado el tipo de representación del efecto (26, 28 ) en dependencia de la orientación determinada de la cabeza;
caracterizado por que
- se determina, según la orientación captada de la cabeza, si la cabeza de la persona (20) está orientada frontalmente o hacia atrás respecto al límite de la zona de captación (18), al situarse por debajo de la distancia especificada;
- en el caso de una alineación frontal de la cabeza hacia el límite, y utilizando las gafas de realidad virtual (12), solamente se muestra como efecto un límite virtual (28) dispuesto en el entorno virtual (22), delante de la persona (20);
- en el caso de una orientación trasera de la cabeza respecto al límite, se muestra como efecto, mediante las gafas de realidad virtual (12), una cuadrícula (26) correspondiente a la zona de captación (18) en el entorno virtual (22), y/o se oculta, y/o se oscurece, al menos parcialmente, el objeto virtual (24), y/o se oculta, y/o se oscurece, al menos parcialmente, el entorno virtual (22);
2. Procedimiento según la reivindicación 1, caracterizado por que se especifica un campo de visión binocular para la persona (20), y se parte de una alineación frontal, en caso de que el límite de la zona de captación (18) esté en el campo de visión binocular, y en caso contrario de una orientación trasera.
3. Procedimiento según una de las reivindicaciones precedentes, caracterizado por que la perspectiva virtual desde la cual se muestra el objeto virtual (24), dispuesto en el entorno virtual (22), se especifica de tal manera que se corresponde con una dirección virtual de visión de la orientación captada de la cabeza, y con una posición de observación virtual de la posición captada de la persona (20).
4. Sistema de realidad virtual (10), con
- unas gafas de realidad virtual (12);
- un dispositivo de detección (16), el cual está diseñado para capturar una posición y la orientación de la cabeza de una persona (20), la cual se ha colocado las gafas de realidad virtual (12), y se encuentra en una zona de captación (18);
- un dispositivo de control (14), el cual está diseñado para controlar las gafas de realidad virtual (12) para visualizar un objeto virtual (22), dispuesto en un entorno virtual (24), desde una perspectiva virtual, la cual está especificada correspondiendo a la posición captada y a la orientación de la cabeza;
- para determinar, según la posición captada, si la persona (20) se ha situado por debajo de una distancia predeterminada hasta un límite del rango de cobertura (16);
- para controlar las gafas de realidad virtual (12) para visualizar un efecto (26, 28), característico de que se ha colocado por debajo de la distancia especificada, mientras que se determine que la persona (20) se ha colocado por debajo de la distancia especificada, estando predeterminado el tipo de representación del efecto (26, 28 ) en dependencia de la orientación determinada de la cabeza;
caracterizado por que el dispositivo de control (14) también está diseñado para
- determinar, según la orientación captada de la cabeza, si la cabeza de la persona (20) está orientada frontalmente o hacia atrás respecto al límite de la zona de captación (18), al situarse por debajo de la distancia especificada;
- en el caso de una alineación frontal de la cabeza hacia el límite, y utilizando las gafas de realidad virtual (12), solamente se muestra como efecto un límite virtual (28) dispuesto en el entorno virtual (22), delante de la persona (20);
- en el caso de una orientación trasera de la cabeza respecto al límite, se muestra como efecto, mediante las gafas de realidad virtual (12), una cuadrícula (26) correspondiente a la zona de captación (18) en el entorno virtual (22), y/o se oculta, y/o se oscurece, al menos parcialmente, el objeto virtual (24), y/o se oculta, y/o se oscurece, al menos parcialmente, el entorno virtual (22).
ES16801732T 2015-12-22 2016-11-17 Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual Active ES2779600T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102015226580.3A DE102015226580A1 (de) 2015-12-22 2015-12-22 Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
PCT/EP2016/077970 WO2017108286A1 (de) 2015-12-22 2016-11-17 Verfahren zum betreiben eines virtual-reality-systems und virtual-reality-system

Publications (1)

Publication Number Publication Date
ES2779600T3 true ES2779600T3 (es) 2020-08-18

Family

ID=57406216

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16801732T Active ES2779600T3 (es) 2015-12-22 2016-11-17 Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual

Country Status (6)

Country Link
US (1) US10528125B2 (es)
EP (1) EP3394708B1 (es)
CN (1) CN107533364B (es)
DE (1) DE102015226580A1 (es)
ES (1) ES2779600T3 (es)
WO (1) WO2017108286A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015226580A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System
CN108399799A (zh) * 2018-02-11 2018-08-14 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验培训系统及方法
US11695908B2 (en) * 2018-03-30 2023-07-04 Sony Corporation Information processing apparatus and information processing method
CN108615427B (zh) * 2018-04-19 2020-12-29 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验教学系统及方法
CN108682292A (zh) * 2018-04-19 2018-10-19 广州特种机电设备检测研究院 一种基于虚拟现实技术的电梯检验考核系统及方法
US20220152475A1 (en) * 2019-03-29 2022-05-19 Sony Interactive Entertainment Inc. Boundary display control device, boundary display control method, and program
CN113574591A (zh) * 2019-03-29 2021-10-29 索尼互动娱乐股份有限公司 边界设置设备、边界设置方法和程序
CN110503001A (zh) * 2019-07-25 2019-11-26 青岛小鸟看看科技有限公司 一种虚拟现实vr设备及其避障方法、装置
EP4118629A4 (en) * 2020-03-13 2024-04-10 Harmonix Music Systems Inc VIRTUAL REALITY BOUNDARIES TECHNIQUES, AND RELATED SYSTEMS AND METHODS
US11126850B1 (en) 2020-04-09 2021-09-21 Facebook Technologies, Llc Systems and methods for detecting objects within the boundary of a defined space while in artificial reality
CN112286363B (zh) * 2020-11-19 2023-05-16 网易(杭州)网络有限公司 虚拟主体形态改变方法及装置、存储介质、电子设备
CN112468798A (zh) * 2020-11-27 2021-03-09 上海影创信息科技有限公司 虚拟测距标志的处理方法和系统及其vr眼镜
CN112579029A (zh) * 2020-12-11 2021-03-30 上海影创信息科技有限公司 Vr眼镜的显示控制方法和系统
US11232644B1 (en) 2020-12-31 2022-01-25 Facebook Technologies, Llc Systems and methods for providing spatial awareness in virtual reality

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4393169B2 (ja) 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP4883774B2 (ja) * 2006-08-07 2012-02-22 キヤノン株式会社 情報処理装置及びその制御方法、プログラム
US20130326364A1 (en) * 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9219901B2 (en) * 2012-06-19 2015-12-22 Qualcomm Incorporated Reactive user interface for head-mounted display
DE102013007329A1 (de) * 2013-01-04 2014-07-10 Volkswagen Aktiengesellschaft Verfahren zum Betreiben einer Bedienvorrichtung in einem Fahrzeug
US9729864B2 (en) * 2013-09-30 2017-08-08 Sony Interactive Entertainment Inc. Camera based safety mechanisms for users of head mounted displays
CN103593051B (zh) * 2013-11-11 2017-02-15 百度在线网络技术(北京)有限公司 头戴式显示设备
GB201404732D0 (en) * 2014-03-17 2014-04-30 Sony Comp Entertainment Europe Virtual Reality
US9690367B2 (en) * 2014-12-10 2017-06-27 Sixense Entertainment, Inc. System and method for assisting a user in locating physical objects while the user is in a virtual reality environment
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
DE102015226580A1 (de) 2015-12-22 2017-06-22 Audi Ag Verfahren zum Betreiben eines Virtual-Reality-Systems und Virtual-Reality-System

Also Published As

Publication number Publication date
EP3394708B1 (de) 2020-02-19
EP3394708A1 (de) 2018-10-31
WO2017108286A1 (de) 2017-06-29
US10528125B2 (en) 2020-01-07
CN107533364A (zh) 2018-01-02
CN107533364B (zh) 2020-06-02
DE102015226580A1 (de) 2017-06-22
US20180136716A1 (en) 2018-05-17

Similar Documents

Publication Publication Date Title
ES2779600T3 (es) Procedimiento para operar un sistema de realidad virtual y sistema de realidad virtual
US11763531B2 (en) Surgeon head-mounted display apparatuses
ES2395147T3 (es) Dispositivo de presentación visual para la visualización estereoscópica
JP4323377B2 (ja) 画像表示装置
US20180275755A1 (en) Method of interaction by gaze and associated device
IL292427B1 (en) Change, display and visualization of imaging using augmented and virtual reality glasses
ES2746448T3 (es) Realidad mediada
US20190335115A1 (en) Display control device, head-mounted display, and control program
JP4413203B2 (ja) 画像呈示装置
ES2916408T3 (es) Método y sistema de seguimiento ocular para proporcionar una distancia de convergencia de mirada aproximada de un usuario
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2018156172A (ja) 車両の表示システム及び車両の表示システムの制御方法
JP6662914B2 (ja) 媒介現実
JP2023052450A (ja) 頭部着用型の電子表示装置の操作方法および仮想コンテンツを表示する表示システム
US20160078685A1 (en) Display control device, display control method, and recording medium
US9002074B2 (en) Facial validation sensor
WO2020099251A1 (en) Systematic positioning of virtual objects for mixed reality
ES2797684T3 (es) Procedimiento de funcionamiento de un sistema de realidad virtual y sistema de realidad virtual
JP2016158911A5 (es)
JP6020009B2 (ja) ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
ES2896704T3 (es) Dispositivo de visualización, método de visualización, programa y medio de almacenamiento de información legible por ordenador no temporal
ES2704350B2 (es) Método y sistema para mostrar información prioritaria en un vehículo
CN111124103A (zh) 检测头戴式装置的重新定位
CN113573764A (zh) 视觉舒缓装置
ES2915835T3 (es) Mapeo de mirada a objeto de traza de múltiples líneas para determinar objetivos de enfoque de mirada