ES2910436T3 - Casco y sistema de realidad mixta, virtual y aumentada - Google Patents

Casco y sistema de realidad mixta, virtual y aumentada Download PDF

Info

Publication number
ES2910436T3
ES2910436T3 ES20817337T ES20817337T ES2910436T3 ES 2910436 T3 ES2910436 T3 ES 2910436T3 ES 20817337 T ES20817337 T ES 20817337T ES 20817337 T ES20817337 T ES 20817337T ES 2910436 T3 ES2910436 T3 ES 2910436T3
Authority
ES
Spain
Prior art keywords
helmet
motorized
mirror
smartphone
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20817337T
Other languages
English (en)
Inventor
Hermida Isidro Fernandez
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ar Vr Meifus Eng S L
Ar Vr Meifus Engineering SL
Original Assignee
Ar Vr Meifus Eng S L
Ar Vr Meifus Engineering SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ar Vr Meifus Eng S L, Ar Vr Meifus Engineering SL filed Critical Ar Vr Meifus Eng S L
Application granted granted Critical
Publication of ES2910436T3 publication Critical patent/ES2910436T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B27/0103Head-up displays characterised by optical features comprising holographic elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1008Earpieces of the supra-aural or circum-aural type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1041Mechanical or electronic switches, or control elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/013Head-up displays characterised by optical features comprising a combiner of particular shape, e.g. curvature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0156Head-up displays characterised by mechanical features with movable elements with optionally usable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • G02B2027/0174Head mounted characterised by optical features holographic
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

Casco de realidad mixta, virtual y aumentada, que comprende: una carcasa frontal (2) adaptada para la sujeción a la cabeza (40) de un usuario; una pantalla holográfica (5) curva ubicada en la parte frontal del casco y configurada para reflejar una imagen proyectada (11) por la pantalla de un teléfono inteligente (19) y simultáneamente permitir al usuario ver a través de ella; un alojamiento en la carcasa frontal (2) para la recepción del teléfono inteligente (19) orientado hacia la pantalla holográfica (5); al menos un espejo motorizado (14) configurado para situarse en una posición replegada fuera del campo de visión del usuario, o en una posición extendida delante de la pantalla holográfica (5), en el campo de visión del usuario, para reflejar la imagen proyectada (11) por la pantalla del teléfono inteligente (19); dos lentes motorizadas (15) configuradas para situarse en una posición replegada, fuera del campo de visión del usuario, o en una posición extendida delante de las pupilas (13) del usuario; un sistema de espejos (16) configurado para reflejar una imagen real externa (10) al casco (1) hacia una cámara del teléfono inteligente (19); y una unidad de control (50) encargada de controlar la posición de las lentes motorizadas (15) y del al menos un espejo motorizado (14), de forma que el espejo motorizado (14) y las lentes motorizadas (15) están en la posición replegada para el modo de realidad mixta y en la posición extendida para los modos de realidad aumentada y virtual.

Description

DESCRIPCIÓN
Casco y sistema de realidad mixta, virtual y aumentada
Campo de la invención
La presente invención se engloba dentro del campo de los dispositivos de visualización de realidad virtual, mixta y aumentada, y en particular, a los cascos o gafas empleados con dichos fines.
Antecedentes de la invención
En la actualidad, existen cascos o gafas de realidad virtual destinados exclusivamente a la realidad virtual, cascos o gafas de realidad aumentada dirigidos únicamente para representar realidad aumentada, y cascos o gafas de realidad mixta con la única finalidad de representar realidad mixta. US10234688 divulga una pantalla frontal en la que el usuario puede alternar entre pantalla de realidad mixta y pantalla virtual.
Sin embargo, no existe ningún dispositivo que reúna las tres funcionalidades. La presente invención soluciona este problema, presentando en un único dispositivo tres modos de funcionamiento: realidad mixta, realidad virtual y realidad aumentada.
Descripción de la invención
La invención se refiere a un casco y un sistema de realidad mixta, virtual y aumentada. El casco (o gafas) de la presente invención es un dispositivo que permite intercambiar de manera automática entre representación de realidad mixta, realidad aumentada o realidad virtual.
El casco incluye una carcasa frontal preparada para ser colocada en la cabeza de un usuario y sujetada a la misma mediante elementos de fijación. La carcasa frontal dispone de un alojamiento adaptado para recibir un teléfono inteligente. El casco dispone de una pantalla holográfica (semi-transparente) configurada para reflejar una imagen proyectada por la pantalla del teléfono inteligente y simultáneamente permitir al usuario ver a través de ella, recibiendo una imagen exterior del entorno o realidad circundante.
El casco comprende al menos un espejo motorizado y dos lentes motorizadas configurados para situarse, por la acción de unos motores, en una de entre al menos dos diferentes posiciones:
- Cuando el casco funciona en modo de realidad mixta, el espejo motorizado y las lentes motorizadas se colocan en una posición replegada, fuera del campo de visión del usuario.
- Cuando el casco funciona en modo de realidad virtual o aumentada, el espejo motorizado se coloca en una posición extendida delante de la pantalla holográfica, en el campo de visión del usuario, para reflejar la imagen proyectada por la pantalla del teléfono inteligente. Por su parte, las lentes motorizadas se sitúan en una posición extendida delante de las pupilas del usuario, entre la pantalla holográfica y las pupilas del usuario.
Para el modo de realidad aumentada un sistema de espejos se encarga de captar la imagen real externa al casco (procedente del entorno o realidad circundante, lo que vería el usuario si no tuviera el casco puesto) usando la cámara trasera del teléfono inteligente, al reflejarse la imagen real externa en el sistema de espejos y ser captada por la lente de la cámara trasera.
Una unidad de control del casco se encarga de controlar la posición de las lentes motorizadas y espejo motorizado. De esta forma, el casco puede intercambiar de manera automática entre representación de realidad mixta, realidad virtual o realidad aumentada.
La presente invención también se refiere a un sistema de realidad mixta, virtual y aumentada que comprende un casco, según se ha definido previamente, y un teléfono inteligente alojado en la carcasa frontal del casco. El teléfono inteligente está configurado para establecer una comunicación inalámbrica con la unidad de control del casco para determinar un modo de funcionamiento actual del casco entre una pluralidad de modos de funcionamiento (modo de realidad virtual, modo de realidad aumentada, modo de realidad mixta).
Cuando el casco está funcionando en modo de realidad aumentada, el teléfono inteligente está configurado para adquirir una imagen real externa reflejada por el sistema de espejos del casco, componer una imagen aumentada a partir de la imagen adquirida y mostrar en la pantalla del teléfono inteligente la imagen aumentada. En el modo de funcionamiento de realidad mixta, el teléfono inteligente proyecta en la pantalla holográfica una imagen generada por una aplicación del teléfono.
Breve descripción de los dibujos
A continuación, se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.
Las Figuras 1A y 1B ilustran el sistema de inserción del teléfono inteligente en la carcasa frontal del casco 1.
Las Figuras 2A, 2B y 2C ilustran los tres modos de funcionamiento del casco: realidad mixta (Figura 2A), realidad virtual (Figura 2B) y realidad aumentada (Figura 2C).
Las Figuras 3A-3F muestran una realización de espejo y lente motorizados y sus respectivos sistemas de transmisión mecánica.
Las Figuras 4A y 4B ilustran el sistema de espejos empleado en el modo de realidad aumentada.
Las Figuras 5A y 5B ilustran el sistema de apertura giratorio del casco para tener un campo de visión libre cuando el casco no se esté usando.
La Figura 6 muestra el casco en posición plegada.
Las Figuras 7A y 7B ilustran el sistema de auriculares retráctiles.
La Figura 8 muestra un diagrama de bloques con elementos electrónicos de un sistema de realidad mixta, virtual y aumentada de acuerdo a la presente invención.
Descripción detallada de la invención
La presente invención se refiere a un dispositivo con una triple funcionalidad, ya que puede operar como casco de realidad mixta, como casco de realidad virtual o como casco de realidad aumentada.
El casco de realidad mixta, virtual y aumentada de la presente invención está preparado para albergar un teléfono inteligente en su interior. Las Figuras 1A y 1B representan de manera ilustrativa una realización del sistema de inserción del teléfono inteligente en un alojamiento el interior de la carcasa frontal 2 del casco 1. De acuerdo a la realización mostrada, el sistema de inserción comprende una bandeja 3, ubicada en la parte superior de la carcasa frontal 2, con un alojamiento adaptado para recibir un teléfono inteligente (para una mayor claridad de los elementos de la bandeja 3, en la figura no se representa el teléfono inteligente). Unas guías laterales en el interior de la carcasa frontal 2 permiten la extracción e introducción de la bandeja 3.
En una realización, la bandeja 3 se extrae en su totalidad para permitir la cómoda inserción del teléfono inteligente. Alternativamente, la bandeja puede ser retráctil, con una posición límite en el movimiento de apertura o extracción de la bandeja. El alojamiento en la bandeja 3 puede disponer de unas guías o elementos de ajuste que permiten ajustar las dimensiones del alojamiento a diferentes tamaños de teléfonos inteligentes. Por ejemplo, en la realización mostrada en la Figura 1A la bandeja 3 dispone de unos elementos o guías de ajuste 4 que permiten realizar ajustes del tamaño del alojamiento en las dimensiones de longitud y anchura del teléfono inteligente. También se pueden incorporar elementos de ajuste del grosor del alojamiento, para adaptarse a diferentes grosores de teléfonos inteligentes.
Una vez insertado el teléfono inteligente en el alojamiento de la bandeja 3, se vuelve a introducir la bandeja 3 en el interior de la carcasa frontal 2, quedando en posición cerrada como se ilustra en la Figura 1B.
La carcasa frontal 2 está adaptada para su colocación y sujeción a la cabeza de un usuario. Para permitir una mejor sujeción, el casco 1 puede disponer de elementos de fijación de la carcasa frontal, como correas, velcros, etc.
La imagen mostrada, al menos parcialmente, en la pantalla del teléfono inteligente es proyectada directamente sobre una pantalla holográfica 5 ubicada en la parte frontal del casco, dentro del campo de visión del usuario. La pantalla holográfica está formada por 2 partes semitransparentes, una para cada ojo, con la propiedad de poder reflejar la imagen proyectada por la pantalla del teléfono inteligente y simultáneamente permitir al usuario ver a través de ella para recibir una imagen exterior de la realidad circundante al casco 1. La pantalla holográfica tiene la característica de ser semi-transparente con lo cual se ve a través de ella pero deja ver reflejado la proyección del teléfono inteligente de forma que se pueden superponer imágenes reales, vistas a través de la pantalla holográfica, con la imagen generada en el teléfono inteligente proyectada en la pantalla holográfica.
El casco 1 comprende una unidad de control, preferentemente basada en un procesador o en un microcontrolador, alimentada por al menos una batería. La unidad de control y la batería están alojadas en el interior de una carcasa posterior 6, ubicada en la parte trasera del casco 1 (quedando en uso detrás de la nuca del usuario), como se aprecia en la realización de las Figuras 1A y 1B. En dichas figuras también se muestran otros elementos del casco 1, como por ejemplo unos auriculares 7 adaptables a los oídos del usuario mediante un mecanismo articulado de giro 8 soportado en una banda lateral 9, la cual se adapta a los laterales de la cabeza del usuario y permite servir de elemento mecánico de enlace entre la carcasa frontal 2 y la carcasa posterior 6.
Las tres funciones del casco 1 (realidad mixta, realidad virtual y realidad aumentada) se representan de manera esquemática en la vista lateral de las Figuras 2A, 2B y 2C, respectivamente.
El casco 1 puede operar como casco de realidad mixta, tal y como se muestra en la Figura 2A. En este caso, una imagen real externa 10 (imagen real proveniente del entorno) se combina con una imagen proyectada 11 en la pantalla holográfica 5, ya que la pantalla holográfica 5 permite ver a través de ella. La imagen resultante 12 es capturada por las pupilas 13 del usuario.
Para operar en el segundo y tercer modos de funcionamiento, realidad virtual y realidad aumentada, el casco 1 dispone de al menos un espejo motorizado 14 y dos lentes motorizadas 15. El espejo motorizado 14, ya sea un único espejo motorizado común para los dos ojos o un espejo motorizado para cada ojo, se coloca en una posición extendida delante de la pantalla holográfica 5, dentro del campo de visión del usuario. Las lentes motorizadas 15 se colocan en una posición extendida, delante de las pupilas del usuario, entre las pupilas 13 del usuario y el espejo motorizado 14 en posición extendida.
En el modo de realidad virtual (Figura 2B), el espejo motorizado 14 se encarga de reflejar la imagen proyectada 11 proveniente de la pantalla del teléfono inteligente 19. En este caso la imagen resultante 12 es la imagen proyectada 11 convenientemente reflejada por el espejo motorizado 14, al ser el espejo opaco y no dejar pasar ninguna imagen real externa 10 a su través. Las lentes motorizadas 15 permiten enfocar correctamente la imagen resultante 12, teniendo en cuenta la reducida distancia entre el espejo motorizado 14 y las pupilas 13. Las lentes son preferentemente de tipo convexo-cóncava, con una distancia focal equivalente a la suma de las distancias proyector-espejo y espejo-lente.
El modo de realidad aumentada (Figura 2C) requiere adicionalmente de un sistema de espejos 16 configurado para reflejar una imagen real externa 10 al casco, proveniente del entorno, hacia al menos una cámara del teléfono inteligente (preferentemente una cámara trasera). De manera similar al modo de realidad virtual, la imagen resultante 12 es también la imagen proyectada 11 una vez reflejada por el espejo motorizado 14.
En el modo de realidad virtual el teléfono inteligente 19 representa una escena virtual estereoscópica lograda por la proyección de dos imágenes divididas en la pantalla del teléfono inteligente , una para cada ojo,) generadas por el procesador del teléfono inteligente (y por tanto sin ningún nexo necesario con la realidad circundante). En el modo de realidad aumentada el teléfono inteligente 19 adquiere, utilizando al menos una de sus cámaras, la imagen real externa 10 reflejada por el sistema de espejos 16 del casco 1 (i.e., imagen externa reflejada 17) y emplea dicha imagen externa reflejada 17 proveniente de la realidad circundante para componer una imagen aumentada a partir de la imagen real externa adquirida (por ejemplo, añadiendo algún elemento adicional en la imagen real), mostrando en pantalla la imagen aumentada, la cual es proyectada en el espejo motorizado 14.
El espejo motorizado 14 está por tanto configurado para situarse en una de al menos dos posibles posiciones, en función del modo de operación elegido:
- Una posición replegada fuera del campo de visión del usuario para permitir al usuario ver la pantalla holográfica 5, cuando el casco opera en el modo de realidad mixta (Figura 2A).
- Una posición extendida delante de la pantalla semitransparente holográfica para reflejar la imagen proyectada por la pantalla del teléfono inteligente 19, cuando el casco funciona en modo de realidad virtual (Figura 2B) o en modo de realidad aumentada (Figura 2C).
De forma similar, las lentes motorizadas 15 están también configuradas para situarse en una de al menos dos posibles posiciones, en función del modo de operación del casco: en una posición replegada, fuera del campo de visión del usuario (modo de realidad mixta, Figura 2A), o en una posición extendida delante de las pupilas del usuario (modo de realidad virtual o aumentada, Figuras 2B y 2C).
El control de la posición de las lentes motorizadas 15 y del al menos un espejo motorizado 14 es realizado por una unidad de control alimentada por batería.
En las Figuras 3A y 3B se muestran dos vistas traseras del interior de la carcasa frontal 2, donde se aprecian los elementos empleados para la motorización del al menos un espejo y la motorización de las lentes. Para una mayor claridad solo se representa un espejo motorizado 14 (el izquierdo) y una lente motorizada 15 (la derecha).
De acuerdo a la realización mostrada en las Figuras 3A y 3B, el casco 1 comprende un soporte de espejo 22 que monta dos espejos motorizados (14), uno para cada ojo. El soporte de espejo 22 es guiado en los laterales 18 de la carcasa frontal 2 por un sistema de transmisión mecánica accionado por uno o varios primeros motores 21 (e.g., servomotores) desde una posición replegada en la parte superior de la carcasa frontal 2 a una posición extendida delante del campo de visión de cada respectivo ojo del usuario (o viceversa, accionados desde la posición extendida a la posición replegada). Se emplean preferentemente dos primeros motores 21, en ambos laterales de la carcasa frontal 2, para poder traccionar correctamente el soporte de espejo 22 y de forma síncrona para evitar desviaciones en la trayectoria del movimiento.
En las Figuras 3A y 3B se muestra uno de los dos espejos, incluido en el interior del soporte de espejo 22, en la posición extendida. El sistema de transmisión mecánica de los espejos motorizados 14 es una cadena cinemática que convierte el giro del eje de los primeros motores 21 en un desplazamiento de elevación o descenso del soporte de espejo 22, guiado lateralmente en el cuerpo de la carcasa frontal 2. La cadena cinemática puede estar formada, por ejemplo, por cualquier combinación de engranajes de ruedas dentadas y/o correas de transmisión, entre otros elementos posibles de transmisión mecánica.
El desplazamiento de elevación y descenso del espejo motorizado 14 se realiza linealmente, como se muestra de manera esquemática en la Figura 2B, produciéndose en este movimiento un ligero cambio de ángulo del espejo para permitir al espejo motorizado adaptarse mejor a la forma de la carcasa frontal 2, reduciendo el espacio ocupado por el espejo en el interior de la carcasa. De acuerdo a la realización mostrada, la transmisión mecánica se consigue por dos primeros motores 21 (en particular, dos servomotores) colocados uno en cada lado de la carcasa frontal 2 que hacen girar a una rueda dentada. Mediante otras dos ruedas dentadas, colocadas en línea con el desplazamiento del soporte de espejo 22, y una correa dentada se consigue trasladar el movimiento de giro de los servomotores a un movimiento de traslación del soporte de espejo 22 en el camino guiado configurado para ello. Otras posibles realizaciones de sistemas de transmisión mecánica pueden ser empleados, con tal que consigan extender y replegar los espejos motorizados 14 dentro y fuera del campo de visión del usuario, respectivamente.
El sistema de transmisión mecánica de las lentes motorizadas 15 comprende al menos un primer eje de transmisión 24 accionado por al menos un motor (e.g., servomotor) a través de una cadena cinemática (e.g., correas de transmisión, ruedas dentadas, etc.). El primer eje de transmisión 24 está orientado en dirección perpendicular a los laterales 18 de la carcasa frontal 2 (i.e. en dirección paralela a los ojos del usuario). En la realización mostrada, el primer eje de transmisión 24 es un eje roscado (por ejemplo, un husillo) acoplado mediante rosca 27 a un primer soporte roscado 26 de las lentes motorizadas 15, convirtiendo el giro del primer eje de transmisión 24 en un desplazamiento lineal de las lentes motorizadas 15 en dirección perpendicular a los laterales 18 de la carcasa frontal 2. Para evitar el giro del primer soporte roscado 26, una parte plana superior del primer soporte roscado 26 hace contacto con una guía 29 de la carcasa frontal 2.
Las lentes motorizadas 15 quedan en posición replegada junto a los laterales 18 de la carcasa frontal 2, detrás de unas lengüetas 28 unidas a los laterales 18. Para llegar a la posición extendida, las lentes motorizadas 15 se desplazan hacia la parte central en sentidos opuestos (la lente izquierda se desplaza hacia la derecha y la lente derecha se desplaza hacia la izquierda). Si se opta por emplear un único primer eje de transmisión 24, mediante la adaptación de la orientación de la rosca 27 del primer eje de transmisión se puede configurar el sentido de avance de cada espejo, como se muestra en el roscado de la Figura 3A (el roscado de la parte izquierda del primer eje de transmisión con sentido de avance a derechas y el roscado de la parte derecha del primer eje de transmisión 24 con sentido de avance a izquierdas). El primer eje de transmisión 24 coloca las lentes a una distancia media interpupilar (e.g., 60 mm). Alternativamente, se podrían emplear dos primeros ejes de transmisión 24 independientes, cada uno controlando de manera independiente el desplazamiento de cada lente.
El sistema de transmisión mecánica de las lentes comprende además otros dos ejes de transmisión (segundos ejes de transmisión) movidos por sendos segundos motores 25 ubicados en los laterales 18 de la carcasa frontal 2, uno para cada lente, encargados de mover linealmente con precisión, en dirección paralela a los ojos del usuario, un soporte de lente 30 (o portalentes) de cada una de las lentes entre los dos extremos del primer soporte roscado 26 hasta la posición exacta en el centro de las pupilas 13 de los ojos del usuario, utilizando un sistema de seguimiento ocular. Los segundos ejes de transmisión son accionados por unas hélices, accionadas a su vez por los segundos motores 25 (en particular, servomotores) laterales de la carcasa frontal 2, que traccionan de un eje con tope rígido, el cual mueve con precisión el soporte de lente 15 correspondiente a la distancia exacta interpupilar de cada persona y las desplazan lateralmente durante el uso cuando el usuario desvía su mirada de la posición central a cada uno de los laterales manteniendo así la lente siempre en el centro de la pupila del usuario. El primer eje de transmisión 24 se puede considerar como un elemento para realizar un primer ajuste grueso de la extensión de las lentes, colocándolas a una distancia interpupilar media predeterminada, mientras que los segundos ejes de transmisión se encargan de realizar un ajuste fino en la posición de las lentes, mediante el uso de un sistema de seguimiento ocular, para colocarlas exactamente en el centro de la pupila del usuario actual del casco.
Las Figuras 3C-3F representan con más detalle, de acuerdo a una posible realización, los elementos del sistema de transmisión mecánica de los espejos motorizados 14 y de las lentes motorizadas 15.
El sistema de transmisión mecánica de los espejos motorizados 14 comprende un piñón motriz de doble actuación 20, accionado por los primeros motores 21, y dos piñones de guiado 23 de una correa de transmisión del soporte de espejos 35, representada en la Figura 3D, la cual transmite el movimiento a los espejos.
El sistema de transmisión mecánica de las lentes motorizadas 15 comprende un sistema de ajuste grueso y un sistema de ajuste fino de las lentes. El sistema de ajuste grueso comprende el piñón motriz de doble actuación 20, el cual está formado por dos ruedas dentadas. Una de las ruedas dentadas transmite el movimiento de los primeros motores 21 a los espejos, utilizando la correa de transmisión del soporte de espejos 35, y la segunda rueda dentada transmite el movimiento al primer eje de transmisión 24 a través de un piñón transmisor de movimiento de lentes 36 utilizando una correa de transmisión de movimiento de lentes 37, representada en la Figura 3D. De esta forma, cuando se activan los primeros motores 21, simultáneamente se desplazan los espejos y las lentes desde su posición replegada hasta su posición extendida, o viceversa. En el caso de las lentes, se desplazan a una posición inicial extendida (ajuste grueso de lentes). A continuación, se activa el sistema de ajuste fino de las lentes para extender las lentes a una posición final, justo delante de las pupilas 13 del usuario, controlada por el sistema de seguimiento ocular.
El sistema de ajusto fino de cada lente, representado en las Figuras 3E y 3F, comprende un piñón motriz de ajuste fino de lentes 38, accionado por el segundo motor 25, que transmite el movimiento de rotación a un piñón hélice de ajuste fino 39 mediante una correa de transmisión de ajuste fino de lentes 46. El piñón hélice de ajuste fino 39 actúa sobre una leva 47 del extremo del segundo eje de transmisión 45. El segundo eje de transmisión 45 es un eje actuador del soporte de lente 30, un eje que va unido al soporte de lente 30 convirtiendo el movimiento de rotación del piñón hélice de ajuste fino 39 en movimiento de traslación al ir copiando el recorrido de la hélice, ajustando así la posición final de extensión del soporte de lente 30.
En los modos de realidad virtual y realidad aumentada, las lentes motorizadas 15 se desplazan a una posición extendida. Las lentes motorizadas 15 se desplazan en primer lugar a una posición predeterminada, configurable en la unidad de control (una distancia intterpupilar media o estándar). Adicionalmente, se emplea un sistema de seguimiento ocular que comprende dos cámaras posicionadas en la parte frontal del dispositivo (no mostradas en las figuras) para la detección de la posición de las pupilas del usuario. La unidad de control del casco 1 recibe la información de dichas cámaras y controla la posición de las lentes motorizadas 15 en función de la posición detectada de las pupilas, mediante el control de los motores de los segundos ejes de transmisión. De esta forma se realiza un ajuste fino de la posición de las lentes para que queden alineadas en el centro de cada pupila, adaptándose así a las características físicas de cada usuario (e.g., a la distancia interpupilar concreta del usuario).
En las Figuras 4A y 4B se representa una posible realización del sistema de espejos 16 empleado en el modo de realidad aumentada (Figura 2C). El sistema de espejos 16 comprende un primer espejo 32 configurado para recibir y reflejar una imagen real externa 10 proveniente del exterior de la carcasa frontal 2 (una imagen del entorno recibida a través de uno 0 varios cristales frontales transparentes 31 ubicados en la parte frontal del casco, junto a una pieza frontal 34, tal y como se representa en la Figuras 1A y 1B), y al menos un espejo adicional para reflejar la imagen externa reflejada 17 en una cámara trasera del teléfono inteligente 19. En una realización, el sistema de espejos comprende uno o varios conjuntos de espejos, cada conjunto formado por un primer espejo 32 y al menos un espejo adicional (segundo espejo 33) convenientemente orientados para que la imagen externa reflejada 17 por al menos uno de los conjuntos de espejos incida en una de las cámaras del teléfono inteligente 19. En la realización mostrada en las figuras se emplean dos conjuntos de espejos, a ambos lados de la pieza frontal 34, para poder cubrir los diferentes modelos de teléfonos inteligentes del mercado. De esta forma el teléfono inteligente 19 obtiene el reflejo de la cadena de espejos de la imagen real externa 10. En la realización mostrada en las figuras la pieza frontal 34 y los cristales frontales transparentes 31 se integran en una única pieza, un cristal termoconformado.
Las Figuras 5A y 5B ilustran el sistema de apertura giratorio que permite tener un campo de visión libre cuando el casco 1 está ajustado a la cabeza 40 de un usuario pero no se está utilizando. Para ello el casco 1 dispone de una articulación 41 entre la carcasa frontal 2 y una banda frontal de apoyo 42 que contacta con la frente del usuario, con topes de posición inicial y final que permiten su apertura de forma que el campo visual queda despejado para el usuario. La banda frontal de apoyo 42 está a su vez unida a la banda lateral 9 mediante una articulación 43 que permite el giro relativo entre ellas, para facilitar el plegado del conjunto cuando no esté en funcionamiento. El casco 1 también dispone de una rueda de ajuste 44 que permite el ajuste de la longitud de la banda lateral 9 a las dimensiones de la cabeza 40 del usuario.
En la Figura 6 se muestra el casco 1 completamente plegado, preparado por ejemplo para su embalaje. Para ello el casco 1 comprende dos articulaciones, una para el plegado de la carcasa frontal 2 y otra para el plegado de la carcasa posterior 6 con la electrónica, con topes de posición inicial y final.
En las Figuras 7A y 7B se representa un sistema de auriculares retráctiles, donde los cascos o auriculares 7 se integran con un mecanismo articulado de giro 8 que permite ajustar la posición al usuario y su recogida a posición de embalaje.
Finalmente, la Figura 8 representa un diagrama esquemático de los elementos de un sistema de realidad mixta, virtual y aumentada formado por el casco 1 y un teléfono inteligente 19 alojado en la carcasa frontal 2 del casco. La unidad de control 50 del casco 1 y el teléfono inteligente 19 están configurados para establecer una comunicación inalámbrica 51 bidireccional entre ellos, por ejemplo una conexión Bluetooth.
A través de dicha conexión el teléfono inteligente 19 puede determinar el modo de funcionamiento actual del casco. Así, cuando el teléfono inteligente 19 detecta que el casco está funcionando en modo de realidad aumentada, el teléfono inteligente 19 está configurado para adquirir, mediante una de sus cámaras traseras, una imagen externa reflejada 17 por el sistema de espejos 16 del casco, componer una imagen aumentada a partir de la imagen adquirida y mostrar en su pantalla la imagen aumentada.
En la Figura 8 también se presentan el resto de componentes electrónicos que puede usar el casco: alimentación 52 (mediante una o varias baterías), controlador de motores 53 para el control de los motores (primeros motores 21 y segundos motores 25), repartidor de señales 54, cámaras 56 para seguimiento ocular, controlador de sonido 57 para auriculares 7, micrófono 58, y sistema de control gestual 55. El sistema de control gestual 55 es un sistema que en modo de realidad virtual permite virtualizar las manos para poder interactuar con el entorno, y en modo de realidad mixta o realidad aumentada detecta las manos del usuario (utilizando una o varias cámaras frontales y/o laterales ubicadas en la carcasa frontal 2) para poder hacer operaciones con las partes gráficas existentes dentro de la realidad. El sistema de control gestual 55 puede ser alternativamente sustituido por la cámara trasera del teléfono inteligente empleando el sistema de espejos 16 existentes, al estar esta misma función integrada en los teléfonos inteligentes de nueva generación.
En una realización, el casco 1 dispone de un selector de modo de funcionamiento 59, conectado a la unidad de control 50 del casco. A través del selector de modo de funcionamiento 59 el usuario puede establecer el modo de funcionamiento del casco (realidad virtual, mixta o aumentada). El selector de modo de funcionamiento 59 se puede implementar de múltiples formas, por ejemplo mediante un selector de tres posiciones en forma de rueda o barra deslizante, o mediante un pulsador conectado que va cambiando de modo de funcionamiento en cada pulsación. Cuando el usuario activa el selector de modo de funcionamiento 59, la unidad de control 50 detecta la nueva posición y cambia el modo de funcionamiento del casco al modo seleccionado. Por ejemplo, si el usuario cambia de modo de realidad mixta (Figura 2A) a realidad virtual (Figura 2B), la unidad de control 50 se encarga de colocar las lentes motorizadas 15 y el al menos un espejo motorizado 14 en una posición extendida, delante del campo de visión del usuario, mediante el control de los correspondientes motores. Además, la unidad de control 50 informa al teléfono inteligente 19, utilizando la comunicación inalámbrica 51 establecida, del modo de funcionamiento seleccionado por el usuario. De esta forma el teléfono inteligente 19 puede adaptarse al modo de funcionamiento seleccionado para la representación en pantalla de imágenes. Por ejemplo, si la unidad de control 50 informa al teléfono inteligente 19 que el modo actual de funcionamiento es realidad aumentada, el teléfono inteligente 19 activa al menos una de sus cámaras traseras para captar la imagen real externa 10 reflejada por el sistema de espejos 16 del casco y componer una imagen aumentada a partir de la imagen adquirida, mostrando en su pantalla la imagen aumentada, la cual se proyecta en el al menos un espejo motorizado 14.
En otra realización, es el teléfono inteligente 19 el que determina, a través de una aplicación ad hoc, el modo de funcionamiento del casco 1, comunicándolo a la unidad de control 50 del casco 1 a través de la comunicación inalámbrica 51 establecida entre ambos dispositivos, por ejemplo a través de una orden, comando o instrucción de cambio de modo de funcionamiento. Una vez la unidad de control 50 recibe la orden de cambio de modo de funcionamiento, la unidad de control 50 procede a realizar las acciones pertinentes para ejecutar el cambio de modo de funcionamiento (e.g., de realidad virtual a realidad mixta) mediante la activación de los motores del espejo y lentes motorizadas.

Claims (9)

REIVINDICACIONES
1. Casco de realidad mixta, virtual y aumentada, que comprende:
una carcasa frontal (2) adaptada para la sujeción a la cabeza (40) de un usuario;
una pantalla holográfica (5) curva ubicada en la parte frontal del casco y configurada para reflejar una imagen proyectada (11) por la pantalla de un teléfono inteligente (19) y simultáneamente permitir al usuario ver a través de ella; un alojamiento en la carcasa frontal (2) para la recepción del teléfono inteligente (19) orientado hacia la pantalla holográfica (5);
al menos un espejo motorizado (14) configurado para situarse en una posición replegada fuera del campo de visión del usuario, o en una posición extendida delante de la pantalla holográfica (5), en el campo de visión del usuario, para reflejar la imagen proyectada (11) por la pantalla del teléfono inteligente (19);
dos lentes motorizadas (15) configuradas para situarse en una posición replegada, fuera del campo de visión del usuario, o en una posición extendida delante de las pupilas (13) del usuario;
un sistema de espejos (16) configurado para reflejar una imagen real externa (10) al casco (1) hacia una cámara del teléfono inteligente (19); y
una unidad de control (50) encargada de controlar la posición de las lentes motorizadas (15) y del al menos un espejo motorizado (14), de forma que el espejo motorizado (14) y las lentes motorizadas (15) están en la posición replegada para el modo de realidad mixta y en la posición extendida para los modos de realidad aumentada y virtual.
2. Casco según la reivindicación 1, que comprende un soporte de espejo (22) que monta al menos un espejo motorizado (14) , estando el soporte de espejo (22) guiado en los laterales (18) de la carcasa frontal (2) y accionado por al menos un primer motor (21) entre una posición replegada en la parte superior de la carcasa frontal (2) y una posición extendida delante del campo de visión del usuario.
3. Casco según cualquiera de las reivindicaciones anteriores, que comprende al menos un primer eje de transmisión (24) accionado por motor (21) para el desplazamiento lineal de un primer soporte roscado (26) de cada lente motorizada (15) en dirección perpendicular a los laterales (18) de la carcasa frontal (2).
4. Casco según cualquiera de las reivindicaciones anteriores, que comprende un sistema de seguimiento ocular formado por al menos una cámara (56) para la detección de la posición de las pupilas (13) del usuario, donde la unidad de control (50) está configurada para controlar la posición de las lentes motorizadas (15) en función de la posición detectada de las pupilas (13).
5. Casco según las reivindicaciones 3 y 4, donde el sistema de seguimiento ocular dispone, para cada lente motorizada (15) , de un segundo eje de transmisión (45) accionado por motor (25) para el desplazamiento lineal de un soporte de lente (30) de la lente motorizada (15) entre extremos opuestos del respectivo primer soporte roscado (26).
6. Casco según cualquiera de las reivindicaciones anteriores, donde el alojamiento para la recepción del teléfono inteligente (19) está incluido en una bandeja (3) retráctil o extraíble ubicada en la parte superior de la carcasa frontal (2).
7. Casco según cualquiera de las reivindicaciones anteriores, donde el sistema de espejos (16) comprende un primer espejo (32) configurado para recibir y reflejar una imagen real externa (10) proveniente del exterior de la carcasa frontal (2), y al menos un espejo adicional (33) para reflejar la imagen reflejada en una cámara frontal del teléfono inteligente.
8. Sistema de realidad mixta, virtual y aumentada, que comprende:
un casco (1) según cualquiera de las reivindicaciones anteriores; y
un teléfono inteligente (19) alojado en la carcasa frontal (2) del casco (1) y configurado para establecer una comunicación inalámbrica (51) con la unidad de control (50) del casco (1) para determinar un modo de funcionamiento actual del casco (1) entre una pluralidad de modos de funcionamiento.
9. Sistema según la reivindicación 8, donde los modos de funcionamiento del casco incluyen un modo de realidad aumentada, y donde el teléfono inteligente (19) está configurado, cuando se determina el modo de realidad aumentada como el modo de funcionamiento actual del casco (1), para:
adquirir una imagen real externa (10) reflejada por el sistema de espejos (16) del casco (1);
componer una imagen aumentada a partir de la imagen adquirida; y
mostrar en pantalla la imagen aumentada.
ES20817337T 2019-12-05 2020-12-02 Casco y sistema de realidad mixta, virtual y aumentada Active ES2910436T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ES201931087A ES2831385A1 (es) 2019-12-05 2019-12-05 Casco y sistema de realidad mixta, virtual y aumentada
PCT/EP2020/084288 WO2021089882A1 (en) 2019-12-05 2020-12-02 Mixed, virtual and augmented reality headset and system

Publications (1)

Publication Number Publication Date
ES2910436T3 true ES2910436T3 (es) 2022-05-12

Family

ID=73695057

Family Applications (2)

Application Number Title Priority Date Filing Date
ES201931087A Pending ES2831385A1 (es) 2019-12-05 2019-12-05 Casco y sistema de realidad mixta, virtual y aumentada
ES20817337T Active ES2910436T3 (es) 2019-12-05 2020-12-02 Casco y sistema de realidad mixta, virtual y aumentada

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES201931087A Pending ES2831385A1 (es) 2019-12-05 2019-12-05 Casco y sistema de realidad mixta, virtual y aumentada

Country Status (5)

Country Link
US (1) US20230011002A1 (es)
EP (1) EP3874321B1 (es)
ES (2) ES2831385A1 (es)
PT (1) PT3874321T (es)
WO (1) WO2021089882A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2619367A (en) * 2022-05-23 2023-12-06 Leetz Vincent Extended reality headset, system and apparatus
WO2023227876A1 (en) * 2022-05-23 2023-11-30 Leetz Vincent Extended reality headset, system and apparatus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10409073B2 (en) * 2013-05-17 2019-09-10 Tilt Five, Inc Virtual reality attachment for a head mounted display
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US10459230B2 (en) * 2016-02-02 2019-10-29 Disney Enterprises, Inc. Compact augmented reality / virtual reality display
US10139644B2 (en) * 2016-07-01 2018-11-27 Tilt Five, Inc Head mounted projection display with multilayer beam splitter and color correction
US10234688B2 (en) * 2016-10-25 2019-03-19 Motorola Mobility Llc Mobile electronic device compatible immersive headwear for providing both augmented reality and virtual reality experiences
GB2563189A (en) * 2017-02-17 2018-12-12 China Industries Ltd Reality Viewer
WO2019089811A1 (en) * 2017-11-01 2019-05-09 Vrgineers, Inc. Interactive augmented or virtual reality devices
KR102526172B1 (ko) * 2017-12-19 2023-04-27 삼성전자주식회사 외부 전자 장치가 경사지게 결합될 수 있는 마운트 장치
US20200159027A1 (en) * 2018-11-20 2020-05-21 Facebook Technologies, Llc Head-mounted display with unobstructed peripheral viewing

Also Published As

Publication number Publication date
EP3874321B1 (en) 2022-01-05
PT3874321T (pt) 2022-03-30
ES2831385A1 (es) 2021-06-08
US20230011002A1 (en) 2023-01-12
EP3874321A1 (en) 2021-09-08
WO2021089882A1 (en) 2021-05-14

Similar Documents

Publication Publication Date Title
ES2910436T3 (es) Casco y sistema de realidad mixta, virtual y aumentada
JP6550885B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP6573593B2 (ja) 入出力構造を有する着用可能な装置
US9977245B2 (en) Augmented reality eyewear
CN107637070B (zh) 头戴式显示装置
US20160252727A1 (en) Augmented reality eyewear
ES2820305T3 (es) Máscara de soldadura con proyección inalámbrica y máquina de soldar equipada con dicha máscara
US11112611B1 (en) Wearable pupil-forming display apparatus
TW201908812A (zh) 用於眼鏡之可拆卸地可附接擴增實境系統
US10344960B2 (en) Wireless earpiece controlled medical headlight
JP5170144B2 (ja) 眼鏡型の画像表示装置
US11902646B2 (en) Wearable systems having remotely positioned vision redirection
US10324296B2 (en) Display device
RU138628U1 (ru) Очки дополненной реальности
US20230333385A1 (en) Wearable pupil-forming display apparatus
TW201905539A (zh) 用於眼鏡之可拆卸地可附接擴增實境系統
TWI724729B (zh) 瞳距調整裝置以及頭戴式顯示設備
KR102482346B1 (ko) 용접 정보 제공 장치
US20040156114A1 (en) Facial mounting equipped with a lateral device for diffusion of virtual images towards a user's pupil
JP2014022942A (ja) 頭部装着装置
CN115867832A (zh) 焊接信息提供装置
JP6565310B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
KR102546994B1 (ko) 웨어러블 글래스 장치
WO2019128748A1 (zh) 一种虚拟现实显示装置及其方法
KR101865117B1 (ko) 헤드 마운트 디스플레이 장치