ES2966264T3 - Sistema y método de visualización portátil - Google Patents

Sistema y método de visualización portátil Download PDF

Info

Publication number
ES2966264T3
ES2966264T3 ES20704668T ES20704668T ES2966264T3 ES 2966264 T3 ES2966264 T3 ES 2966264T3 ES 20704668 T ES20704668 T ES 20704668T ES 20704668 T ES20704668 T ES 20704668T ES 2966264 T3 ES2966264 T3 ES 2966264T3
Authority
ES
Spain
Prior art keywords
image
portable display
display device
computer system
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES20704668T
Other languages
English (en)
Inventor
Andrew Brian Raij
Justin Allen Hare
Gregory Addison Hill
Patrick John Goergen
Tomas Manuel Trujillo
Martin Evan Graham
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Application granted granted Critical
Publication of ES2966264T3 publication Critical patent/ES2966264T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/73Authorising game programs or game devices, e.g. checking authenticity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/75Enforcing rules, e.g. detecting foul play or generating lists of cheating players
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/98Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/18Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Abstract

Un sistema de visualización portátil (10) que incluye un dispositivo de visualización portátil (12). El dispositivo de visualización portátil (12) incluye una carcasa (18). Una pantalla (20) se acopla a la carcasa (18) y muestra una imagen para un usuario. Una cámara (38) se acopla a la carcasa (18) y captura la imagen. Un sistema informático (28) recibe la imagen de la cámara (38) y compara la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y método de visualización portátil
Referencia cruzada a la solicitud relacionada
Esta solicitud reivindica la prioridad y el beneficio de la Solicitud Provisional de EE. UU. n.° 62/791,735, titulada "AUGMENTED REALITY (AR) HEADSET FOR HIGH THROUGHPUT ATTRACTIONS," presentada el 11 de enero de 2019.
Antecedentes
Esta sección pretende presentar al lector diversos aspectos de la técnica que pueden estar relacionados con diversos aspectos de las presentes técnicas, que se describen y/o reivindican a continuación. Se cree que esta discusión es útil para proporcionar al lector información de los antecedentes para facilitar una mejor comprensión de los diversos aspectos de la presente divulgación. En consecuencia, debe entenderse que estas exposiciones deben leerse desde esta perspectiva y no como reconocimiento de la técnica anterior.
Los parques de atracciones y/o parques temáticos entretienen a los visitantes con una variedad de atracciones, restaurantes y viajes de entretenimiento. Por ejemplo, los parques de atracciones pueden incluir atracciones planas, montañas rusas, atracciones acuáticas, atracciones oscuras, norias, entre otras. Los operadores de parques de atracciones trabajan continuamente para mejorar la experiencia del parque de atracciones, incluida la experiencia de los vehículos de atracción. Por ejemplo, los vehículos de la atracción, los recorridos de la atracción, así como otros elementos del sistema de la atracción, tales como luces, altavoces, elementos interactivos y entornos especializados, se actualizan continuamente para brindar una experiencia sensorial cada vez más mejorada. Los operadores de parques de atracciones también están incorporando realidad aumentada y realidad virtual en las atracciones para proporcionar una experiencia más interesante e inmersiva.
El artículo "Sistema de evaluación de la calidad de la imagen de la pantalla montada en el casco", Hsieh S-J y otros,<IEEE Transactions on Instrumentation and Measurement, vol. 52, no.>6<(2003), págs. 1838-1845 divulga el desarrollo>de prototipos y el diseño de interfaces utilizando tres pantallas montadas en el casco (HMD) denominadas unidades de visualización del casco (HDU) del sistema integrado de visualización y casco (IHADSS). El prototipo consta de hardware (cámaras, sensores, tarjetas de captura de imágenes/adquisición de datos, paquete de baterías, soporte de la HDU, bastidor y asa móviles y computadora) y algoritmos de software para la captura y análisis de imágenes. Dos cámaras con aberturas de diferentes tamaños están montadas en paralelo en un bastidor frente a un soporte de la HDU. Un asa permite a los usuarios colocar la HDU enfrente de las dos cámaras. Luego se captura el patrón de prueba HMD. Los sensores detectan la posición del soporte y si la HDU está en el ángulo correcto con respecto a la cámara. Los algoritmos detectan características de la HDU capturadas por las dos cámaras, incluyendo el enfoque, la orientación, el desplazamiento, el campo de visión y el número de tonos de grises.
El documento "Sistema de inspección óptica automatizado para televisores digitales", Ivan Kastelan y otros, Eurasip Journal on Advances in Signal Processing, vol. 2011, n° 1 divulga un sistema de prueba y verificación en tiempo real para la evaluación y verificación automática de la calidad de imagen de referencia completa de televisores digitales.
El documento "Eliminación dinámica de sombras de pantallas de proyección frontal", Christopher Jaynes y otros, Conferencia anual del IEEE sobre visualización, 2001, págs. 175-182, divulga una técnica para detectar y corregir sombras transitorias en una pantalla de múltiples proyectores. La diferencia entre las imágenes predichas (generadas) y observadas (cámara) se minimiza mediante la modificación continua de los valores de la imagen proyectada para cada dispositivo de visualización.
Se divulga más técnica anterior relacionada en: Y. Itoh, M. Dzitsiuk, T. Amano y G. Klinker, "Método de reproducción de color semiparamétrico para pantallas ópticas transparentes montadas en casco", en IEEE Transactions on Visualization and Computer Graphics, vol. 21, núm. 11, págs. 1269-1278, 15 de noviembre de 2015.
Compendio
La invención se define en las reivindicaciones adjuntas. A continuación se expone un compendio de ciertas realizaciones divulgadas en la presente memoria. Debe entenderse que estos aspectos se presentan simplemente para proporcionar al lector un breve compendio de estas determinadas realizaciones y que no se pretende que estos aspectos limiten el alcance de esta divulgación. En efecto, esta divulgación puede abarcar una variedad de aspectos que pueden no estar expuestos a continuación.
En una realización, se proporciona un sistema de visualización portátil que incluye un dispositivo de visualización portátil. El dispositivo de visualización portátil es una pantalla montada en la cabeza. El dispositivo de visualización portátil incluye una carcasa. Una pantalla se acopla a la carcasa que muestra una imagen para un usuario. Una cámara se acopla a la carcasa y captura la imagen. La cámara está orientada hacia delante en una dirección hacia la pantalla. Un sistema informático recibe la imagen desde la cámara y compara la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra.
En una realización, se proporciona un método para calibrar un sistema de visualización portátil que comprende un dispositivo de visualización portátil. El dispositivo de visualización portátil es una pantalla montada en la cabeza. El método incluye detectar una orientación de un dispositivo de visualización portátil. Luego, el método captura una imagen producida en una pantalla del dispositivo de visualización portátil con una cámara. El método puede determinar, entonces, una imagen maestra en respuesta a la orientación del dispositivo de visualización portátil. El método compara la imagen con la imagen maestra para determinar si la imagen coincide con la imagen maestra.
En un ejemplo, se proporciona un método para calibrar un sistema de visualización portátil. El método incluye detectar una operación de un dispositivo de visualización portátil. Luego, el método captura una imagen de prueba producida en una pantalla del dispositivo de visualización portátil con una cámara. El método compara la imagen de prueba capturada por la cámara con una imagen maestra para determinar si la imagen de prueba coincide con la imagen maestra.
Se pueden realizar diversos perfeccionamientos de las características señaladas anteriormente en relación con diversos aspectos de la presente divulgación. También se pueden incorporar características adicionales en estos diversos aspectos. Estos perfeccionamientos y características adicionales pueden existir individualmente o en cualquier combinación.
Breve descripción de los dibujos
Estas y otras características, aspectos y ventajas de la presente divulgación se entenderán mejor cuando se lea la siguiente descripción detallada con referencia a los dibujos adjuntos en los que caracteres similares representan partes similares en todos los dibujos, en donde:
<la figura>1<es una vista en perspectiva de un sistema de visualización portátil, según una realización de la>presente divulgación;
<la figura>2<es una vista posterior del sistema de visualización portátil de la figura>1<, según una realización de>la presente divulgación;
la figura 3 es una vista de una atracción con el sistema de visualización portátil, según una realización de la presente divulgación;
la figura 4 es un diagrama de flujo de un método para probar un sistema de visualización portátil antes del inicio de un viaje, según una realización de la presente divulgación;
la figura 5 es un diagrama de flujo de un método para calibrar un sistema de visualización portátil durante un viaje, según una realización de la presente divulgación; y
<la figura>6<es un diagrama de flujo de un método para calibrar un sistema de visualización portátil durante un>viaje, en donde el método incluye capturar una imagen en el ojo de un usuario, según una realización de la presente divulgación.
Descripción detallada
A continuación se describirán una o más realizaciones específicas. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, no todas las características de una implementación real se describen en la memoria. Debe apreciarse que, en el desarrollo de cualquier implementación real de este tipo, como en cualquier proyecto de ingeniería o diseño, se deben tomar numerosas decisiones específicas de implementación para lograr los objetivos específicos de los desarrolladores, tales como el cumplimiento de las restricciones relacionadas con el sistema y el negocio, las cuales pueden variar de una implementación a otra. Además, se debe apreciar que tal esfuerzo de desarrollo podría ser complejo y llevar mucho tiempo, pero, no obstante, sería una tarea rutinaria de diseño, fabricación y manufactura para aquellos expertos comunes que se benefician de esta divulgación.
Al introducir elementos de diversas realizaciones de la presente divulgación, los artículos "un", "uno" y "el" pretenden significar que hay uno o más de los elementos. Los términos "que comprende", "que incluye" y "que tiene" pretenden ser inclusivos y significan que puede haber elementos adicionales distintos de los elementos enumerados. Adicionalmente, debe entenderse que las referencias a "una realización" o "una realización" de la presente divulgación no pretenden interpretarse como excluyentes de la existencia de realizaciones adicionales que también incorporan las características citadas.
Las presentes realizaciones se relacionan con sistemas de visualización portátiles que proporcionan experiencias mejoradas para los visitantes de un parque de atracciones o un parque temático. Específicamente, estos sistemas de visualización portátiles proporcionan una experiencia de realidad aumentada y/o realidad virtual (RA/RV) mediante dispositivos de visualización portátiles. Por ejemplo, los dispositivos de visualización portátiles pueden incluir una pantalla montada en la cabeza (por ejemplo, gafas o pantallas electrónicas, anteojos), que puede ser usada por un visitante y puede configurarse para permitir que el visitante vea escenas RA/RV. En particular, el dispositivo de visualización portátil se puede utilizar para mejorar la experiencia del visitante superponiendo virtualmente características en un entorno del mundo real del parque de atracciones, proporcionando entornos virtuales ajustables para proporcionar diferentes experiencias en una atracción del parque de atracciones (por ejemplo, circuito cerrado, atracción oscura u otra atracción similar), etc.
Debido a que el dispositivo de visualización portátil, típicamente, lo usa un visitante, el operador de una atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil. Por ejemplo, el operador de la atracción puede no ser consciente de problemas, tales como manchas en las pantallas, reducción del brillo de las pantallas, píxeles defectuosos (por ejemplo, píxeles atascados, píxeles muertos), imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta entre porciones de la pantalla (por ejemplo, pantallas izquierda y derecha), alineación incorrecta con un entorno del mundo real, entre otros. Como se explicará a continuación, el sistema de visualización portátil permite la detección de problemas con los dispositivos de visualización portátiles usando cámaras. Por ejemplo, las cámaras capturan imágenes producidas por o en pantallas de los dispositivos de visualización portátiles. El sistema de visualización portátil compara estas imágenes capturadas con imágenes maestras para detectar discrepancias que indiquen un problema con el dispositivo de visualización portátil. Entonces, el operador de la atracción puede ser alertado sobre el problema y, por lo tanto, puede responder rápidamente (por ejemplo, reemplazar, solucionar problemas del dispositivo de visualización portátil).
La figura 1 es una vista en perspectiva de un sistema de visualización portátil 10 que permite a un usuario experimentar escenas RA y/o RV. El sistema de visualización portátil 10 incluye un dispositivo de visualización portátil 12 (por ejemplo, una pantalla montada en la cabeza) que se acopla a un usuario. En algunas realizaciones, el dispositivo de<visualización portátil>12<se acopla al usuario con un sombrero o una banda que se arrolla alrededor de la cabeza del>usuario. En la figura 1, el dispositivo de visualización portátil 12 se acopla al usuario con una banda o correa 14.
En la realización ilustrada, el dispositivo de visualización portátil 12 incluye anteojos electrónicos 16 (por ejemplo, anteojos, gafas RA/RV) que se acoplan a una carcasa 18 del dispositivo de visualización portátil 12. Los anteojos<electrónicos 16 pueden incluir una o más pantallas>20<(por ejemplo, transparentes, semitransparentes, opacas;>pantallas izquierda y derecha) sobre las que se pueden superponer determinadas imágenes virtuales. En algunas<realizaciones, las pantallas>20<pueden permitir al usuario ver un entorno>22<del mundo real a través de las pantallas>20 junto con características virtuales 24 (por ejemplo, características RA). En otras palabras, los anteojos electrónicos 16 pueden controlar, al menos parcialmente, una vista del usuario superponiendo las características virtuales 24 en una línea de visión del usuario. Las pantallas 20 pueden incluir pantallas transparentes (por ejemplo, que se ve a través de ellas) o no transparentes que incluyen diodos emisores de luz (LED) o diodos emisores de luz orgánicos (OLED).
En algunas realizaciones, el dispositivo de visualización portátil 12 puede controlar completamente la vista del usuario (por ejemplo, usando superficies de visualización opacas). Este entorno surrealista 26 visto por el espectador puede<ser un vídeo en tiempo real que incluye imágenes del mundo real de un entorno del mundo real>22<que se han>fusionado electrónicamente con una o más características virtuales 24 (por ejemplo, características RV). Por lo tanto,<el usuario puede percibir el entorno surrealista 26 como el entorno del mundo real>22<superpuesto con características>virtuales 24. En algunas realizaciones, el dispositivo de visualización portátil 12 puede incluir características, tales como características de proyección de luz, que proyectan luz en uno o ambos ojos del usuario de modo que ciertas características virtuales 24 se superpongan sobre objetos del mundo real visibles por el usuario. Un dispositivo de<visualización portátil>12<de este tipo puede denominarse pantalla retiniana virtual.>
El usuario puede usar el dispositivo de visualización portátil 12 en una atracción del parque de atracciones, en un juego y/o en un área particular del parque de atracciones (por ejemplo, en un área temática del parque de atracciones). Para recibir las imágenes para las pantallas 20, el dispositivo de visualización portátil 12 puede acoplarse a un controlador o sistema informático 28 con una conexión por cable y/o inalámbrica. Por ejemplo, el dispositivo de visualización portátil 12 puede acoplarse al sistema informático 28 con un cable 30 y/o con un transmisor/receptor inalámbrico 32. En realizaciones en las que la comunicación se realiza a través de una conexión inalámbrica, la conexión se puede formar con redes de área local inalámbricas (WLAN), redes inalámbricas de área amplia (WWAN), comunicación de campo cercano (NFC), red de telefonía móvil, entre otras.
Debe entenderse que el sistema informático 28 no puede estar ubicado alejado del dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede estar embebido o acoplado directamente a la carcasa 18 del dispositivo de visualización portátil 12. El dispositivo de visualización portátil 12 puede estar integrado en una atracción de parque de atracciones. Por lo tanto, el dispositivo de visualización portátil 12 puede estar físicamente acoplado (por ejemplo, atado a través del cable 30) a una estructura (por ejemplo, un vehículo de atracción del parque de atracciones)<para bloquear la separación del dispositivo de visualización portátil>12<de la estructura, así como para acoplarlo>electrónicamente al sistema informático 28, el cual puede acoplarse al vehículo de atracción o a otras piezas de la infraestructura de la atracción.
El sistema informático 28 incluye un procesador 34 y una memoria 36. El procesador 34 puede ser un microprocesador que ejecuta software para visualizar imágenes en las pantallas 20. El procesador 34 puede incluir múltiples microprocesadores, uno o más microprocesadores de "propósito general", uno o más microprocesadores de propósito especial y/o uno o más circuitos integrados de aplicación específica (ASIC), conjuntos de puertas programabas en campo (FPGA) o alguna combinación de los mismos. Por ejemplo, el procesador 34 puede incluir uno o más procesadores de computadora con conjunto de instrucciones reducido (RISC).
La memoria 36 puede incluir una memoria volátil, tal como una memoria de acceso aleatorio (RAM), y/o una memoria no volátil, tal como una memoria de sólo lectura (ROM). La memoria 36 puede almacenar una variedad de información y puede usarse para diversos propósitos. Por ejemplo, la memoria 36 puede almacenar imágenes (por ejemplo, imágenes maestras o de prueba, escenas, objetos de realidad RV, objetos RA) e instrucciones ejecutables por procesador, tales como firmware o software, para que las ejecute el procesador 34. La memoria 36 puede incluir r Om , memoria flash, un disco duro o cualquier otro medio de almacenamiento óptico, magnético o de estado sólido adecuado o una combinación de los mismos. La memoria 36 puede almacenar datos, instrucciones y cualesquiera otros datos adecuados.
Como se explicó anteriormente, debido a que el dispositivo de visualización portátil 12 lo usa típicamente un visitante, el operador de la atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil 12. Por ejemplo, el operador de la atracción puede no ser consciente de problemas, tales como<como manchas en las pantallas>20<, reducción del brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles>atascados, píxeles muertos), alineación incorrecta entre porciones de la pantalla (por ejemplo, pantallas izquierda y derecha). Es posible que el operador del viaje tampoco sea consciente de los problemas con las pantallas 20 que se producen durante el viaje. Por ejemplo, es posible que el operador de la atracción no sea consciente de imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta con un entorno del mundo real, entre otros. Para detectar problemas con las pantallas 20 y/o imágenes en las pantallas 20, el dispositivo de visualización portátil 12 puede incluir una o más cámaras 38 que capturen la(s) imagen(es) proporcionada(s) al viajero o usuario del dispositivo de visualización portátil 12. La imagen capturada se envía luego<al sistema informático>28<para su procesamiento y/o comparación con la(s) imagen(es) maestra(s) o correcta(s) que>debería(n) mostrarse en las pantallas 20 (por ejemplo, visibles para el usuario). La comparación permite que el sistema informático 28 detecte problemas de visualización y corrija esos problemas automáticamente y/o avise a un operador para operaciones de mantenimiento (por ejemplo, inspección, limpieza o reemplazo). Por ejemplo, después de que el sistema informático 28 detecta un problema y no logra corregirlo, el sistema informático 28 puede activar una luz 40, un altavoz 42 o una combinación de los mismos para notificar al operador un problema. En respuesta, el operador<puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil>12<.>
La figura 2 es una vista posterior del dispositivo de visualización portátil 12 de la figura 1. Como se explicó anteriormente, el dispositivo de visualización portátil 12 incluye una o más cámaras 38 (por ejemplo, cámara en color, cámara en escala de grises; detector óptico). Estas cámaras 38 pueden estar orientadas hacia delante en una dirección 60 hacia las pantallas 20 y/u orientadas hacia atrás en la dirección 62 hacia el portador o usuario. Por ejemplo, puede haber cámaras 38 orientadas tanto hacia delante como hacia atrás. Las cámaras 38 orientadas hacia delante están posicionadas para ver la(s) imágenes reales generadas en las pantallas 20. Las cámaras 38 orientadas hacia atrás están posicionadas para capturar imágenes en los ojos del usuario. Las cámaras 38 pueden posicionarse en alas o lados 64 de la carcasa 18 o situarse centralmente en la carcasa 18. En la figura 2, se ilustran tres cámaras 38, pero debe entenderse que puede haber un número diferente de cámaras 38 (por ejemplo, 1, 2, 3, 4, 5 o más). Por ejemplo, el dispositivo de visualización portátil 12 puede incluir una cámara 38 para cada pantalla 20 u ojo del usuario. No obstante, en algunas realizaciones el dispositivo de visualización portátil 12 puede tener una sola cámara 38. Por ejemplo, una única cámara situada centralmente 38 (por ejemplo, cámara gran angular) con un campo de visión suficiente para ver y capturar imágenes en todas las pantallas 20. En algunas realizaciones, el dispositivo de visualización portátil 12 puede incluir luces 65 (por ejemplo, luces infrarrojas) que iluminan los ojos del usuario para permitir que la cámara 38 capture la imagen reflejada en los ojos del usuario.
Además de las cámaras 38, el dispositivo de visualización portátil 12 también puede incluir un sistema de seguimiento 66<con múltiples sensores>68<. Estos sensores>68<permiten el seguimiento de la posición y orientación del dispositivo de visualización portátil>12<y, por lo tanto, la posición y orientación de las pantallas>20<. La capacidad de determinar hacia dónde mira un usuario con el dispositivo de visualización portátil>12<permite que el sistema informático 28 identifique discrepancias entre lo que el usuario está viendo en las pantallas>20<, cuando mira en una dirección en>particular, y lo que el usuario debería estar viendo en las pantallas 20, cuando se mira en esa dirección. Los sensores 68<también pueden detectar cuándo no está en uso el dispositivo de visualización portátil>12<, permitiendo, así, que el>sistema informático 28 ejecute (por ejemplo, ejecute automáticamente) pruebas de diagnóstico entre usos (por<ejemplo, entre el final de un viaje y el inicio del siguiente). Por ejemplo, los sensores>68<pueden incluir un sensor de>posición (por ejemplo, un sensor de efecto Hall) y/o un sensor de orientación (por ejemplo, una unidad de medición<inercial [IMU]). El sistema informático 28 puede recibir señales desde los sensores>68<que indican que el dispositivo>de visualización portátil 12 está almacenado en una ubicación de almacenamiento (por ejemplo, un contenedor). En<particular, el sensor de posición puede detectar que el dispositivo de visualización portátil>12<está dentro de una>distancia umbral de y/o en contacto con una superficie del contenedor y/o el sensor de orientación puede detectar que<el dispositivo de visualización portátil>12<está orientado con respecto a un vector de gravedad de una manera que sea>congruente con que el dispositivo de visualización portátil 12 esté almacenado en el contenedor. Entonces, el sistema informático 28 puede ejecutar o iniciar automáticamente las pruebas de diagnóstico en respuesta a que el sistema informático 28 determina que el dispositivo de visualización portátil 12 está almacenado en el contenedor. El sistema informático 28 puede ejecutar o iniciar automáticamente las pruebas de diagnóstico en otros momentos, tales como<en respuesta a que el vehículo de atracción y/o el dispositivo de visualización portátil>12<entran en la zona de descarga u otra área de la atracción en la cual el dispositivo de visualización portátil>12<no se utiliza para presentar características virtuales al usuario. El uno o más sensores>68<pueden incluir cualesquiera sensores de orientación y/o posición>adecuados (por ejemplo, acelerómetros, magnetómetros, giroscopios, receptores del Sistema de Posicionamiento Global [GPS]), sensores de seguimiento de movimiento (por ejemplo, sensores de seguimiento de movimiento electromagnéticos y de estado sólido), unidades de medida inercial (IMU), sensores de presencia y otros. Además,<uno o más sensores>68<y/o el sistema informático 28 también pueden hacer seguimiento de información de operación>de un vehículo de atracción, incluyendo, entre otros, posición, guiñada, balanceo de cabeceo y velocidad del vehículo<de atracción y coordinar esa información con las imágenes que deben producirse en las pantallas>20<.>
La figura 3 es una vista de una atracción 90 con un vehículo de atracción 92. La atracción 90 incluye un recorrido de vehículo (por ejemplo, una pista de circuito cerrado o un sistema de vías de circuito cerrado 94). Las vías 94 pueden proporcionarse como una infraestructura sobre la cual el vehículo de atracción 92 puede viajar con pasajeros 96 (por ejemplo, usuarios). Debe apreciarse que la atracción 90, el vehículo de atracción 92 y el número de pasajeros 96 son ejemplares y pueden diferir entre realizaciones. A medida que el vehículo de atracción 92 viaja a lo largo de las vías 94, a los pasajeros 96 se les puede proporcionar un recorrido en movimiento por el escenario (por ejemplo, un entorno temático que puede incluir equipos fijos, diseños de edificios, atrezo, decoraciones, etc. correspondientes al tema). El escenario puede incluir el entorno que rodea la atracción 14 y/o el entorno dentro de una infraestructura que puede albergar total o parcialmente la atracción 14.
Para mejorar la experiencia de la atracción, la atracción 90 incorpora los dispositivos de visualización portátiles 12 del sistema de visualización portátil 10. A medida que el vehículo de atracción 92 viaja a lo largo de las vías 94, el sistema de visualización portátil 10 puede coordinar imágenes o características RA/RV, tales como como objetos RA/RV que se muestran a los pasajeros 96 en las pantallas 20 de los dispositivos de visualización portátiles 12. Estos objetos RA/RV pueden cambiar a medida que el usuario cambia la orientación de los dispositivos de visualización portátiles 12 durante el viaje. Por ejemplo, el pasajero 96 puede cambiar la orientación de los dispositivos de visualización portátiles 12 girando su cabeza y moviéndola hacia arriba y hacia abajo. Los objetos RA/RV también pueden cambiar a medida que el vehículo de atracción 92 cambia de posición física (por ejemplo, gira, rueda, se mueve a lo largo de las vías 94). Los objetos RA/RV también pueden cambiar para atracciones estacionarias en respuesta a un cronograma designado para la atracción (por ejemplo, el argumento). Estos cambios son proporcionados por el sistema informático 28 a las pantallas 20 de los dispositivos de visualización portátiles 12. Como se explicó<anteriormente, el sistema informático 28 puede acoplarse a los dispositivos de visualización portátiles>12<con una>conexión por cable y/o inalámbrica. En la figura 3, los dispositivos de visualización portátiles 12 se acoplan al vehículo de atracción 92 con uno o más cables 30 que proporcionan comunicación electrónica al sistema informático 28. El sistema informático 28 puede coordinar presentaciones visuales y/o sonoras proporcionadas a los pasajeros 96 que llevan los dispositivos de visualización portátil 12 a través de estos cables 30. Estos cables 30 también pueden proporcionar retroalimentación al sistema informático 28 sobre el funcionamiento de los dispositivos de visualización<portátiles>12<.>
Como se explicó anteriormente, el operador de la atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil 12. Por ejemplo, el operador de la atracción puede no ser<consciente de problemas, tales como manchas en las pantallas>20<, reducción del brillo de las pantallas>20<, píxeles>defectuosos (por ejemplo, píxeles atascados, píxeles muertos), alineación incorrecta entre las partes de la pantalla por ejemplo, pantallas izquierda y derecha). Es posible que el operador de la atracción tampoco sea consciente de los problemas con las pantallas 20 que se producen durante el viaje. Por ejemplo, es posible que el operador de la atracción sea consciente de imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta con un entorno del mundo real, entre otros. El sistema informático 28 es capaz de detectar estos problemas a través de la retroalimentación desde las cámaras 38 (figuras 1 y 2) acopladas a los dispositivos de visualización portátiles 12. Por ejemplo, el sistema informático 28 puede comprobar continuamente el<funcionamiento de los dispositivos de visualización portátiles>12<durante un viaje usando la retroalimentación desde>las cámaras 38. En otra realización, el sistema informático 28 puede comprobar periódicamente el funcionamiento de los dispositivos de visualización portátiles 12 solicitando retroalimentación de las cámaras 38 en ubicaciones específicas en la atracción 90. Por ejemplo, el sistema informático 28 puede recibir información cuando el vehículo de atracción 92 alcanza los puntos A, B y C a lo largo de las vías 94. Para atracciones estacionarias, el sistema informático 28 puede recibir retroalimentación en ciertos puntos de tiempo medidos desde un punto de tiempo específico (por ejemplo, inicio de la atracción).
Las imágenes capturadas desde las cámaras 38 se envían al sistema informático 28 para su procesamiento y/o comparación con la(s) imagen(es) maestra(s) o correcta(s) que debe mostrarse al usuario en la orientación actual del dispositivo de visualización portátil 12, en una ubicación específica a lo largo del viaje y/o del tiempo del viaje. La comparación permite que el sistema informático 28 detecte problemas de visualización y corrija esos problemas automáticamente y/o avise a un operador para su inspección, limpieza o reemplazo. El sistema informático 28 también<puede realizar comprobaciones de diagnóstico de los dispositivos de visualización portátiles>12<entre viajes o en otros>momentos (por ejemplo, al final del día). El sistema informático 28 puede ejecutar estas comprobaciones de<diagnóstico después de detectar que el dispositivo de visualización portátil>12<no está en uso a través de la><retroalimentación desde uno o más de los sensores>68<. Por ejemplo, uno o más de estos sensores>68<pueden detectar>que el dispositivo de visualización portátil 12 está dentro de un contenedor 98 (por ejemplo, bolsa, caja) que se acopla<al vehículo de atracción 92 para el almacenamiento del dispositivo de visualización portátil 12. Los sensores>68<también pueden detectar la desconexión del dispositivo de visualización portátil>12<del usuario (por ejemplo, quitado de la cabeza) o la ausencia de movimiento del dispositivo de visualización portátil>12<y correlacionar esta retroalimentación>con un momento apropiado para realizar una comprobación de diagnóstico (por ejemplo, ejecutar automáticamente la comprobación de diagnóstico).
La figura 4 es un diagrama de flujo de un método 120 para probar un sistema de visualización portátil 10 antes del inicio de un viaje. Los métodos divulgados en la presente memoria incluyen varios pasos representados por bloques. Debe señalarse que al menos algunos pasos de los métodos pueden realizarse como un procedimiento automatizado mediante un sistema, tal como mediante el sistema informático 28. Aunque los diagramas de flujo ilustran los pasos en una secuencia determinada, debe entenderse que los pasos pueden realizarse en cualquier orden adecuado y ciertos pasos pueden llevarse a cabo simultáneamente, cuando sea apropiado. Adicionalmente, se pueden agregar u omitir pasos en los métodos.
El método 120 comienza determinando si el dispositivo de visualización portátil 12 no está en uso, paso 122. Como<se explicó anteriormente, el sistema informático 28 puede recibir retroalimentación desde uno o más sensores>68<. La retroalimentación desde los sensores>68<permite que el sistema informático 28 determine que el dispositivo de>visualización portátil 12 no está siendo utilizado por un usuario durante un viaje. Después de determinar que el<dispositivo de visualización portátil>12<no está en uso, el sistema informático 28 controla el dispositivo de visualización>portátil 12 para mostrar una imagen de prueba en las pantallas 20, paso 124. Las imágenes de prueba pueden ser una única imagen o una secuencia de imágenes que muestran uno o más patrones, colores, formas o combinaciones de los mismos. Las cámaras 38 capturan estas imágenes tal como se muestran en las pantallas 20 y transmiten las imágenes capturadas al sistema informático 28, paso 126. Después de capturar la imagen o las imágenes, el método 120 puede procesar la imagen o las imágenes capturadas, paso 127. Por ejemplo, las cámaras 38 pueden capturar<imágenes geométricamente distorsionadas, imágenes granuladas, reflejos débiles del entorno en las pantallas>20<,>entre otros. Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista desde el ángulo de la cámara 38 a imágenes que el usuario vería mirando directamente las pantallas 20. El sistema informático 28 puede, entonces, comparar la imagen capturada con la imagen de prueba (por ejemplo, imagen maestra) para determinar diferencias, paso 128. La comparación puede revelar una variedad de problemas con las pantallas 20. Por<ejemplo, la comparación puede revelar manchas en las pantallas>20<(a través de la detección de porciones borrosas de la imagen capturada), reducción del brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles atascados,>píxeles muertos), producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de<imágenes, alineación incorrecta entre las pantallas>20<, entre otros.>
Después de comparar las imágenes, el método 120 determina si la imagen capturada es la misma (por ejemplo, coincide, es sustancialmente similar a) la imagen de prueba, paso 130. Si la imagen capturada es la misma que la<imagen de prueba (por ejemplo, en respuesta a que las imágenes son las mismas), el método>120<genera una señal>de listo, paso 132. La señal de listo puede ser una señal visual (por ejemplo, luz verde fija o intermitente) y/o una señal<de audio generada en el dispositivo de visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador,>teléfono móvil, reloj) accesible para el operador de la atracción. En algunas realizaciones, si la imagen capturada es sustancialmente similar a (por ejemplo, dentro de un intervalo de una o más métricas; en respuesta a que la imagen capturada sea sustancialmente similar a) la imagen de prueba, el método 120 aún puede generar la señal de listo. Por ejemplo, si la imagen capturada está dentro de un umbral de diferencia de color, brillo, número de píxeles muertos,<borrosidad (por ejemplo, por manchas) o alguna combinación de los mismos, el método>120<seguirá generando aún>la señal de listo.
Si la imagen capturada no coincide con la imagen de prueba (por ejemplo, en respuesta a que la imagen capturada<no coincide con la imagen de prueba), el método>120<continúa calibrando el dispositivo de visualización portátil>12<,>paso 134. En algunas realizaciones, el método 120 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la coloración, el enfoque de la imagen, entre otros. El método 120 puede, entonces, repetir el proceso de mostrar la imagen de prueba (paso 124), capturar la imagen (paso 126) y comparar la imagen capturada con la imagen de prueba (paso 128). Si la imagen<capturada aún no coincide con la imagen de prueba, el método>120<puede continuar generando una señal de error,>paso 136. La señal de error puede ser una señal visual (por ejemplo, luz roja intermitente) y/o una señal de audio (por<ejemplo, solicitud para inspección) generada en el dispositivo de visualización portátil>12<o en otro dispositivo (por>ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el operador de la atracción. El operador de la atracción puede, entonces, inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen de prueba (por ejemplo, la imagen capturada indica que no se muestra una imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles son defectuosos) en el paso de comparación (130), el método 120 puede omitir el paso de calibración (paso 134) y en su lugar puede proceder a la paso de señal de error (paso 136).
La figura 5 es un diagrama de flujo de un método 160 para probar un sistema de visualización portátil 10 durante un viaje. El método 160 comienza detectando la ubicación del dispositivo de visualización portátil 12, paso 162. Por<ejemplo, la ubicación del dispositivo de visualización portátil>12<puede ser una ubicación física del dispositivo de>visualización portátil 12 a lo largo de un recorrido o pista de la atracción. La ubicación del dispositivo de visualización<portátil>12<se puede determinar usando uno o más sensores>68<en el dispositivo de visualización portátil>12<, sensores>que monitorizan una posición del vehículo de la atracción a lo largo del recorrido o pista de la atracción, u otros datos. Determinando la ubicación del dispositivo de visualización portátil 12 a lo largo del recorrido o pista, el sistema<informático 28 puede determinar qué objetos o escenas debería ver el usuario en las pantallas>20<del dispositivo de>visualización portátil 12. El método 160 también puede determinar la orientación del dispositivo de visualización portátil 12, paso 164. Durante el viaje, el usuario puede mirar en diferentes direcciones a medida que el usuario se adentra en el entorno RA/RV. Determinando la orientación del dispositivo de visualización portátil 12, el sistema informático 28<puede determinar qué porciones de escenas o qué objetos debería estar viendo el usuario en las pantallas>20<del>dispositivo de visualización portátil 12. La orientación del dispositivo de visualización portátil 12 puede determinarse<usando los sensores>68<descritos anteriormente.>
Después de determinar la posición y orientación del dispositivo de visualización portátil 12, el método 160 captura una<imagen o una serie de imágenes en las pantallas>20<del dispositivo de visualización portátil>12<usando una o más de>las cámaras 38, paso 166. Después de capturar la imagen o imágenes, el método 160 puede procesar la imagen o imágenes capturadas, paso 168. Por ejemplo, las cámaras 38 pueden capturar imágenes distorsionadas en las pantallas 20 debido al ángulo de las cámaras 38 con respecto a las pantallas 20. Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista desde el ángulo de la cámara 38 a imágenes que el usuario vería mirando directamente a las pantallas 20. No obstante, en algunas realizaciones, las imágenes pueden no procesarse para corregir estos tipos de distorsiones. Por ejemplo, el sistema informático 28 puede incluir ya imágenes maestras desde la perspectiva de la cámara lo que permite comparar las imágenes capturadas con estas imágenes maestras.
Para determinar si se está visualizando la imagen correcta, el método 160 compara la(s) imagen(es) capturada(s) con la(s) imagen(es) maestra(s), paso 170. Por lo tanto, el sistema informático 28 es capaz de determinar diferencias entre la(s) imagen(es) capturada(s) y la(s) imagen(es) maestra(s). La comparación puede revelar una variedad de<problemas, incluyendo manchas en las pantallas>20<(a través de la detección de porciones borrosas de las imágenes capturadas), reducción en el brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles atascados, píxeles>muertos), producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes,<alineación incorrecta de las características virtuales en las pantallas>20<con el entorno del mundo real visto a través>de las pantallas 20, entre otros. La(s) imagen(es) maestra(s) pueden determinarse o seleccionarse (por ejemplo, a partir de múltiples imágenes maestras, que pueden estar almacenadas en la memoria 36) basándose en (por ejemplo,<para corresponder a, ser correcta para) la posición y orientación del dispositivo de visualización portátil>12<.>
Después de comparar las imágenes, el método determina si la(s) imagen(es) capturada(s) es(son) igual(es) que (por ejemplo, coincide; es sustancialmente similar a) la(s) imagen(es) maestra(s), paso 172. Si la imagen capturada es la misma que la imagen maestra (por ejemplo, en respuesta a que las imágenes son las mismas), el método 160 comienza de nuevo (es decir, vuelve al paso 162). Por ejemplo, el método 160 puede repetirse a intervalos específicos durante el viaje. Estos intervalos pueden basarse en el tiempo y/o en la ubicación. Si la comparación determina que las imágenes no son las mismas (por ejemplo, en respuesta a determinar que las imágenes no son las mismas), el método 160 calibra las pantallas 20, paso 176. En algunas realizaciones, el método 160 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la temporización de la producción de imágenes si las imágenes no están sincronizadas con el tiempo y/o la ubicación en el viaje. El sistema informático 28 también puede ajustar la coloración de las imágenes para representar con precisión o más precisión la imagen deseada. Por ejemplo, si se reduce la capacidad de las pantallas 20 para generar luz azul, el sistema informático 28 puede reducir el brillo de la luz roja y la luz amarilla para reducir la distorsión de las imágenes debido a la reducción de la luz azul. En algunas realizaciones, si se detecta un píxel muerto cerca de<los bordes de la pantalla>20<, el sistema informático 28 puede reducir la imagen desactivando filas y/o columnas de píxeles alrededor del borde de las pantallas>20<para impedir que el usuario vea un píxel muerto rodeado de píxeles>activos en funcionamiento.
Después de calibrar el dispositivo de visualización portátil 12 (paso 176), el método 160 puede volver al paso 162 para verificar que el dispositivo de visualización portátil 12 muestra ahora las imágenes correctamente. Si la imagen sigue siendo incorrecta (por ejemplo, en respuesta a que la imagen capturada es diferente de la imagen maestra), el método 160 puede, entonces, producir una señal de error, paso 174. La señal de error puede ser una señal visual (por ejemplo, una luz roja intermitente) y/o una señal de audio (por ejemplo, solicitud de inspección) generada en el dispositivo de<visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el>operador de la atracción. Entonces, el operador de la atracción puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen maestra (por ejemplo, la imagen capturada indica que no se muestra ninguna imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles<son defectuosos, que la imagen virtual en las pantallas>20<no se alinea correctamente con el entorno del mundo real>visto a través de las pantallas 20) en el paso de comparación (172), el método 160 puede omitir el paso de calibración (paso 176) y en su lugar puede proceder al paso de señal de error (paso 174).
<La figura>6<es un diagrama de flujo de un método 200 para probar un sistema de visualización portátil 10 durante un>viaje. El método 200 comienza detectando la ubicación del dispositivo de visualización portátil 12, paso 202. Por<ejemplo, la ubicación del dispositivo de visualización portátil>12<puede ser una ubicación física del dispositivo de>visualización portátil 12 a lo largo de un recorrido o pista de la atracción. La ubicación del dispositivo de visualización<portátil>12<se puede determinar usando uno o más sensores>68<en el dispositivo de visualización portátil>12<, sensores>que monitorizan una posición del vehículo de atracción a lo largo del recorrido o pista de la atracción, u otros datos. Determinando la ubicación del dispositivo de visualización portátil 12 a lo largo del recorrido o pista, el sistema<informático 28 puede determinar qué objetos o escenas debería ver el usuario en las pantallas>20<del dispositivo de>visualización portátil 12. El método 200 determina, entonces, la orientación del dispositivo de visualización portátil 12, paso 204. Durante el viaje, el usuario puede mirar en diferentes direcciones a medida que el usuario se adentra en el entorno RA/RV. Determinando la orientación del dispositivo de visualización portátil 12, el sistema informático 28 puede determinar qué porciones de escenas o qué objetos debería poder ver el usuario con el dispositivo de visualización portátil 12. La ubicación y/u orientación del dispositivo de visualización portátil 12 se puede determinar<usando los sensores>68<descritos anteriormente.>
Después de determinar la posición y orientación del dispositivo de visualización portátil 12, el método 200 captura una<imagen o una serie de imágenes en los ojos del usuario del dispositivo de visualización portátil>12<usando una o más>de las cámaras 38, paso 206. Después de capturar la imagen o las imágenes, el método 200 puede procesar la imagen o las imágenes, paso 208. Debido a que las cámaras 38 capturan imágenes en el ojo del usuario, las imágenes se distorsionan debido a la curvatura del ojo del usuario, el procesamiento también puede permitir la eliminación del ojo del usuario de la imagen (por ejemplo, pupila, vasos sanguíneos). Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista por la(s) cámara(s) 38 a las imágenes que el usuario está viendo en las<pantallas>20<.>
Para determinar si se está visualizando la imagen correcta, el método 200 compara la(s) imagen(es) capturada(s) con la(s) imagen(es) maestra(s), paso 210. De esta manera, el sistema informático 28 es capaz de determinar diferencias entre la(s) imagen(es) capturada(s) y la(s) imagen(es) maestra(s). La comparación puede revelar una variedad de<problemas, incluyendo manchas en las pantallas>20<(a través de la detección de porciones borrosas de la(s) imagen(es) capturada(s)), reducción en el brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles>atascados, píxeles muertos) , producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de<producción de imágenes, alineación incorrecta de las características virtuales en las pantallas>20<con el entorno del mundo real visto a través de las pantallas>20<, entre otros.>
Después de comparar las imágenes, el método 200 determina si la imagen capturada es la misma (por ejemplo, coincide; es sustancialmente similar a) que la(s) imagen(es) maestra(s), paso 212. Si la imagen capturada es la misma<que la(s) imagen(es) maestra(s) (por ejemplo, en respuesta a que las imágenes son las mismas), el método>200<vuelve>al inicio (es decir, vuelve al paso 202). Por ejemplo, el método 200 puede repetirse a intervalos específicos durante el viaje. Estos intervalos pueden basarse en el tiempo y/o en la ubicación. Si la comparación determina que las imágenes<no son las mimas (por ejemplo, en respuesta a determinar que las imágenes no son las mimas), el método>200<calibra>las pantallas 20, paso 216. En algunas realizaciones, el método 200 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la temporización de la producción de imágenes si las imágenes no están sincronizadas con el tiempo y/o la ubicación en el recorrido. El sistema informático 28 también puede ajustar la coloración de las imágenes para representar con precisión o más precisión la imagen deseada. Por ejemplo, si se reduce la capacidad de las pantallas 20 para generar luz azul, el sistema informático 28 puede reducir el brillo de la luz roja y la luz amarilla para reducir la distorsión de las imágenes debido a la reducción de la luz azul. Después de calibrar el dispositivo de visualización portátil 12 (paso 134), el método 200 puede volver al paso 202 para verificar que el dispositivo de visualización portátil 12 ahora está mostrando las imágenes correctamente. Después de pasar por los pasos del método 200 y las imágenes todavía son<incorrectas (por ejemplo, en respuesta a que la imagen capturada es diferente de la imagen maestra), el método>200 puede producir, entonces, una señal de error, paso 214. La señal de error puede ser una señal visual (por ejemplo, luz roja intermitente) y/o una señal de audio (por ejemplo, solicitud de inspección) generada en el dispositivo de<visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el>operador de la atracción. Entonces, el operador de la atracción puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen maestra (por ejemplo, la imagen capturada indica que no se muestra ninguna imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles<son defectuosos, que la imagen virtual en las pantallas>20<no se alinea correctamente con el entorno del mundo real visto a través de las pantallas>20<) en el paso de comparación (>212<), el método>200<puede omitir el paso de calibración>(paso 216) y en su lugar puede proceder al paso de señal de error (paso 214).
En algunas realizaciones, el sistema informático 28 puede recopilar datos después de realizar los métodos descritos anteriormente en las figuras 4-6 para permitir el mantenimiento preventivo de los dispositivos de visualización portátiles 12 (por ejemplo, limpieza, reacondicionamiento). En otras palabras, el sistema informático 28 puede medir el tiempo<hasta el fallo recopilando datos sobre el funcionamiento de los dispositivos de visualización portátiles>12<utilizando la>retroalimentación desde las cámaras 38. Por ejemplo, el sistema informático 28 puede realizar un seguimiento de la disminución gradual del brillo de las pantallas 20 en el tiempo. Esto puede permitir la programación proactiva de reacondicionamiento o reemplazo de los dispositivos 20 antes de que fallen en un viaje. En otra realización, el sistema<informático 28 puede determinar con qué frecuencia se deben limpiar las pantallas>20<determinando después de cuántos usos de los dispositivos de visualización portátiles>12<las manchas acumuladas afectan significativamente la>percepción del usuario. De esta manera, el sistema informático 28 puede usar la retroalimentación a lo largo del tiempo desde las cámaras 38 para determinar el tiempo hasta el fallo o las necesidades de mantenimiento preventivo para una variedad de componentes (por ejemplo, cables, pantallas) de los dispositivos de visualización portátiles 12. En<algunas realizaciones, se pueden rastrear múltiples dispositivos de visualización portátiles>12<con una interfaz o una>aplicación que proporciona datos fácilmente accesibles a un operador de la atracción.
Como se expuso anteriormente, las realizaciones de la presente divulgación pueden proporcionar uno o más efectos técnicos útiles para detectar el mal funcionamiento de un dispositivo de visualización portátil. Debe entenderse que los efectos técnicos y los problemas técnicos en la memoria son ejemplos y no son limitativos. De hecho, debe señalarse que las realizaciones descritas en la memoria pueden tener otros efectos técnicos y pueden resolver otros problemas técnicos.
Si bien las realizaciones expuestas en la presente divulgación pueden ser susceptibles a diversas modificaciones y formas alternativas, se han mostrado realizaciones específicas a modo de ejemplo en los dibujos y se han descrito en detalle en la presente memoria. _No obstante, debe entenderse que la divulgación no pretende limitarse a las formas particulares divulgadas. La invención se define en las reivindicaciones adjuntas.

Claims (15)

REIVINDICACIONES
1. Un sistema de visualización portátil (10), que comprende: un dispositivo de visualización portátil (12), en donde el<dispositivo de visualización portátil (>12<) es una pantalla montada en la cabeza, comprendiendo el dispositivo de visualización portátil (>12<):>
una carcasa (18);
<una pantalla (>20<) acoplada a la carcasa (18) y configurada para mostrar una imagen a un usuario;>una cámara (38) acoplada a la carcasa (18) y configurada para capturar la imagen, en donde la cámara (38)<está orientada hacia delante en una dirección (60) hacia la pantalla (>20<); y>
un sistema informático (28) configurado para recibir la imagen desde la cámara (38) y detectar problemas de visualización comparando continua o repetidamente la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra.
2. El sistema de visualización portátil (10) de la reivindicación 1, en donde el sistema informático (28) está configurado<para controlar la pantalla (>20<) en respuesta a la comparación entre la imagen y la imagen maestra.>
3. El sistema de visualización portátil (10) de la reivindicación 1, que comprende una cámara adicional (38), en donde la cámara adicional (38) está orientada en una dirección (62) que se aleja de la pantalla (20) y la cámara adicional (38) está configurada para capturar la imagen en un ojo del usuario.
4. El sistema de visualización portátil (10) de la reivindicación 3, en donde el sistema informático (28) está configurado para procesar la imagen para eliminar los efectos distorsionadores de la curvatura del ojo y la imagen del ojo.
5. El sistema de visualización portátil (10) de la reivindicación 1, en donde el dispositivo de visualización portátil (12)<comprende uno o más sensores (>68<).>
6<. El sistema de visualización portátil (10) de la reivindicación 5, en donde el dispositivo de visualización portátil (12) está configurado para utilizar la retroalimentación desde los uno o más sensores (>68<) para determinar la imagen>maestra.
<7. El sistema de visualización portátil (10) de la reivindicación 5, en donde los uno o más sensores (>68<) incluyen un>sensor de orientación configurado para hacer seguimiento de una orientación del dispositivo de visualización portátil<(>12<).>
8<. El sistema de visualización portátil (10) de la reivindicación 1, en donde la imagen es una imagen de prueba que>comprende uno o más patrones.
9. Un método (160) de detectar problemas de visualización en un sistema de visualización portátil (10) que comprende<un dispositivo de visualización portátil (>12<), en donde el dispositivo de visualización portátil (>12<) es una pantalla>montada en la cabeza, comprendiendo el método (160):
detectar (164) con un sistema informático (28) una orientación del dispositivo de visualización portátil (12); capturar (166), con una cámara (38) del dispositivo de visualización portátil (12), una imagen producida en una pantalla (20) del dispositivo de visualización portátil (12), en donde la cámara (38) está acoplada a una<carcasa (18) del dispositivo de visualización portátil (>12<) y configurada para capturar la imagen, en donde la>cámara (38) está orientada hacia delante en una dirección (60) hacia la pantalla (20);
determinar con el sistema informático (28) una imagen maestra en respuesta a la orientación del dispositivo<de visualización portátil (>12<); y>
detectar con el sistema informático (28) problemas de visualización comparando continua o repetidamente (170) la imagen con la imagen maestra para determinar si la imagen coincide con la imagen maestra.
10. El método (160) de la reivindicación 9, que comprende determinar (162) con el sistema informático (28) una<ubicación del dispositivo de visualización portátil (>12<).>
11. El método (160) de la reivindicación 10, que determina con el sistema informático (28) la imagen maestra utilizando<la ubicación del dispositivo de visualización portátil (>12<).>
12. El método (160) de la reivindicación 9, que comprende controlar (176) con el sistema informático (28) la pantalla<(>20<) en respuesta a la comparación con el sistema informático (28) de la imagen con la imagen maestra.>
13. El método (160) de la reivindicación 9, en donde capturar con la cámara (38) la imagen producida por la pantalla (20) comprende capturar con la cámara (38) la imagen directamente desde la pantalla (20).
14. El método de la reivindicación 9, en donde la imagen es una imagen de prueba.
15. El método de la reivindicación 14, que comprende controlar con el sistema informático (28) la pantalla (20) en respuesta a determinar con el sistema informático (28) que la imagen de prueba no coincide con la imagen maestra.
ES20704668T 2019-01-11 2020-01-10 Sistema y método de visualización portátil Active ES2966264T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962791735P 2019-01-11 2019-01-11
US16/738,788 US11200655B2 (en) 2019-01-11 2020-01-09 Wearable visualization system and method
PCT/US2020/013165 WO2020146785A1 (en) 2019-01-11 2020-01-10 Wearable visualization system and method

Publications (1)

Publication Number Publication Date
ES2966264T3 true ES2966264T3 (es) 2024-04-19

Family

ID=71516768

Family Applications (1)

Application Number Title Priority Date Filing Date
ES20704668T Active ES2966264T3 (es) 2019-01-11 2020-01-10 Sistema y método de visualización portátil

Country Status (9)

Country Link
US (3) US11200656B2 (es)
EP (3) EP3908381A1 (es)
JP (3) JP2022517775A (es)
KR (3) KR20210113641A (es)
CN (3) CN113226498A (es)
CA (3) CA3125224A1 (es)
ES (1) ES2966264T3 (es)
SG (3) SG11202106742XA (es)
WO (3) WO2020146780A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
US11077825B2 (en) * 2019-12-16 2021-08-03 Plusai Limited System and method for anti-tampering mechanism
US11754689B2 (en) 2019-12-16 2023-09-12 Plusai, Inc. System and method for detecting sensor adjustment need
US11738694B2 (en) 2019-12-16 2023-08-29 Plusai, Inc. System and method for anti-tampering sensor assembly
US11470265B2 (en) 2019-12-16 2022-10-11 Plusai, Inc. System and method for sensor system against glare and control thereof
US11650415B2 (en) 2019-12-16 2023-05-16 Plusai, Inc. System and method for a sensor protection mechanism
US11313704B2 (en) 2019-12-16 2022-04-26 Plusai, Inc. System and method for a sensor protection assembly
US11724669B2 (en) 2019-12-16 2023-08-15 Plusai, Inc. System and method for a sensor protection system
US11792500B2 (en) * 2020-03-18 2023-10-17 Snap Inc. Eyewear determining facial expressions using muscle sensors
US11774770B2 (en) 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
US20220026723A1 (en) * 2020-07-24 2022-01-27 Universal City Studios Llc Electromagnetic coupling systems and methods for visualization device
US11803063B2 (en) * 2020-08-18 2023-10-31 Universal City Studios Llc Tether actuation systems and methods for visualization device
CN115244920A (zh) * 2020-12-11 2022-10-25 Jvc建伍株式会社 头戴式显示器及其调整方法
US20220328571A1 (en) * 2021-04-08 2022-10-13 Semiconductor Energy Laboratory Co., Ltd. Display apparatus and electronic device
US11772667B1 (en) 2022-06-08 2023-10-03 Plusai, Inc. Operating a vehicle in response to detecting a faulty sensor using calibration parameters of the sensor

Family Cites Families (273)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7355807B2 (en) * 2006-04-28 2008-04-08 Hewlett-Packard Development Company, L.P. Hard disk drive protection system and method
JP3672586B2 (ja) * 1994-03-24 2005-07-20 株式会社半導体エネルギー研究所 補正システムおよびその動作方法
TW290678B (es) * 1994-12-22 1996-11-11 Handotai Energy Kenkyusho Kk
KR100189178B1 (ko) * 1995-05-19 1999-06-01 오우라 히로시 패널 화질 검사 장치 및 화질 보정 방법
US6259565B1 (en) 1996-11-19 2001-07-10 Sony Corporation Display apparatus
JPH11143379A (ja) * 1997-09-03 1999-05-28 Semiconductor Energy Lab Co Ltd 半導体表示装置補正システムおよび半導体表示装置の補正方法
JP3854763B2 (ja) 1999-11-19 2006-12-06 キヤノン株式会社 画像表示装置
JP3583684B2 (ja) * 2000-01-12 2004-11-04 シャープ株式会社 画像欠陥検出装置および画像欠陥検出方法
US7734101B2 (en) * 2000-10-11 2010-06-08 The United States Of America As Represented By The Secretary Of The Army Apparatus and system for testing an image produced by a helmet-mounted display
US7129975B2 (en) * 2001-02-07 2006-10-31 Dialog Imaging System Gmbh Addressable imager with real time defect detection and substitution
GB0121067D0 (en) * 2001-08-31 2001-10-24 Ibm Drop detection device
US7012756B2 (en) 2001-11-14 2006-03-14 Canon Kabushiki Kaisha Display optical system, image display apparatus, image taking optical system, and image taking apparatus
US7019909B2 (en) 2001-11-14 2006-03-28 Canon Kabushiki Kaisha Optical system, image display apparatus, and image taking apparatus
US20030215129A1 (en) * 2002-05-15 2003-11-20 Three-Five Systems, Inc. Testing liquid crystal microdisplays
US7495638B2 (en) 2003-05-13 2009-02-24 Research Triangle Institute Visual display with increased field of view
JP2005091219A (ja) * 2003-09-18 2005-04-07 Tokyo Electron Ltd 落下検知装置又は異常検知装置と該装置を有する携帯機器
US20160098095A1 (en) 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US7059182B1 (en) * 2004-03-03 2006-06-13 Gary Dean Ragner Active impact protection system
ITTO20040436A1 (it) 2004-06-28 2004-09-28 St Microelectronics Srl Dispositivo di rilevamento di caduta libera per la protezione di apparecchi portatili.
JP4965800B2 (ja) 2004-10-01 2012-07-04 キヤノン株式会社 画像表示システム
KR100618866B1 (ko) 2004-10-02 2006-08-31 삼성전자주식회사 전자기기의 자유 낙하 검출방법 및 장치
US7350394B1 (en) 2004-12-03 2008-04-01 Maxtor Corporation Zero-g offset identification of an accelerometer employed in a hard disk drive
US7639260B2 (en) * 2004-12-15 2009-12-29 Xerox Corporation Camera-based system for calibrating color displays
TWI255342B (en) * 2005-02-04 2006-05-21 Benq Corp Portable electronic device with an impact-detecting function
JP4364157B2 (ja) * 2005-04-22 2009-11-11 トレックス・セミコンダクター株式会社 落下検出装置
US20060250322A1 (en) 2005-05-09 2006-11-09 Optics 1, Inc. Dynamic vergence and focus control for head-mounted displays
US7364306B2 (en) * 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
WO2007000178A1 (de) * 2005-06-29 2007-01-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur verzerrungsfreien darstellung
KR100723494B1 (ko) * 2005-07-23 2007-06-04 삼성전자주식회사 모바일 기기의 자유 낙하 검출 방법, 이에 적합한 장치,그리고 이에 적합한 기록매체
KR100630762B1 (ko) 2005-08-26 2006-10-04 삼성전자주식회사 디스크 드라이브의 자유 낙하 검출 방법 및 그 장치
JP2007264088A (ja) * 2006-03-27 2007-10-11 Funai Electric Co Ltd 表示装置、焼き付き補正システム及び焼き付き補正方法
US7477469B2 (en) * 2006-04-27 2009-01-13 Seagate Technology Llc Active protection system
KR100818984B1 (ko) * 2006-08-01 2008-04-04 삼성전자주식회사 영상 보정 시스템 및 그 동작 방법
US8406562B2 (en) * 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
JP2010002181A (ja) 2006-10-06 2010-01-07 T & D:Kk 落下を記録するための装置および方法
US8212859B2 (en) 2006-10-13 2012-07-03 Apple Inc. Peripheral treatment for head-mounted displays
US9667954B2 (en) 2006-10-13 2017-05-30 Apple Inc. Enhanced image display in head-mounted displays
CN101711401B (zh) * 2007-04-19 2014-03-12 皇家飞利浦电子股份有限公司 跌倒检测系统
JP5603597B2 (ja) * 2007-09-21 2014-10-08 株式会社村田製作所 落下検知装置、磁気ディスク装置および携帯電子機器
KR100920225B1 (ko) * 2007-12-17 2009-10-05 한국전자통신연구원 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치
GB2468997A (en) 2008-01-22 2010-09-29 Univ Arizona State Head-mounted projection display using reflective microdisplays
US8025581B2 (en) 2008-05-09 2011-09-27 Disney Enterprises, Inc. Interactive interface mounting assembly for amusement and theme park rides
CN102099859B (zh) * 2008-07-23 2015-04-15 株式会社村田制作所 下落检测装置、磁盘装置、以及便携式电子设备
CN101382559A (zh) * 2008-09-04 2009-03-11 宇龙计算机通信科技(深圳)有限公司 一种移动终端及物体的掉落报警方法和装置
CN101377918B (zh) * 2008-09-19 2013-02-27 李鑫 一种电子显示屏系统、电子显示屏亮度校正方法及系统
US8061182B2 (en) * 2009-06-22 2011-11-22 Research In Motion Limited Portable electronic device and method of measuring drop impact at the portable electronic device
JP2011077960A (ja) * 2009-09-30 2011-04-14 Brother Industries Ltd ヘッドマウントディスプレイ
CN102667882B (zh) * 2009-11-25 2014-08-06 皇家飞利浦电子股份有限公司 用于检测用户跌倒的方法和装置
US8330305B2 (en) * 2010-02-11 2012-12-11 Amazon Technologies, Inc. Protecting devices from impact damage
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US8964298B2 (en) 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
JP5499854B2 (ja) 2010-04-08 2014-05-21 ソニー株式会社 頭部装着型ディスプレイにおける光学的位置調整方法
US10031576B2 (en) * 2010-06-09 2018-07-24 Dynavox Systems Llc Speech generation device with a head mounted display unit
US8941559B2 (en) 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
WO2012040386A1 (en) 2010-09-21 2012-03-29 4Iiii Innovations Inc. Head-mounted peripheral vision display systems and methods
US10359545B2 (en) 2010-10-21 2019-07-23 Lockheed Martin Corporation Fresnel lens with reduced draft facet visibility
IT1403374B1 (it) * 2010-10-29 2013-10-17 Bosco System Lab S P A Apparato per la trasmissione di vibrazioni localizzate, in particolare a muscoli di un utilizzatore .
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US8694251B2 (en) * 2010-11-25 2014-04-08 Texas Instruments Incorporated Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems
JP2012141461A (ja) 2010-12-29 2012-07-26 Sony Corp ヘッド・マウント・ディスプレイ
CN103503025B (zh) * 2011-02-25 2016-09-07 弗劳恩霍夫应用研究促进协会 基于对对象的模型进行变换来确定模型参数
US9183811B2 (en) * 2011-04-01 2015-11-10 Sharp Kabushiki Kaisha Method of correcting unevenness of display panel and correction system
JP5790187B2 (ja) 2011-06-16 2015-10-07 ソニー株式会社 表示装置
US9638711B2 (en) * 2011-06-17 2017-05-02 Verizon Telematics Inc. Method and system for discerning a false positive in a fall detection signal
CN102231016B (zh) * 2011-06-28 2013-03-20 青岛海信电器股份有限公司 一种液晶模组亮度补偿方法、装置和系统
WO2013000075A1 (en) 2011-06-29 2013-01-03 Recon Instruments Inc. Modular heads-up display systems
AU2011204946C1 (en) 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
US9638836B1 (en) 2011-08-17 2017-05-02 Lockheed Martin Corporation Lenses having astigmatism correcting inside reflective surface
US9342610B2 (en) 2011-08-25 2016-05-17 Microsoft Technology Licensing, Llc Portals: registered objects as virtualized, personalized displays
US9402568B2 (en) 2011-08-29 2016-08-02 Verizon Telematics Inc. Method and system for detecting a fall based on comparing data to criteria derived from multiple fall data sets
WO2013040493A1 (en) * 2011-09-16 2013-03-21 Qualcomm Incorporated Detecting that a mobile device is riding with a vehicle
US9342108B2 (en) * 2011-09-16 2016-05-17 Apple Inc. Protecting an electronic device
US9285871B2 (en) 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Personal audio/visual system for providing an adaptable augmented reality environment
US8866870B1 (en) 2011-10-20 2014-10-21 Lockheed Martin Corporation Methods, apparatus, and systems for controlling from a first location a laser at a second location
US8610781B2 (en) * 2011-11-02 2013-12-17 Stmicroelectronics, Inc. System and method for light compensation in a video panel display
JP5979507B2 (ja) 2011-11-24 2016-08-24 パナソニックIpマネジメント株式会社 頭部装着型ディスプレイ装置
US20130137076A1 (en) 2011-11-30 2013-05-30 Kathryn Stone Perez Head-mounted display based education and instruction
US20130141419A1 (en) 2011-12-01 2013-06-06 Brian Mount Augmented reality with realistic occlusion
US8705177B1 (en) 2011-12-05 2014-04-22 Google Inc. Integrated near-to-eye display module
US20150312561A1 (en) 2011-12-06 2015-10-29 Microsoft Technology Licensing, Llc Virtual 3d monitor
CN102402005B (zh) 2011-12-06 2015-11-25 北京理工大学 自由曲面双焦面单目立体头盔显示器装置
US9497501B2 (en) 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9451915B1 (en) * 2012-02-29 2016-09-27 Google Inc. Performance of a diagnostic procedure using a wearable computing device
CN102610056B (zh) * 2012-03-16 2013-09-04 清华大学 面向手机佩戴方式的跌倒事件检测系统和方法
WO2013148747A1 (en) * 2012-03-27 2013-10-03 Vitaly Grossman Wheeled platform powered by a cargo tracked vehicle and method for propulsion control thereof
US9454007B1 (en) 2012-05-07 2016-09-27 Lockheed Martin Corporation Free-space lens design and lenses therefrom
US9146397B2 (en) * 2012-05-30 2015-09-29 Microsoft Technology Licensing, Llc Customized see-through, electronic display device
US9253524B2 (en) 2012-07-20 2016-02-02 Intel Corporation Selective post-processing of decoded video frames based on focus point determination
WO2014017348A1 (ja) * 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
US9088787B1 (en) 2012-08-13 2015-07-21 Lockheed Martin Corporation System, method and computer software product for providing visual remote assistance through computing systems
US10073201B2 (en) 2012-10-26 2018-09-11 Qualcomm Incorporated See through near-eye display
US20140146394A1 (en) 2012-11-28 2014-05-29 Nigel David Tout Peripheral display for a near-eye display device
US8867139B2 (en) 2012-11-30 2014-10-21 Google Inc. Dual axis internal optical beam tilt for eyepiece of an HMD
US20140168264A1 (en) 2012-12-19 2014-06-19 Lockheed Martin Corporation System, method and computer program product for real-time alignment of an augmented reality device
US20140188426A1 (en) 2012-12-27 2014-07-03 Steven FASTERT Monitoring hit count for impact events
CA2896985A1 (en) 2013-01-03 2014-07-10 Meta Company Extramissive spatial imaging digital eye glass for virtual or augmediated vision
US9788714B2 (en) 2014-07-08 2017-10-17 Iarmourholdings, Inc. Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance
US20140253702A1 (en) * 2013-03-10 2014-09-11 OrCam Technologies, Ltd. Apparatus and method for executing system commands based on captured image data
US9432492B2 (en) * 2013-03-11 2016-08-30 Apple Inc. Drop countermeasures for electronic device
US9519144B2 (en) 2013-05-17 2016-12-13 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display having a defect
US9582922B2 (en) 2013-05-17 2017-02-28 Nvidia Corporation System, method, and computer program product to produce images for a near-eye light field display
JP2014238731A (ja) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
US10905943B2 (en) 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
US10137361B2 (en) 2013-06-07 2018-11-27 Sony Interactive Entertainment America Llc Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20150003819A1 (en) 2013-06-28 2015-01-01 Nathan Ackerman Camera auto-focus based on eye gaze
US9152022B2 (en) * 2013-07-11 2015-10-06 Intel Corporation Techniques for adjusting a projected image
US9264702B2 (en) * 2013-08-19 2016-02-16 Qualcomm Incorporated Automatic calibration of scene camera for optical see-through head mounted display
JP6237000B2 (ja) 2013-08-29 2017-11-29 セイコーエプソン株式会社 頭部装着型表示装置
CN103472257A (zh) * 2013-09-12 2013-12-25 天津三星通信技术研究有限公司 一种便携式终端加速度的检测方法及其检测系统
WO2015051660A1 (zh) 2013-10-13 2015-04-16 北京蚁视科技有限公司 头戴式立体显示器
US9569886B2 (en) 2013-12-19 2017-02-14 Intel Corporation Variable shading
US9319622B2 (en) * 2014-01-09 2016-04-19 International Business Machines Corporation Video projector with automated image enhancement
US9696552B1 (en) 2014-01-10 2017-07-04 Lockheed Martin Corporation System and method for providing an augmented reality lightweight clip-on wearable device
US9310610B2 (en) 2014-01-21 2016-04-12 Osterhout Group, Inc. See-through computer display systems
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9389423B2 (en) 2014-03-11 2016-07-12 Google Inc. Head wearable display with adjustable transparency
US9037125B1 (en) * 2014-04-07 2015-05-19 Google Inc. Detecting driving with a wearable computing device
US9715257B2 (en) * 2014-04-18 2017-07-25 Apple Inc. Active screen protection for electronic device
JP2015228050A (ja) 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
US9360671B1 (en) 2014-06-09 2016-06-07 Google Inc. Systems and methods for image zoom
AU2015303267A1 (en) 2014-08-11 2016-07-07 Vr Coaster Gmbh & Co. Kg Method for operating a device, in particular an amusement ride, transport means, a fitness device or similar
US9690375B2 (en) 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
US10261579B2 (en) 2014-09-01 2019-04-16 Samsung Electronics Co., Ltd. Head-mounted display apparatus
KR102230076B1 (ko) 2014-09-01 2021-03-19 삼성전자 주식회사 헤드 마운트 디스플레이 장치
US20160093230A1 (en) 2014-09-30 2016-03-31 Lockheed Martin Corporation Domeless simulator
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US20160097929A1 (en) 2014-10-01 2016-04-07 Dawson Yee See-through display optic structure
US20160097930A1 (en) 2014-10-06 2016-04-07 Steven John Robbins Microdisplay optical system having two microlens arrays
WO2016061447A1 (en) 2014-10-17 2016-04-21 Lockheed Martin Corporation Head-wearable ultra-wide field of view display device
CN110058414B (zh) 2014-10-24 2021-10-12 埃马金公司 基于微显示器的沉浸式头戴视图器
US10057968B2 (en) 2014-11-18 2018-08-21 Meta Company Wide field of view head mounted display apparatuses, methods and systems
US10495884B2 (en) 2014-12-14 2019-12-03 Elbit Systems Ltd. Visual perception enhancement of displayed color symbology
US9581819B1 (en) 2014-12-17 2017-02-28 Lockheed Martin Corporation See-through augmented reality system
WO2016105521A1 (en) 2014-12-23 2016-06-30 Meta Company Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest
EP3237953A1 (en) 2014-12-26 2017-11-01 CY Vision Inc. Near-to-eye display device with variable resolution
US10108832B2 (en) 2014-12-30 2018-10-23 Hand Held Products, Inc. Augmented reality vision barcode scanning system and method
EP3243557B1 (en) 2015-01-05 2020-03-04 Sony Corporation Information processing device, information processing method, and program
KR102261876B1 (ko) * 2015-01-06 2021-06-07 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
US10740971B2 (en) 2015-01-20 2020-08-11 Microsoft Technology Licensing, Llc Augmented reality field of view object follower
WO2016126672A1 (en) * 2015-02-02 2016-08-11 Brian Mullins Head mounted display calibration
WO2016130941A1 (en) 2015-02-12 2016-08-18 Google Inc. Combining a high resolution narrow field display and a mid resolution wide field display
WO2016141054A1 (en) 2015-03-02 2016-09-09 Lockheed Martin Corporation Wearable display system
US9726885B2 (en) * 2015-03-31 2017-08-08 Timothy A. Cummings System for virtual display and method of use
US9690374B2 (en) 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US10038887B2 (en) 2015-05-27 2018-07-31 Google Llc Capture and render of panoramic virtual reality content
US20170363949A1 (en) 2015-05-27 2017-12-21 Google Inc Multi-tier camera rig for stereoscopic image capture
US9877016B2 (en) 2015-05-27 2018-01-23 Google Llc Omnistereo capture and render of panoramic virtual reality content
US10366534B2 (en) 2015-06-10 2019-07-30 Microsoft Technology Licensing, Llc Selective surface mesh regeneration for 3-dimensional renderings
US9638921B2 (en) 2015-06-11 2017-05-02 Oculus Vr, Llc Strap system for head-mounted displays
US9977493B2 (en) 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
WO2016209941A1 (en) 2015-06-23 2016-12-29 Google Inc. Head mounted display device with dual curved displays
CA2991644C (en) 2015-07-06 2022-03-01 Frank Jones Methods and devices for demountable head mounted displays
US9454010B1 (en) 2015-08-07 2016-09-27 Ariadne's Thread (Usa), Inc. Wide field-of-view head mounted display system
US9606362B2 (en) 2015-08-07 2017-03-28 Ariadne's Thread (Usa), Inc. Peripheral field-of-view illumination system for a head mounted display
JP6565465B2 (ja) * 2015-08-12 2019-08-28 セイコーエプソン株式会社 画像表示装置、コンピュータープログラム、および画像表示システム
US10169917B2 (en) 2015-08-20 2019-01-01 Microsoft Technology Licensing, Llc Augmented reality
US10235808B2 (en) 2015-08-20 2019-03-19 Microsoft Technology Licensing, Llc Communication system
US20170053445A1 (en) 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Augmented Reality
CN105139596A (zh) * 2015-09-15 2015-12-09 广东小天才科技有限公司 一种基于可穿戴设备进行脱落提醒的方法和系统
US10565446B2 (en) * 2015-09-24 2020-02-18 Tobii Ab Eye-tracking enabled wearable devices
KR102411738B1 (ko) * 2015-09-25 2022-06-21 삼성전자 주식회사 낙상 감지 장치 및 그 제어방법
US10082865B1 (en) * 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
CN108139803B (zh) * 2015-10-08 2021-04-20 Pcms控股公司 用于动态显示器配置的自动校准的方法及系统
EP3360001B1 (en) 2015-10-08 2023-11-15 LG Electronics Inc. Head mount display device
US10088685B1 (en) 2015-10-19 2018-10-02 Meta Company Apparatuses, methods and systems for multiple focal distance display
US10754156B2 (en) 2015-10-20 2020-08-25 Lockheed Martin Corporation Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system
US20170116950A1 (en) 2015-10-22 2017-04-27 Google Inc. Liquid crystal display with variable drive voltage
US9741125B2 (en) 2015-10-28 2017-08-22 Intel Corporation Method and system of background-foreground segmentation for image processing
CN105389957B (zh) * 2015-10-29 2017-12-29 小米科技有限责任公司 可穿戴设备的通信方法、装置及系统
CN105208219A (zh) * 2015-10-30 2015-12-30 努比亚技术有限公司 一种移动终端跌落提醒的方法及装置
CN113358045A (zh) 2015-11-04 2021-09-07 奇跃公司 光场显示度量
US10001683B2 (en) 2015-11-06 2018-06-19 Microsoft Technology Licensing, Llc Low-profile microdisplay module
USD812612S1 (en) 2015-11-18 2018-03-13 Meta Company Optical head mounted display with transparent visor
US10424117B2 (en) * 2015-12-02 2019-09-24 Seiko Epson Corporation Controlling a display of a head-mounted display device
US10173588B2 (en) * 2015-12-04 2019-01-08 Karl Lenker Systems and methods for motorbike collision avoidance
US10445860B2 (en) * 2015-12-08 2019-10-15 Facebook Technologies, Llc Autofocus virtual reality headset
US9763342B2 (en) 2015-12-09 2017-09-12 Oculus Vr, Llc Cable retention assembly for a head mounted display
US10147235B2 (en) 2015-12-10 2018-12-04 Microsoft Technology Licensing, Llc AR display with adjustable stereo overlap zone
US20170176747A1 (en) 2015-12-21 2017-06-22 Tuomas Heikki Sakari Vallius Multi-Pupil Display System for Head-Mounted Display Device
US10229540B2 (en) 2015-12-22 2019-03-12 Google Llc Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image
US20170188021A1 (en) 2015-12-24 2017-06-29 Meta Company Optical engine for creating wide-field of view fovea-based display
WO2017120271A1 (en) 2016-01-04 2017-07-13 Meta Company Apparatuses, methods and systems for application of forces within a 3d virtual environment
WO2017120552A1 (en) 2016-01-06 2017-07-13 Meta Company Apparatuses, methods and systems for pre-warping images for a display system with a distorting optical component
IL301884A (en) * 2016-01-19 2023-06-01 Magic Leap Inc Augmented reality systems and methods that use reflections
EP3347811A1 (en) 2016-01-21 2018-07-18 Google LLC Global command interface for a hybrid display, corresponding method, and head mounted display
US10229541B2 (en) 2016-01-28 2019-03-12 Sony Interactive Entertainment America Llc Methods and systems for navigation within virtual reality space using head mounted display
US10209785B2 (en) 2016-02-02 2019-02-19 Microsoft Technology Licensing, Llc Volatility based cursor tethering
US11112266B2 (en) 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
USD776111S1 (en) 2016-02-15 2017-01-10 Meta Company Forehead pad
USD776110S1 (en) 2016-02-15 2017-01-10 Meta Company Head-mounted display
WO2017142977A1 (en) 2016-02-15 2017-08-24 Meta Company Apparatuses, methods and systems for tethering 3-d virtual elements to digital content
US10169922B2 (en) 2016-02-16 2019-01-01 Microsoft Technology Licensing, Llc Reality mixer for mixed reality
WO2017143303A1 (en) 2016-02-17 2017-08-24 Meta Company Apparatuses, methods and systems for sharing virtual elements
US10473933B2 (en) 2016-02-19 2019-11-12 Microsoft Technology Licensing, Llc Waveguide pupil relay
US9933624B1 (en) 2016-03-01 2018-04-03 Daryl White System and method for providing individualized virtual reality for an amusement attraction
US9778467B1 (en) 2016-03-01 2017-10-03 Daryl White Head mounted display
US9984510B1 (en) 2016-03-02 2018-05-29 Meta Company System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements
US9928661B1 (en) 2016-03-02 2018-03-27 Meta Company System and method for simulating user interaction with virtual objects in an interactive space
US10168768B1 (en) 2016-03-02 2019-01-01 Meta Company Systems and methods to facilitate interactions in an interactive space
US10212517B1 (en) 2016-03-02 2019-02-19 Meta Company Head-mounted display system with a surround sound system
US9964767B2 (en) 2016-03-03 2018-05-08 Google Llc Display with reflected LED micro-display panels
CN108781320B (zh) * 2016-03-14 2020-08-04 索诺瓦公司 具有丢失检测功能的无线身体佩戴式个人设备
KR102448919B1 (ko) 2016-03-16 2022-10-04 삼성디스플레이 주식회사 표시 장치
US10325229B2 (en) * 2016-03-16 2019-06-18 Triax Technologies, Inc. Wearable sensor for tracking worksite events including sensor removal
US10133345B2 (en) 2016-03-22 2018-11-20 Microsoft Technology Licensing, Llc Virtual-reality navigation
US10003726B2 (en) * 2016-03-25 2018-06-19 Microsoft Technology Licensing, Llc Illumination module for near eye-to-eye display system
US10175487B2 (en) 2016-03-29 2019-01-08 Microsoft Technology Licensing, Llc Peripheral display for head mounted display device
US9946074B2 (en) 2016-04-07 2018-04-17 Google Llc See-through curved eyepiece with patterned optical combiner
US20170305083A1 (en) 2016-04-26 2017-10-26 David A Smith Systems and methods for forming optical lenses with an undercut
US9965899B2 (en) 2016-04-28 2018-05-08 Verizon Patent And Licensing Inc. Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration
US20170323482A1 (en) * 2016-05-05 2017-11-09 Universal City Studios Llc Systems and methods for generating stereoscopic, augmented, and virtual reality images
US20170323416A1 (en) 2016-05-09 2017-11-09 Intel Corporation Processing image fragments from one frame in separate image processing pipes based on image analysis
US10186088B2 (en) 2016-05-13 2019-01-22 Meta Company System and method for managing interactive virtual frames for virtual objects in a virtual environment
US9990779B2 (en) 2016-05-13 2018-06-05 Meta Company System and method for modifying virtual objects in a virtual environment in response to user interactions
US10496156B2 (en) 2016-05-17 2019-12-03 Google Llc Techniques to change location of objects in a virtual/augmented reality system
US10502363B2 (en) 2016-05-17 2019-12-10 Occipital, Inc. Self-contained mixed reality head mounted display
US9983697B1 (en) 2016-05-18 2018-05-29 Meta Company System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US10151927B2 (en) 2016-05-31 2018-12-11 Falcon's Treehouse, Llc Virtual reality and augmented reality head set for ride vehicle
US9979956B1 (en) * 2016-06-09 2018-05-22 Oculus Vr, Llc Sharpness and blemish quality test subsystem for eyecup assemblies of head mounted displays
US10226204B2 (en) 2016-06-17 2019-03-12 Philips North America Llc Method for detecting and responding to falls by residents within a facility
US10075685B1 (en) * 2016-06-19 2018-09-11 Oculus Vr, Llc Virtual image distance test subsystem for eyecup assemblies of head mounted displays
US9773438B1 (en) 2016-06-29 2017-09-26 Meta Company System and method for providing views of virtual content in an augmented reality environment
CN109661194B (zh) 2016-07-14 2022-02-25 奇跃公司 使用角膜曲率的虹膜边界估计
US10614653B2 (en) * 2016-07-22 2020-04-07 Universal Entertainment Corporation Gaming machine including projection-type display screen
CN106019597A (zh) 2016-07-27 2016-10-12 北京小米移动软件有限公司 虚拟现实眼镜
CA3034088A1 (en) * 2016-08-17 2018-02-22 Racing Optics, Inc. Mobile device impact protection
AU2017316667B2 (en) * 2016-08-22 2022-01-27 Magic Leap, Inc. Multi-layer diffractive eyepiece
CN106154555B (zh) 2016-08-24 2020-08-21 北京小米移动软件有限公司 虚拟现实眼镜
CN106355828A (zh) * 2016-08-26 2017-01-25 深圳市沃特沃德股份有限公司 检测穿戴设备脱落的方法和装置
TWI622803B (zh) 2016-08-30 2018-05-01 廣達電腦股份有限公司 頭戴式顯示裝置
US10026231B1 (en) 2016-09-12 2018-07-17 Meta Company System and method for providing views of virtual content in an augmented reality environment
US9958951B1 (en) 2016-09-12 2018-05-01 Meta Company System and method for providing views of virtual content in an augmented reality environment
DE202017105948U1 (de) 2016-10-03 2018-03-07 Google LLC (n.d.Ges.d. Staates Delaware) Augmented-Reality- und/oder Virtual-Reality-Headset
US10425636B2 (en) * 2016-10-03 2019-09-24 Microsoft Technology Licensing, Llc Automatic detection and correction of binocular misalignment in a display device
US10334240B2 (en) * 2016-10-28 2019-06-25 Daqri, Llc Efficient augmented reality display calibration
US20180126116A1 (en) * 2016-11-07 2018-05-10 Blw Ip, Llc Integrated Stroboscopic Eyewear For Sensory Training
US10459236B2 (en) 2016-12-09 2019-10-29 Lg Electronics Inc. Head-mounted display device with earbud holder
US10805767B2 (en) * 2016-12-15 2020-10-13 Philips North America Llc Method for tracking the location of a resident within a facility
US10909895B2 (en) * 2016-12-20 2021-02-02 Sakai Display Products Corporation Correction system, display panel, display device, correction method, and storage medium
JP6215441B1 (ja) * 2016-12-27 2017-10-18 株式会社コロプラ 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
CA3049379A1 (en) * 2017-01-05 2018-07-12 Philipp K. Lang Improved accuracy of displayed virtual data with optical head mount displays for mixed reality
US10127727B1 (en) 2017-01-10 2018-11-13 Meta Company Systems and methods to provide an interactive environment over an expanded field-of-view
KR102623391B1 (ko) * 2017-01-10 2024-01-11 삼성전자주식회사 영상 출력 방법 및 이를 지원하는 전자 장치
US20180196262A1 (en) 2017-01-12 2018-07-12 Artavious Cage Virtual reality system
CN106652347A (zh) * 2017-01-24 2017-05-10 深圳前海零距物联网科技有限公司 智能头盔摔倒检测方法及智能头盔
CN106693338B (zh) * 2017-02-13 2022-04-19 中国航天员科研训练中心 视觉虚拟涌浪运动防护训练装置
WO2018154877A1 (ja) * 2017-02-24 2018-08-30 富士フイルム株式会社 付加情報表示装置、方法およびプログラム
US10785471B1 (en) * 2017-05-12 2020-09-22 Facebook Technologies, Llc Upsampling content for head-mounted displays
EP3625614A4 (en) 2017-05-18 2020-12-30 The Arizona Board of Regents on behalf of the University of Arizona MULTILAYER HEAD MOUNTED DISPLAY WITH HIGH DYNAMIC RANGE
GB2562758B (en) 2017-05-24 2021-05-12 Sony Interactive Entertainment Inc Input device and method
US10168789B1 (en) 2017-05-31 2019-01-01 Meta Company Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations
US10241545B1 (en) * 2017-06-01 2019-03-26 Facebook Technologies, Llc Dynamic distortion correction for optical compensation
US10277893B1 (en) * 2017-06-22 2019-04-30 Facebook Technologies, Llc Characterization of optical distortion in a head mounted display
US10430939B1 (en) * 2017-08-28 2019-10-01 Facebook Technologies, Llc Full display panel grid-based virtual image distance test subsystem for eyecup assemblies of head mounted displays
US10522110B1 (en) * 2017-08-30 2019-12-31 Facebook Technologies, Llc Apparatuses, systems, and methods for measuring and adjusting the luminance of a head-mounted display
JP6953247B2 (ja) * 2017-09-08 2021-10-27 ラピスセミコンダクタ株式会社 ゴーグル型表示装置、視線検出方法及び視線検出システム
AU2018373975B2 (en) * 2017-11-27 2020-12-17 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Electronic device
US10663738B2 (en) * 2017-12-04 2020-05-26 Samsung Electronics Co., Ltd. System and method for HMD configurable for various mobile device sizes
EP3729182B1 (en) * 2017-12-21 2023-11-22 BAE SYSTEMS plc Eye tracking for head-worn display
US10692473B1 (en) * 2018-03-13 2020-06-23 Facebook Technologies, Llc Display pixel correction using compression
US10948983B2 (en) * 2018-03-21 2021-03-16 Samsung Electronics Co., Ltd. System and method for utilizing gaze tracking and focal point tracking
US10902820B2 (en) 2018-04-16 2021-01-26 Facebook Technologies, Llc Display device with dynamic resolution enhancement
US10591737B2 (en) * 2018-04-20 2020-03-17 Dell Products L.P. Systems and methods for automatic adjustment of head mounted display straps
US10491890B1 (en) * 2018-05-14 2019-11-26 Dell Products L.P. Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays
US10685515B2 (en) * 2018-09-10 2020-06-16 Ford Global Technologies, Llc In-vehicle location uncertainty management for passive start
JP7143736B2 (ja) * 2018-11-20 2022-09-29 トヨタ自動車株式会社 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム
US11009943B2 (en) * 2018-12-02 2021-05-18 Vigo Technologies, Inc. On/off detection in wearable electronic devices
US11042034B2 (en) * 2018-12-27 2021-06-22 Facebook Technologies, Llc Head mounted display calibration using portable docking station with calibration target

Also Published As

Publication number Publication date
SG11202106745SA (en) 2021-07-29
JP2022517775A (ja) 2022-03-10
CN113226499B (zh) 2023-09-26
US11200656B2 (en) 2021-12-14
US11200655B2 (en) 2021-12-14
US11210772B2 (en) 2021-12-28
CA3125222A1 (en) 2020-07-16
US20200226738A1 (en) 2020-07-16
EP3908380A1 (en) 2021-11-17
CN113260427A (zh) 2021-08-13
KR20210113641A (ko) 2021-09-16
CA3124892A1 (en) 2020-07-16
EP3908382B1 (en) 2023-08-23
JP2022517945A (ja) 2022-03-11
SG11202106742XA (en) 2021-07-29
KR20210114439A (ko) 2021-09-23
KR20210114023A (ko) 2021-09-17
WO2020146785A1 (en) 2020-07-16
EP3908382A1 (en) 2021-11-17
WO2020146783A1 (en) 2020-07-16
EP3908381A1 (en) 2021-11-17
SG11202106819TA (en) 2021-07-29
US20200225715A1 (en) 2020-07-16
JP2022517227A (ja) 2022-03-07
CA3125224A1 (en) 2020-07-16
WO2020146780A1 (en) 2020-07-16
CN113226498A (zh) 2021-08-06
US20200226838A1 (en) 2020-07-16
CN113226499A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
ES2966264T3 (es) Sistema y método de visualización portátil
US20230185367A1 (en) Systems and methods for generating augmented and virtual reality images
JP6824279B2 (ja) インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ
JP7026214B2 (ja) ヘッドマウントディスプレイ追跡システム
CN104244807B (zh) 注视点检测装置以及注视点检测方法
CN108351523A (zh) 利用头戴式显示器使用立体照相机以及结构光的深度映射
CN104956252A (zh) 用于近眼显示设备的外围显示器
US11269400B2 (en) Positioning system
US20230359038A1 (en) Eyewear having unsynchronized rolling shutter cameras
KR102457608B1 (ko) 차량에서 가상 현실용 헤드셋을 동작하는 방법 및 제어 장치
US11212485B2 (en) Transparency system for commonplace camera
US11622104B2 (en) Camera holder for economical and simplified test alignment
US11688040B2 (en) Imaging systems and methods for correcting visual artifacts caused by camera straylight
WO2020049665A1 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム