ES2966264T3 - Sistema y método de visualización portátil - Google Patents
Sistema y método de visualización portátil Download PDFInfo
- Publication number
- ES2966264T3 ES2966264T3 ES20704668T ES20704668T ES2966264T3 ES 2966264 T3 ES2966264 T3 ES 2966264T3 ES 20704668 T ES20704668 T ES 20704668T ES 20704668 T ES20704668 T ES 20704668T ES 2966264 T3 ES2966264 T3 ES 2966264T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- portable display
- display device
- computer system
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 79
- 238000012360 testing method Methods 0.000 claims description 25
- 230000004044 response Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 description 20
- 230000002950 deficient Effects 0.000 description 9
- 239000011521 glass Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000004140 cleaning Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000002405 diagnostic procedure Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000012423 maintenance Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000003449 preventive effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000005355 Hall effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000013441 quality evaluation Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/24—Constructional details thereof, e.g. game controllers with detachable joystick handles
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
- A63F13/655—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/73—Authorising game programs or game devices, e.g. checking authenticity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/70—Game security or game management aspects
- A63F13/75—Enforcing rules, e.g. detecting foul play or generating lists of cheating players
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/90—Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
- A63F13/98—Accessories, i.e. detachable arrangements optional for the use of the video game device, e.g. grip supports of game controllers
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01P—MEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
- G01P15/00—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
- G01P15/18—Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration in two or more dimensions
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G06T5/80—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Abstract
Un sistema de visualización portátil (10) que incluye un dispositivo de visualización portátil (12). El dispositivo de visualización portátil (12) incluye una carcasa (18). Una pantalla (20) se acopla a la carcasa (18) y muestra una imagen para un usuario. Una cámara (38) se acopla a la carcasa (18) y captura la imagen. Un sistema informático (28) recibe la imagen de la cámara (38) y compara la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistema y método de visualización portátil
Referencia cruzada a la solicitud relacionada
Esta solicitud reivindica la prioridad y el beneficio de la Solicitud Provisional de EE. UU. n.° 62/791,735, titulada "AUGMENTED REALITY (AR) HEADSET FOR HIGH THROUGHPUT ATTRACTIONS," presentada el 11 de enero de 2019.
Antecedentes
Esta sección pretende presentar al lector diversos aspectos de la técnica que pueden estar relacionados con diversos aspectos de las presentes técnicas, que se describen y/o reivindican a continuación. Se cree que esta discusión es útil para proporcionar al lector información de los antecedentes para facilitar una mejor comprensión de los diversos aspectos de la presente divulgación. En consecuencia, debe entenderse que estas exposiciones deben leerse desde esta perspectiva y no como reconocimiento de la técnica anterior.
Los parques de atracciones y/o parques temáticos entretienen a los visitantes con una variedad de atracciones, restaurantes y viajes de entretenimiento. Por ejemplo, los parques de atracciones pueden incluir atracciones planas, montañas rusas, atracciones acuáticas, atracciones oscuras, norias, entre otras. Los operadores de parques de atracciones trabajan continuamente para mejorar la experiencia del parque de atracciones, incluida la experiencia de los vehículos de atracción. Por ejemplo, los vehículos de la atracción, los recorridos de la atracción, así como otros elementos del sistema de la atracción, tales como luces, altavoces, elementos interactivos y entornos especializados, se actualizan continuamente para brindar una experiencia sensorial cada vez más mejorada. Los operadores de parques de atracciones también están incorporando realidad aumentada y realidad virtual en las atracciones para proporcionar una experiencia más interesante e inmersiva.
El artículo "Sistema de evaluación de la calidad de la imagen de la pantalla montada en el casco", Hsieh S-J y otros,<IEEE Transactions on Instrumentation and Measurement, vol. 52, no.>6<(2003), págs. 1838-1845 divulga el desarrollo>de prototipos y el diseño de interfaces utilizando tres pantallas montadas en el casco (HMD) denominadas unidades de visualización del casco (HDU) del sistema integrado de visualización y casco (IHADSS). El prototipo consta de hardware (cámaras, sensores, tarjetas de captura de imágenes/adquisición de datos, paquete de baterías, soporte de la HDU, bastidor y asa móviles y computadora) y algoritmos de software para la captura y análisis de imágenes. Dos cámaras con aberturas de diferentes tamaños están montadas en paralelo en un bastidor frente a un soporte de la HDU. Un asa permite a los usuarios colocar la HDU enfrente de las dos cámaras. Luego se captura el patrón de prueba HMD. Los sensores detectan la posición del soporte y si la HDU está en el ángulo correcto con respecto a la cámara. Los algoritmos detectan características de la HDU capturadas por las dos cámaras, incluyendo el enfoque, la orientación, el desplazamiento, el campo de visión y el número de tonos de grises.
El documento "Sistema de inspección óptica automatizado para televisores digitales", Ivan Kastelan y otros, Eurasip Journal on Advances in Signal Processing, vol. 2011, n° 1 divulga un sistema de prueba y verificación en tiempo real para la evaluación y verificación automática de la calidad de imagen de referencia completa de televisores digitales.
El documento "Eliminación dinámica de sombras de pantallas de proyección frontal", Christopher Jaynes y otros, Conferencia anual del IEEE sobre visualización, 2001, págs. 175-182, divulga una técnica para detectar y corregir sombras transitorias en una pantalla de múltiples proyectores. La diferencia entre las imágenes predichas (generadas) y observadas (cámara) se minimiza mediante la modificación continua de los valores de la imagen proyectada para cada dispositivo de visualización.
Se divulga más técnica anterior relacionada en: Y. Itoh, M. Dzitsiuk, T. Amano y G. Klinker, "Método de reproducción de color semiparamétrico para pantallas ópticas transparentes montadas en casco", en IEEE Transactions on Visualization and Computer Graphics, vol. 21, núm. 11, págs. 1269-1278, 15 de noviembre de 2015.
Compendio
La invención se define en las reivindicaciones adjuntas. A continuación se expone un compendio de ciertas realizaciones divulgadas en la presente memoria. Debe entenderse que estos aspectos se presentan simplemente para proporcionar al lector un breve compendio de estas determinadas realizaciones y que no se pretende que estos aspectos limiten el alcance de esta divulgación. En efecto, esta divulgación puede abarcar una variedad de aspectos que pueden no estar expuestos a continuación.
En una realización, se proporciona un sistema de visualización portátil que incluye un dispositivo de visualización portátil. El dispositivo de visualización portátil es una pantalla montada en la cabeza. El dispositivo de visualización portátil incluye una carcasa. Una pantalla se acopla a la carcasa que muestra una imagen para un usuario. Una cámara se acopla a la carcasa y captura la imagen. La cámara está orientada hacia delante en una dirección hacia la pantalla. Un sistema informático recibe la imagen desde la cámara y compara la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra.
En una realización, se proporciona un método para calibrar un sistema de visualización portátil que comprende un dispositivo de visualización portátil. El dispositivo de visualización portátil es una pantalla montada en la cabeza. El método incluye detectar una orientación de un dispositivo de visualización portátil. Luego, el método captura una imagen producida en una pantalla del dispositivo de visualización portátil con una cámara. El método puede determinar, entonces, una imagen maestra en respuesta a la orientación del dispositivo de visualización portátil. El método compara la imagen con la imagen maestra para determinar si la imagen coincide con la imagen maestra.
En un ejemplo, se proporciona un método para calibrar un sistema de visualización portátil. El método incluye detectar una operación de un dispositivo de visualización portátil. Luego, el método captura una imagen de prueba producida en una pantalla del dispositivo de visualización portátil con una cámara. El método compara la imagen de prueba capturada por la cámara con una imagen maestra para determinar si la imagen de prueba coincide con la imagen maestra.
Se pueden realizar diversos perfeccionamientos de las características señaladas anteriormente en relación con diversos aspectos de la presente divulgación. También se pueden incorporar características adicionales en estos diversos aspectos. Estos perfeccionamientos y características adicionales pueden existir individualmente o en cualquier combinación.
Breve descripción de los dibujos
Estas y otras características, aspectos y ventajas de la presente divulgación se entenderán mejor cuando se lea la siguiente descripción detallada con referencia a los dibujos adjuntos en los que caracteres similares representan partes similares en todos los dibujos, en donde:
<la figura>1<es una vista en perspectiva de un sistema de visualización portátil, según una realización de la>presente divulgación;
<la figura>2<es una vista posterior del sistema de visualización portátil de la figura>1<, según una realización de>la presente divulgación;
la figura 3 es una vista de una atracción con el sistema de visualización portátil, según una realización de la presente divulgación;
la figura 4 es un diagrama de flujo de un método para probar un sistema de visualización portátil antes del inicio de un viaje, según una realización de la presente divulgación;
la figura 5 es un diagrama de flujo de un método para calibrar un sistema de visualización portátil durante un viaje, según una realización de la presente divulgación; y
<la figura>6<es un diagrama de flujo de un método para calibrar un sistema de visualización portátil durante un>viaje, en donde el método incluye capturar una imagen en el ojo de un usuario, según una realización de la presente divulgación.
Descripción detallada
A continuación se describirán una o más realizaciones específicas. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, no todas las características de una implementación real se describen en la memoria. Debe apreciarse que, en el desarrollo de cualquier implementación real de este tipo, como en cualquier proyecto de ingeniería o diseño, se deben tomar numerosas decisiones específicas de implementación para lograr los objetivos específicos de los desarrolladores, tales como el cumplimiento de las restricciones relacionadas con el sistema y el negocio, las cuales pueden variar de una implementación a otra. Además, se debe apreciar que tal esfuerzo de desarrollo podría ser complejo y llevar mucho tiempo, pero, no obstante, sería una tarea rutinaria de diseño, fabricación y manufactura para aquellos expertos comunes que se benefician de esta divulgación.
Al introducir elementos de diversas realizaciones de la presente divulgación, los artículos "un", "uno" y "el" pretenden significar que hay uno o más de los elementos. Los términos "que comprende", "que incluye" y "que tiene" pretenden ser inclusivos y significan que puede haber elementos adicionales distintos de los elementos enumerados. Adicionalmente, debe entenderse que las referencias a "una realización" o "una realización" de la presente divulgación no pretenden interpretarse como excluyentes de la existencia de realizaciones adicionales que también incorporan las características citadas.
Las presentes realizaciones se relacionan con sistemas de visualización portátiles que proporcionan experiencias mejoradas para los visitantes de un parque de atracciones o un parque temático. Específicamente, estos sistemas de visualización portátiles proporcionan una experiencia de realidad aumentada y/o realidad virtual (RA/RV) mediante dispositivos de visualización portátiles. Por ejemplo, los dispositivos de visualización portátiles pueden incluir una pantalla montada en la cabeza (por ejemplo, gafas o pantallas electrónicas, anteojos), que puede ser usada por un visitante y puede configurarse para permitir que el visitante vea escenas RA/RV. En particular, el dispositivo de visualización portátil se puede utilizar para mejorar la experiencia del visitante superponiendo virtualmente características en un entorno del mundo real del parque de atracciones, proporcionando entornos virtuales ajustables para proporcionar diferentes experiencias en una atracción del parque de atracciones (por ejemplo, circuito cerrado, atracción oscura u otra atracción similar), etc.
Debido a que el dispositivo de visualización portátil, típicamente, lo usa un visitante, el operador de una atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil. Por ejemplo, el operador de la atracción puede no ser consciente de problemas, tales como manchas en las pantallas, reducción del brillo de las pantallas, píxeles defectuosos (por ejemplo, píxeles atascados, píxeles muertos), imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta entre porciones de la pantalla (por ejemplo, pantallas izquierda y derecha), alineación incorrecta con un entorno del mundo real, entre otros. Como se explicará a continuación, el sistema de visualización portátil permite la detección de problemas con los dispositivos de visualización portátiles usando cámaras. Por ejemplo, las cámaras capturan imágenes producidas por o en pantallas de los dispositivos de visualización portátiles. El sistema de visualización portátil compara estas imágenes capturadas con imágenes maestras para detectar discrepancias que indiquen un problema con el dispositivo de visualización portátil. Entonces, el operador de la atracción puede ser alertado sobre el problema y, por lo tanto, puede responder rápidamente (por ejemplo, reemplazar, solucionar problemas del dispositivo de visualización portátil).
La figura 1 es una vista en perspectiva de un sistema de visualización portátil 10 que permite a un usuario experimentar escenas RA y/o RV. El sistema de visualización portátil 10 incluye un dispositivo de visualización portátil 12 (por ejemplo, una pantalla montada en la cabeza) que se acopla a un usuario. En algunas realizaciones, el dispositivo de<visualización portátil>12<se acopla al usuario con un sombrero o una banda que se arrolla alrededor de la cabeza del>usuario. En la figura 1, el dispositivo de visualización portátil 12 se acopla al usuario con una banda o correa 14.
En la realización ilustrada, el dispositivo de visualización portátil 12 incluye anteojos electrónicos 16 (por ejemplo, anteojos, gafas RA/RV) que se acoplan a una carcasa 18 del dispositivo de visualización portátil 12. Los anteojos<electrónicos 16 pueden incluir una o más pantallas>20<(por ejemplo, transparentes, semitransparentes, opacas;>pantallas izquierda y derecha) sobre las que se pueden superponer determinadas imágenes virtuales. En algunas<realizaciones, las pantallas>20<pueden permitir al usuario ver un entorno>22<del mundo real a través de las pantallas>20 junto con características virtuales 24 (por ejemplo, características RA). En otras palabras, los anteojos electrónicos 16 pueden controlar, al menos parcialmente, una vista del usuario superponiendo las características virtuales 24 en una línea de visión del usuario. Las pantallas 20 pueden incluir pantallas transparentes (por ejemplo, que se ve a través de ellas) o no transparentes que incluyen diodos emisores de luz (LED) o diodos emisores de luz orgánicos (OLED).
En algunas realizaciones, el dispositivo de visualización portátil 12 puede controlar completamente la vista del usuario (por ejemplo, usando superficies de visualización opacas). Este entorno surrealista 26 visto por el espectador puede<ser un vídeo en tiempo real que incluye imágenes del mundo real de un entorno del mundo real>22<que se han>fusionado electrónicamente con una o más características virtuales 24 (por ejemplo, características RV). Por lo tanto,<el usuario puede percibir el entorno surrealista 26 como el entorno del mundo real>22<superpuesto con características>virtuales 24. En algunas realizaciones, el dispositivo de visualización portátil 12 puede incluir características, tales como características de proyección de luz, que proyectan luz en uno o ambos ojos del usuario de modo que ciertas características virtuales 24 se superpongan sobre objetos del mundo real visibles por el usuario. Un dispositivo de<visualización portátil>12<de este tipo puede denominarse pantalla retiniana virtual.>
El usuario puede usar el dispositivo de visualización portátil 12 en una atracción del parque de atracciones, en un juego y/o en un área particular del parque de atracciones (por ejemplo, en un área temática del parque de atracciones). Para recibir las imágenes para las pantallas 20, el dispositivo de visualización portátil 12 puede acoplarse a un controlador o sistema informático 28 con una conexión por cable y/o inalámbrica. Por ejemplo, el dispositivo de visualización portátil 12 puede acoplarse al sistema informático 28 con un cable 30 y/o con un transmisor/receptor inalámbrico 32. En realizaciones en las que la comunicación se realiza a través de una conexión inalámbrica, la conexión se puede formar con redes de área local inalámbricas (WLAN), redes inalámbricas de área amplia (WWAN), comunicación de campo cercano (NFC), red de telefonía móvil, entre otras.
Debe entenderse que el sistema informático 28 no puede estar ubicado alejado del dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede estar embebido o acoplado directamente a la carcasa 18 del dispositivo de visualización portátil 12. El dispositivo de visualización portátil 12 puede estar integrado en una atracción de parque de atracciones. Por lo tanto, el dispositivo de visualización portátil 12 puede estar físicamente acoplado (por ejemplo, atado a través del cable 30) a una estructura (por ejemplo, un vehículo de atracción del parque de atracciones)<para bloquear la separación del dispositivo de visualización portátil>12<de la estructura, así como para acoplarlo>electrónicamente al sistema informático 28, el cual puede acoplarse al vehículo de atracción o a otras piezas de la infraestructura de la atracción.
El sistema informático 28 incluye un procesador 34 y una memoria 36. El procesador 34 puede ser un microprocesador que ejecuta software para visualizar imágenes en las pantallas 20. El procesador 34 puede incluir múltiples microprocesadores, uno o más microprocesadores de "propósito general", uno o más microprocesadores de propósito especial y/o uno o más circuitos integrados de aplicación específica (ASIC), conjuntos de puertas programabas en campo (FPGA) o alguna combinación de los mismos. Por ejemplo, el procesador 34 puede incluir uno o más procesadores de computadora con conjunto de instrucciones reducido (RISC).
La memoria 36 puede incluir una memoria volátil, tal como una memoria de acceso aleatorio (RAM), y/o una memoria no volátil, tal como una memoria de sólo lectura (ROM). La memoria 36 puede almacenar una variedad de información y puede usarse para diversos propósitos. Por ejemplo, la memoria 36 puede almacenar imágenes (por ejemplo, imágenes maestras o de prueba, escenas, objetos de realidad RV, objetos RA) e instrucciones ejecutables por procesador, tales como firmware o software, para que las ejecute el procesador 34. La memoria 36 puede incluir r Om , memoria flash, un disco duro o cualquier otro medio de almacenamiento óptico, magnético o de estado sólido adecuado o una combinación de los mismos. La memoria 36 puede almacenar datos, instrucciones y cualesquiera otros datos adecuados.
Como se explicó anteriormente, debido a que el dispositivo de visualización portátil 12 lo usa típicamente un visitante, el operador de la atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil 12. Por ejemplo, el operador de la atracción puede no ser consciente de problemas, tales como<como manchas en las pantallas>20<, reducción del brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles>atascados, píxeles muertos), alineación incorrecta entre porciones de la pantalla (por ejemplo, pantallas izquierda y derecha). Es posible que el operador del viaje tampoco sea consciente de los problemas con las pantallas 20 que se producen durante el viaje. Por ejemplo, es posible que el operador de la atracción no sea consciente de imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta con un entorno del mundo real, entre otros. Para detectar problemas con las pantallas 20 y/o imágenes en las pantallas 20, el dispositivo de visualización portátil 12 puede incluir una o más cámaras 38 que capturen la(s) imagen(es) proporcionada(s) al viajero o usuario del dispositivo de visualización portátil 12. La imagen capturada se envía luego<al sistema informático>28<para su procesamiento y/o comparación con la(s) imagen(es) maestra(s) o correcta(s) que>debería(n) mostrarse en las pantallas 20 (por ejemplo, visibles para el usuario). La comparación permite que el sistema informático 28 detecte problemas de visualización y corrija esos problemas automáticamente y/o avise a un operador para operaciones de mantenimiento (por ejemplo, inspección, limpieza o reemplazo). Por ejemplo, después de que el sistema informático 28 detecta un problema y no logra corregirlo, el sistema informático 28 puede activar una luz 40, un altavoz 42 o una combinación de los mismos para notificar al operador un problema. En respuesta, el operador<puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil>12<.>
La figura 2 es una vista posterior del dispositivo de visualización portátil 12 de la figura 1. Como se explicó anteriormente, el dispositivo de visualización portátil 12 incluye una o más cámaras 38 (por ejemplo, cámara en color, cámara en escala de grises; detector óptico). Estas cámaras 38 pueden estar orientadas hacia delante en una dirección 60 hacia las pantallas 20 y/u orientadas hacia atrás en la dirección 62 hacia el portador o usuario. Por ejemplo, puede haber cámaras 38 orientadas tanto hacia delante como hacia atrás. Las cámaras 38 orientadas hacia delante están posicionadas para ver la(s) imágenes reales generadas en las pantallas 20. Las cámaras 38 orientadas hacia atrás están posicionadas para capturar imágenes en los ojos del usuario. Las cámaras 38 pueden posicionarse en alas o lados 64 de la carcasa 18 o situarse centralmente en la carcasa 18. En la figura 2, se ilustran tres cámaras 38, pero debe entenderse que puede haber un número diferente de cámaras 38 (por ejemplo, 1, 2, 3, 4, 5 o más). Por ejemplo, el dispositivo de visualización portátil 12 puede incluir una cámara 38 para cada pantalla 20 u ojo del usuario. No obstante, en algunas realizaciones el dispositivo de visualización portátil 12 puede tener una sola cámara 38. Por ejemplo, una única cámara situada centralmente 38 (por ejemplo, cámara gran angular) con un campo de visión suficiente para ver y capturar imágenes en todas las pantallas 20. En algunas realizaciones, el dispositivo de visualización portátil 12 puede incluir luces 65 (por ejemplo, luces infrarrojas) que iluminan los ojos del usuario para permitir que la cámara 38 capture la imagen reflejada en los ojos del usuario.
Además de las cámaras 38, el dispositivo de visualización portátil 12 también puede incluir un sistema de seguimiento 66<con múltiples sensores>68<. Estos sensores>68<permiten el seguimiento de la posición y orientación del dispositivo de visualización portátil>12<y, por lo tanto, la posición y orientación de las pantallas>20<. La capacidad de determinar hacia dónde mira un usuario con el dispositivo de visualización portátil>12<permite que el sistema informático 28 identifique discrepancias entre lo que el usuario está viendo en las pantallas>20<, cuando mira en una dirección en>particular, y lo que el usuario debería estar viendo en las pantallas 20, cuando se mira en esa dirección. Los sensores 68<también pueden detectar cuándo no está en uso el dispositivo de visualización portátil>12<, permitiendo, así, que el>sistema informático 28 ejecute (por ejemplo, ejecute automáticamente) pruebas de diagnóstico entre usos (por<ejemplo, entre el final de un viaje y el inicio del siguiente). Por ejemplo, los sensores>68<pueden incluir un sensor de>posición (por ejemplo, un sensor de efecto Hall) y/o un sensor de orientación (por ejemplo, una unidad de medición<inercial [IMU]). El sistema informático 28 puede recibir señales desde los sensores>68<que indican que el dispositivo>de visualización portátil 12 está almacenado en una ubicación de almacenamiento (por ejemplo, un contenedor). En<particular, el sensor de posición puede detectar que el dispositivo de visualización portátil>12<está dentro de una>distancia umbral de y/o en contacto con una superficie del contenedor y/o el sensor de orientación puede detectar que<el dispositivo de visualización portátil>12<está orientado con respecto a un vector de gravedad de una manera que sea>congruente con que el dispositivo de visualización portátil 12 esté almacenado en el contenedor. Entonces, el sistema informático 28 puede ejecutar o iniciar automáticamente las pruebas de diagnóstico en respuesta a que el sistema informático 28 determina que el dispositivo de visualización portátil 12 está almacenado en el contenedor. El sistema informático 28 puede ejecutar o iniciar automáticamente las pruebas de diagnóstico en otros momentos, tales como<en respuesta a que el vehículo de atracción y/o el dispositivo de visualización portátil>12<entran en la zona de descarga u otra área de la atracción en la cual el dispositivo de visualización portátil>12<no se utiliza para presentar características virtuales al usuario. El uno o más sensores>68<pueden incluir cualesquiera sensores de orientación y/o posición>adecuados (por ejemplo, acelerómetros, magnetómetros, giroscopios, receptores del Sistema de Posicionamiento Global [GPS]), sensores de seguimiento de movimiento (por ejemplo, sensores de seguimiento de movimiento electromagnéticos y de estado sólido), unidades de medida inercial (IMU), sensores de presencia y otros. Además,<uno o más sensores>68<y/o el sistema informático 28 también pueden hacer seguimiento de información de operación>de un vehículo de atracción, incluyendo, entre otros, posición, guiñada, balanceo de cabeceo y velocidad del vehículo<de atracción y coordinar esa información con las imágenes que deben producirse en las pantallas>20<.>
La figura 3 es una vista de una atracción 90 con un vehículo de atracción 92. La atracción 90 incluye un recorrido de vehículo (por ejemplo, una pista de circuito cerrado o un sistema de vías de circuito cerrado 94). Las vías 94 pueden proporcionarse como una infraestructura sobre la cual el vehículo de atracción 92 puede viajar con pasajeros 96 (por ejemplo, usuarios). Debe apreciarse que la atracción 90, el vehículo de atracción 92 y el número de pasajeros 96 son ejemplares y pueden diferir entre realizaciones. A medida que el vehículo de atracción 92 viaja a lo largo de las vías 94, a los pasajeros 96 se les puede proporcionar un recorrido en movimiento por el escenario (por ejemplo, un entorno temático que puede incluir equipos fijos, diseños de edificios, atrezo, decoraciones, etc. correspondientes al tema). El escenario puede incluir el entorno que rodea la atracción 14 y/o el entorno dentro de una infraestructura que puede albergar total o parcialmente la atracción 14.
Para mejorar la experiencia de la atracción, la atracción 90 incorpora los dispositivos de visualización portátiles 12 del sistema de visualización portátil 10. A medida que el vehículo de atracción 92 viaja a lo largo de las vías 94, el sistema de visualización portátil 10 puede coordinar imágenes o características RA/RV, tales como como objetos RA/RV que se muestran a los pasajeros 96 en las pantallas 20 de los dispositivos de visualización portátiles 12. Estos objetos RA/RV pueden cambiar a medida que el usuario cambia la orientación de los dispositivos de visualización portátiles 12 durante el viaje. Por ejemplo, el pasajero 96 puede cambiar la orientación de los dispositivos de visualización portátiles 12 girando su cabeza y moviéndola hacia arriba y hacia abajo. Los objetos RA/RV también pueden cambiar a medida que el vehículo de atracción 92 cambia de posición física (por ejemplo, gira, rueda, se mueve a lo largo de las vías 94). Los objetos RA/RV también pueden cambiar para atracciones estacionarias en respuesta a un cronograma designado para la atracción (por ejemplo, el argumento). Estos cambios son proporcionados por el sistema informático 28 a las pantallas 20 de los dispositivos de visualización portátiles 12. Como se explicó<anteriormente, el sistema informático 28 puede acoplarse a los dispositivos de visualización portátiles>12<con una>conexión por cable y/o inalámbrica. En la figura 3, los dispositivos de visualización portátiles 12 se acoplan al vehículo de atracción 92 con uno o más cables 30 que proporcionan comunicación electrónica al sistema informático 28. El sistema informático 28 puede coordinar presentaciones visuales y/o sonoras proporcionadas a los pasajeros 96 que llevan los dispositivos de visualización portátil 12 a través de estos cables 30. Estos cables 30 también pueden proporcionar retroalimentación al sistema informático 28 sobre el funcionamiento de los dispositivos de visualización<portátiles>12<.>
Como se explicó anteriormente, el operador de la atracción puede no ser consciente de un comportamiento indeseable o del estado del dispositivo de visualización portátil 12. Por ejemplo, el operador de la atracción puede no ser<consciente de problemas, tales como manchas en las pantallas>20<, reducción del brillo de las pantallas>20<, píxeles>defectuosos (por ejemplo, píxeles atascados, píxeles muertos), alineación incorrecta entre las partes de la pantalla por ejemplo, pantallas izquierda y derecha). Es posible que el operador de la atracción tampoco sea consciente de los problemas con las pantallas 20 que se producen durante el viaje. Por ejemplo, es posible que el operador de la atracción sea consciente de imágenes entrecortadas, fotogramas caídos, producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes, sincronización incorrecta de la producción de imágenes, alineación incorrecta con un entorno del mundo real, entre otros. El sistema informático 28 es capaz de detectar estos problemas a través de la retroalimentación desde las cámaras 38 (figuras 1 y 2) acopladas a los dispositivos de visualización portátiles 12. Por ejemplo, el sistema informático 28 puede comprobar continuamente el<funcionamiento de los dispositivos de visualización portátiles>12<durante un viaje usando la retroalimentación desde>las cámaras 38. En otra realización, el sistema informático 28 puede comprobar periódicamente el funcionamiento de los dispositivos de visualización portátiles 12 solicitando retroalimentación de las cámaras 38 en ubicaciones específicas en la atracción 90. Por ejemplo, el sistema informático 28 puede recibir información cuando el vehículo de atracción 92 alcanza los puntos A, B y C a lo largo de las vías 94. Para atracciones estacionarias, el sistema informático 28 puede recibir retroalimentación en ciertos puntos de tiempo medidos desde un punto de tiempo específico (por ejemplo, inicio de la atracción).
Las imágenes capturadas desde las cámaras 38 se envían al sistema informático 28 para su procesamiento y/o comparación con la(s) imagen(es) maestra(s) o correcta(s) que debe mostrarse al usuario en la orientación actual del dispositivo de visualización portátil 12, en una ubicación específica a lo largo del viaje y/o del tiempo del viaje. La comparación permite que el sistema informático 28 detecte problemas de visualización y corrija esos problemas automáticamente y/o avise a un operador para su inspección, limpieza o reemplazo. El sistema informático 28 también<puede realizar comprobaciones de diagnóstico de los dispositivos de visualización portátiles>12<entre viajes o en otros>momentos (por ejemplo, al final del día). El sistema informático 28 puede ejecutar estas comprobaciones de<diagnóstico después de detectar que el dispositivo de visualización portátil>12<no está en uso a través de la><retroalimentación desde uno o más de los sensores>68<. Por ejemplo, uno o más de estos sensores>68<pueden detectar>que el dispositivo de visualización portátil 12 está dentro de un contenedor 98 (por ejemplo, bolsa, caja) que se acopla<al vehículo de atracción 92 para el almacenamiento del dispositivo de visualización portátil 12. Los sensores>68<también pueden detectar la desconexión del dispositivo de visualización portátil>12<del usuario (por ejemplo, quitado de la cabeza) o la ausencia de movimiento del dispositivo de visualización portátil>12<y correlacionar esta retroalimentación>con un momento apropiado para realizar una comprobación de diagnóstico (por ejemplo, ejecutar automáticamente la comprobación de diagnóstico).
La figura 4 es un diagrama de flujo de un método 120 para probar un sistema de visualización portátil 10 antes del inicio de un viaje. Los métodos divulgados en la presente memoria incluyen varios pasos representados por bloques. Debe señalarse que al menos algunos pasos de los métodos pueden realizarse como un procedimiento automatizado mediante un sistema, tal como mediante el sistema informático 28. Aunque los diagramas de flujo ilustran los pasos en una secuencia determinada, debe entenderse que los pasos pueden realizarse en cualquier orden adecuado y ciertos pasos pueden llevarse a cabo simultáneamente, cuando sea apropiado. Adicionalmente, se pueden agregar u omitir pasos en los métodos.
El método 120 comienza determinando si el dispositivo de visualización portátil 12 no está en uso, paso 122. Como<se explicó anteriormente, el sistema informático 28 puede recibir retroalimentación desde uno o más sensores>68<. La retroalimentación desde los sensores>68<permite que el sistema informático 28 determine que el dispositivo de>visualización portátil 12 no está siendo utilizado por un usuario durante un viaje. Después de determinar que el<dispositivo de visualización portátil>12<no está en uso, el sistema informático 28 controla el dispositivo de visualización>portátil 12 para mostrar una imagen de prueba en las pantallas 20, paso 124. Las imágenes de prueba pueden ser una única imagen o una secuencia de imágenes que muestran uno o más patrones, colores, formas o combinaciones de los mismos. Las cámaras 38 capturan estas imágenes tal como se muestran en las pantallas 20 y transmiten las imágenes capturadas al sistema informático 28, paso 126. Después de capturar la imagen o las imágenes, el método 120 puede procesar la imagen o las imágenes capturadas, paso 127. Por ejemplo, las cámaras 38 pueden capturar<imágenes geométricamente distorsionadas, imágenes granuladas, reflejos débiles del entorno en las pantallas>20<,>entre otros. Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista desde el ángulo de la cámara 38 a imágenes que el usuario vería mirando directamente las pantallas 20. El sistema informático 28 puede, entonces, comparar la imagen capturada con la imagen de prueba (por ejemplo, imagen maestra) para determinar diferencias, paso 128. La comparación puede revelar una variedad de problemas con las pantallas 20. Por<ejemplo, la comparación puede revelar manchas en las pantallas>20<(a través de la detección de porciones borrosas de la imagen capturada), reducción del brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles atascados,>píxeles muertos), producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de<imágenes, alineación incorrecta entre las pantallas>20<, entre otros.>
Después de comparar las imágenes, el método 120 determina si la imagen capturada es la misma (por ejemplo, coincide, es sustancialmente similar a) la imagen de prueba, paso 130. Si la imagen capturada es la misma que la<imagen de prueba (por ejemplo, en respuesta a que las imágenes son las mismas), el método>120<genera una señal>de listo, paso 132. La señal de listo puede ser una señal visual (por ejemplo, luz verde fija o intermitente) y/o una señal<de audio generada en el dispositivo de visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador,>teléfono móvil, reloj) accesible para el operador de la atracción. En algunas realizaciones, si la imagen capturada es sustancialmente similar a (por ejemplo, dentro de un intervalo de una o más métricas; en respuesta a que la imagen capturada sea sustancialmente similar a) la imagen de prueba, el método 120 aún puede generar la señal de listo. Por ejemplo, si la imagen capturada está dentro de un umbral de diferencia de color, brillo, número de píxeles muertos,<borrosidad (por ejemplo, por manchas) o alguna combinación de los mismos, el método>120<seguirá generando aún>la señal de listo.
Si la imagen capturada no coincide con la imagen de prueba (por ejemplo, en respuesta a que la imagen capturada<no coincide con la imagen de prueba), el método>120<continúa calibrando el dispositivo de visualización portátil>12<,>paso 134. En algunas realizaciones, el método 120 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la coloración, el enfoque de la imagen, entre otros. El método 120 puede, entonces, repetir el proceso de mostrar la imagen de prueba (paso 124), capturar la imagen (paso 126) y comparar la imagen capturada con la imagen de prueba (paso 128). Si la imagen<capturada aún no coincide con la imagen de prueba, el método>120<puede continuar generando una señal de error,>paso 136. La señal de error puede ser una señal visual (por ejemplo, luz roja intermitente) y/o una señal de audio (por<ejemplo, solicitud para inspección) generada en el dispositivo de visualización portátil>12<o en otro dispositivo (por>ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el operador de la atracción. El operador de la atracción puede, entonces, inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen de prueba (por ejemplo, la imagen capturada indica que no se muestra una imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles son defectuosos) en el paso de comparación (130), el método 120 puede omitir el paso de calibración (paso 134) y en su lugar puede proceder a la paso de señal de error (paso 136).
La figura 5 es un diagrama de flujo de un método 160 para probar un sistema de visualización portátil 10 durante un viaje. El método 160 comienza detectando la ubicación del dispositivo de visualización portátil 12, paso 162. Por<ejemplo, la ubicación del dispositivo de visualización portátil>12<puede ser una ubicación física del dispositivo de>visualización portátil 12 a lo largo de un recorrido o pista de la atracción. La ubicación del dispositivo de visualización<portátil>12<se puede determinar usando uno o más sensores>68<en el dispositivo de visualización portátil>12<, sensores>que monitorizan una posición del vehículo de la atracción a lo largo del recorrido o pista de la atracción, u otros datos. Determinando la ubicación del dispositivo de visualización portátil 12 a lo largo del recorrido o pista, el sistema<informático 28 puede determinar qué objetos o escenas debería ver el usuario en las pantallas>20<del dispositivo de>visualización portátil 12. El método 160 también puede determinar la orientación del dispositivo de visualización portátil 12, paso 164. Durante el viaje, el usuario puede mirar en diferentes direcciones a medida que el usuario se adentra en el entorno RA/RV. Determinando la orientación del dispositivo de visualización portátil 12, el sistema informático 28<puede determinar qué porciones de escenas o qué objetos debería estar viendo el usuario en las pantallas>20<del>dispositivo de visualización portátil 12. La orientación del dispositivo de visualización portátil 12 puede determinarse<usando los sensores>68<descritos anteriormente.>
Después de determinar la posición y orientación del dispositivo de visualización portátil 12, el método 160 captura una<imagen o una serie de imágenes en las pantallas>20<del dispositivo de visualización portátil>12<usando una o más de>las cámaras 38, paso 166. Después de capturar la imagen o imágenes, el método 160 puede procesar la imagen o imágenes capturadas, paso 168. Por ejemplo, las cámaras 38 pueden capturar imágenes distorsionadas en las pantallas 20 debido al ángulo de las cámaras 38 con respecto a las pantallas 20. Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista desde el ángulo de la cámara 38 a imágenes que el usuario vería mirando directamente a las pantallas 20. No obstante, en algunas realizaciones, las imágenes pueden no procesarse para corregir estos tipos de distorsiones. Por ejemplo, el sistema informático 28 puede incluir ya imágenes maestras desde la perspectiva de la cámara lo que permite comparar las imágenes capturadas con estas imágenes maestras.
Para determinar si se está visualizando la imagen correcta, el método 160 compara la(s) imagen(es) capturada(s) con la(s) imagen(es) maestra(s), paso 170. Por lo tanto, el sistema informático 28 es capaz de determinar diferencias entre la(s) imagen(es) capturada(s) y la(s) imagen(es) maestra(s). La comparación puede revelar una variedad de<problemas, incluyendo manchas en las pantallas>20<(a través de la detección de porciones borrosas de las imágenes capturadas), reducción en el brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles atascados, píxeles>muertos), producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de producción de imágenes,<alineación incorrecta de las características virtuales en las pantallas>20<con el entorno del mundo real visto a través>de las pantallas 20, entre otros. La(s) imagen(es) maestra(s) pueden determinarse o seleccionarse (por ejemplo, a partir de múltiples imágenes maestras, que pueden estar almacenadas en la memoria 36) basándose en (por ejemplo,<para corresponder a, ser correcta para) la posición y orientación del dispositivo de visualización portátil>12<.>
Después de comparar las imágenes, el método determina si la(s) imagen(es) capturada(s) es(son) igual(es) que (por ejemplo, coincide; es sustancialmente similar a) la(s) imagen(es) maestra(s), paso 172. Si la imagen capturada es la misma que la imagen maestra (por ejemplo, en respuesta a que las imágenes son las mismas), el método 160 comienza de nuevo (es decir, vuelve al paso 162). Por ejemplo, el método 160 puede repetirse a intervalos específicos durante el viaje. Estos intervalos pueden basarse en el tiempo y/o en la ubicación. Si la comparación determina que las imágenes no son las mismas (por ejemplo, en respuesta a determinar que las imágenes no son las mismas), el método 160 calibra las pantallas 20, paso 176. En algunas realizaciones, el método 160 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la temporización de la producción de imágenes si las imágenes no están sincronizadas con el tiempo y/o la ubicación en el viaje. El sistema informático 28 también puede ajustar la coloración de las imágenes para representar con precisión o más precisión la imagen deseada. Por ejemplo, si se reduce la capacidad de las pantallas 20 para generar luz azul, el sistema informático 28 puede reducir el brillo de la luz roja y la luz amarilla para reducir la distorsión de las imágenes debido a la reducción de la luz azul. En algunas realizaciones, si se detecta un píxel muerto cerca de<los bordes de la pantalla>20<, el sistema informático 28 puede reducir la imagen desactivando filas y/o columnas de píxeles alrededor del borde de las pantallas>20<para impedir que el usuario vea un píxel muerto rodeado de píxeles>activos en funcionamiento.
Después de calibrar el dispositivo de visualización portátil 12 (paso 176), el método 160 puede volver al paso 162 para verificar que el dispositivo de visualización portátil 12 muestra ahora las imágenes correctamente. Si la imagen sigue siendo incorrecta (por ejemplo, en respuesta a que la imagen capturada es diferente de la imagen maestra), el método 160 puede, entonces, producir una señal de error, paso 174. La señal de error puede ser una señal visual (por ejemplo, una luz roja intermitente) y/o una señal de audio (por ejemplo, solicitud de inspección) generada en el dispositivo de<visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el>operador de la atracción. Entonces, el operador de la atracción puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen maestra (por ejemplo, la imagen capturada indica que no se muestra ninguna imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles<son defectuosos, que la imagen virtual en las pantallas>20<no se alinea correctamente con el entorno del mundo real>visto a través de las pantallas 20) en el paso de comparación (172), el método 160 puede omitir el paso de calibración (paso 176) y en su lugar puede proceder al paso de señal de error (paso 174).
<La figura>6<es un diagrama de flujo de un método 200 para probar un sistema de visualización portátil 10 durante un>viaje. El método 200 comienza detectando la ubicación del dispositivo de visualización portátil 12, paso 202. Por<ejemplo, la ubicación del dispositivo de visualización portátil>12<puede ser una ubicación física del dispositivo de>visualización portátil 12 a lo largo de un recorrido o pista de la atracción. La ubicación del dispositivo de visualización<portátil>12<se puede determinar usando uno o más sensores>68<en el dispositivo de visualización portátil>12<, sensores>que monitorizan una posición del vehículo de atracción a lo largo del recorrido o pista de la atracción, u otros datos. Determinando la ubicación del dispositivo de visualización portátil 12 a lo largo del recorrido o pista, el sistema<informático 28 puede determinar qué objetos o escenas debería ver el usuario en las pantallas>20<del dispositivo de>visualización portátil 12. El método 200 determina, entonces, la orientación del dispositivo de visualización portátil 12, paso 204. Durante el viaje, el usuario puede mirar en diferentes direcciones a medida que el usuario se adentra en el entorno RA/RV. Determinando la orientación del dispositivo de visualización portátil 12, el sistema informático 28 puede determinar qué porciones de escenas o qué objetos debería poder ver el usuario con el dispositivo de visualización portátil 12. La ubicación y/u orientación del dispositivo de visualización portátil 12 se puede determinar<usando los sensores>68<descritos anteriormente.>
Después de determinar la posición y orientación del dispositivo de visualización portátil 12, el método 200 captura una<imagen o una serie de imágenes en los ojos del usuario del dispositivo de visualización portátil>12<usando una o más>de las cámaras 38, paso 206. Después de capturar la imagen o las imágenes, el método 200 puede procesar la imagen o las imágenes, paso 208. Debido a que las cámaras 38 capturan imágenes en el ojo del usuario, las imágenes se distorsionan debido a la curvatura del ojo del usuario, el procesamiento también puede permitir la eliminación del ojo del usuario de la imagen (por ejemplo, pupila, vasos sanguíneos). Por lo tanto, el procesamiento puede transformar la imagen de una imagen distorsionada vista por la(s) cámara(s) 38 a las imágenes que el usuario está viendo en las<pantallas>20<.>
Para determinar si se está visualizando la imagen correcta, el método 200 compara la(s) imagen(es) capturada(s) con la(s) imagen(es) maestra(s), paso 210. De esta manera, el sistema informático 28 es capaz de determinar diferencias entre la(s) imagen(es) capturada(s) y la(s) imagen(es) maestra(s). La comparación puede revelar una variedad de<problemas, incluyendo manchas en las pantallas>20<(a través de la detección de porciones borrosas de la(s) imagen(es) capturada(s)), reducción en el brillo de las pantallas>20<, píxeles defectuosos (por ejemplo, píxeles>atascados, píxeles muertos) , producción de imágenes incorrecta, coloración de imágenes incorrecta, falta de<producción de imágenes, alineación incorrecta de las características virtuales en las pantallas>20<con el entorno del mundo real visto a través de las pantallas>20<, entre otros.>
Después de comparar las imágenes, el método 200 determina si la imagen capturada es la misma (por ejemplo, coincide; es sustancialmente similar a) que la(s) imagen(es) maestra(s), paso 212. Si la imagen capturada es la misma<que la(s) imagen(es) maestra(s) (por ejemplo, en respuesta a que las imágenes son las mismas), el método>200<vuelve>al inicio (es decir, vuelve al paso 202). Por ejemplo, el método 200 puede repetirse a intervalos específicos durante el viaje. Estos intervalos pueden basarse en el tiempo y/o en la ubicación. Si la comparación determina que las imágenes<no son las mimas (por ejemplo, en respuesta a determinar que las imágenes no son las mimas), el método>200<calibra>las pantallas 20, paso 216. En algunas realizaciones, el método 200 puede extraer parámetros de calibración antes de calibrar el dispositivo de visualización portátil 12. Por ejemplo, el sistema informático 28 puede ajustar la temporización de la producción de imágenes si las imágenes no están sincronizadas con el tiempo y/o la ubicación en el recorrido. El sistema informático 28 también puede ajustar la coloración de las imágenes para representar con precisión o más precisión la imagen deseada. Por ejemplo, si se reduce la capacidad de las pantallas 20 para generar luz azul, el sistema informático 28 puede reducir el brillo de la luz roja y la luz amarilla para reducir la distorsión de las imágenes debido a la reducción de la luz azul. Después de calibrar el dispositivo de visualización portátil 12 (paso 134), el método 200 puede volver al paso 202 para verificar que el dispositivo de visualización portátil 12 ahora está mostrando las imágenes correctamente. Después de pasar por los pasos del método 200 y las imágenes todavía son<incorrectas (por ejemplo, en respuesta a que la imagen capturada es diferente de la imagen maestra), el método>200 puede producir, entonces, una señal de error, paso 214. La señal de error puede ser una señal visual (por ejemplo, luz roja intermitente) y/o una señal de audio (por ejemplo, solicitud de inspección) generada en el dispositivo de<visualización portátil>12<o en otro dispositivo (por ejemplo, tableta, ordenador, teléfono móvil, reloj) accesible para el>operador de la atracción. Entonces, el operador de la atracción puede inspeccionar, limpiar y/o reemplazar el dispositivo de visualización portátil 12. En algunas realizaciones, en respuesta a que la imagen capturada es diferente (por ejemplo, significativamente diferente) de la imagen maestra (por ejemplo, la imagen capturada indica que no se muestra ninguna imagen, que una porción grande de la pantalla tiene manchas, que una porción grande de los píxeles<son defectuosos, que la imagen virtual en las pantallas>20<no se alinea correctamente con el entorno del mundo real visto a través de las pantallas>20<) en el paso de comparación (>212<), el método>200<puede omitir el paso de calibración>(paso 216) y en su lugar puede proceder al paso de señal de error (paso 214).
En algunas realizaciones, el sistema informático 28 puede recopilar datos después de realizar los métodos descritos anteriormente en las figuras 4-6 para permitir el mantenimiento preventivo de los dispositivos de visualización portátiles 12 (por ejemplo, limpieza, reacondicionamiento). En otras palabras, el sistema informático 28 puede medir el tiempo<hasta el fallo recopilando datos sobre el funcionamiento de los dispositivos de visualización portátiles>12<utilizando la>retroalimentación desde las cámaras 38. Por ejemplo, el sistema informático 28 puede realizar un seguimiento de la disminución gradual del brillo de las pantallas 20 en el tiempo. Esto puede permitir la programación proactiva de reacondicionamiento o reemplazo de los dispositivos 20 antes de que fallen en un viaje. En otra realización, el sistema<informático 28 puede determinar con qué frecuencia se deben limpiar las pantallas>20<determinando después de cuántos usos de los dispositivos de visualización portátiles>12<las manchas acumuladas afectan significativamente la>percepción del usuario. De esta manera, el sistema informático 28 puede usar la retroalimentación a lo largo del tiempo desde las cámaras 38 para determinar el tiempo hasta el fallo o las necesidades de mantenimiento preventivo para una variedad de componentes (por ejemplo, cables, pantallas) de los dispositivos de visualización portátiles 12. En<algunas realizaciones, se pueden rastrear múltiples dispositivos de visualización portátiles>12<con una interfaz o una>aplicación que proporciona datos fácilmente accesibles a un operador de la atracción.
Como se expuso anteriormente, las realizaciones de la presente divulgación pueden proporcionar uno o más efectos técnicos útiles para detectar el mal funcionamiento de un dispositivo de visualización portátil. Debe entenderse que los efectos técnicos y los problemas técnicos en la memoria son ejemplos y no son limitativos. De hecho, debe señalarse que las realizaciones descritas en la memoria pueden tener otros efectos técnicos y pueden resolver otros problemas técnicos.
Si bien las realizaciones expuestas en la presente divulgación pueden ser susceptibles a diversas modificaciones y formas alternativas, se han mostrado realizaciones específicas a modo de ejemplo en los dibujos y se han descrito en detalle en la presente memoria. _No obstante, debe entenderse que la divulgación no pretende limitarse a las formas particulares divulgadas. La invención se define en las reivindicaciones adjuntas.
Claims (15)
1. Un sistema de visualización portátil (10), que comprende: un dispositivo de visualización portátil (12), en donde el<dispositivo de visualización portátil (>12<) es una pantalla montada en la cabeza, comprendiendo el dispositivo de visualización portátil (>12<):>
una carcasa (18);
<una pantalla (>20<) acoplada a la carcasa (18) y configurada para mostrar una imagen a un usuario;>una cámara (38) acoplada a la carcasa (18) y configurada para capturar la imagen, en donde la cámara (38)<está orientada hacia delante en una dirección (60) hacia la pantalla (>20<); y>
un sistema informático (28) configurado para recibir la imagen desde la cámara (38) y detectar problemas de visualización comparando continua o repetidamente la imagen con una imagen maestra para determinar si la imagen coincide con la imagen maestra.
2. El sistema de visualización portátil (10) de la reivindicación 1, en donde el sistema informático (28) está configurado<para controlar la pantalla (>20<) en respuesta a la comparación entre la imagen y la imagen maestra.>
3. El sistema de visualización portátil (10) de la reivindicación 1, que comprende una cámara adicional (38), en donde la cámara adicional (38) está orientada en una dirección (62) que se aleja de la pantalla (20) y la cámara adicional (38) está configurada para capturar la imagen en un ojo del usuario.
4. El sistema de visualización portátil (10) de la reivindicación 3, en donde el sistema informático (28) está configurado para procesar la imagen para eliminar los efectos distorsionadores de la curvatura del ojo y la imagen del ojo.
5. El sistema de visualización portátil (10) de la reivindicación 1, en donde el dispositivo de visualización portátil (12)<comprende uno o más sensores (>68<).>
6<. El sistema de visualización portátil (10) de la reivindicación 5, en donde el dispositivo de visualización portátil (12) está configurado para utilizar la retroalimentación desde los uno o más sensores (>68<) para determinar la imagen>maestra.
<7. El sistema de visualización portátil (10) de la reivindicación 5, en donde los uno o más sensores (>68<) incluyen un>sensor de orientación configurado para hacer seguimiento de una orientación del dispositivo de visualización portátil<(>12<).>
8<. El sistema de visualización portátil (10) de la reivindicación 1, en donde la imagen es una imagen de prueba que>comprende uno o más patrones.
9. Un método (160) de detectar problemas de visualización en un sistema de visualización portátil (10) que comprende<un dispositivo de visualización portátil (>12<), en donde el dispositivo de visualización portátil (>12<) es una pantalla>montada en la cabeza, comprendiendo el método (160):
detectar (164) con un sistema informático (28) una orientación del dispositivo de visualización portátil (12); capturar (166), con una cámara (38) del dispositivo de visualización portátil (12), una imagen producida en una pantalla (20) del dispositivo de visualización portátil (12), en donde la cámara (38) está acoplada a una<carcasa (18) del dispositivo de visualización portátil (>12<) y configurada para capturar la imagen, en donde la>cámara (38) está orientada hacia delante en una dirección (60) hacia la pantalla (20);
determinar con el sistema informático (28) una imagen maestra en respuesta a la orientación del dispositivo<de visualización portátil (>12<); y>
detectar con el sistema informático (28) problemas de visualización comparando continua o repetidamente (170) la imagen con la imagen maestra para determinar si la imagen coincide con la imagen maestra.
10. El método (160) de la reivindicación 9, que comprende determinar (162) con el sistema informático (28) una<ubicación del dispositivo de visualización portátil (>12<).>
11. El método (160) de la reivindicación 10, que determina con el sistema informático (28) la imagen maestra utilizando<la ubicación del dispositivo de visualización portátil (>12<).>
12. El método (160) de la reivindicación 9, que comprende controlar (176) con el sistema informático (28) la pantalla<(>20<) en respuesta a la comparación con el sistema informático (28) de la imagen con la imagen maestra.>
13. El método (160) de la reivindicación 9, en donde capturar con la cámara (38) la imagen producida por la pantalla (20) comprende capturar con la cámara (38) la imagen directamente desde la pantalla (20).
14. El método de la reivindicación 9, en donde la imagen es una imagen de prueba.
15. El método de la reivindicación 14, que comprende controlar con el sistema informático (28) la pantalla (20) en respuesta a determinar con el sistema informático (28) que la imagen de prueba no coincide con la imagen maestra.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962791735P | 2019-01-11 | 2019-01-11 | |
US16/738,788 US11200655B2 (en) | 2019-01-11 | 2020-01-09 | Wearable visualization system and method |
PCT/US2020/013165 WO2020146785A1 (en) | 2019-01-11 | 2020-01-10 | Wearable visualization system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2966264T3 true ES2966264T3 (es) | 2024-04-19 |
Family
ID=71516768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20704668T Active ES2966264T3 (es) | 2019-01-11 | 2020-01-10 | Sistema y método de visualización portátil |
Country Status (9)
Country | Link |
---|---|
US (3) | US11200656B2 (es) |
EP (3) | EP3908381A1 (es) |
JP (3) | JP2022517775A (es) |
KR (3) | KR20210113641A (es) |
CN (3) | CN113226498A (es) |
CA (3) | CA3125224A1 (es) |
ES (1) | ES2966264T3 (es) |
SG (3) | SG11202106742XA (es) |
WO (3) | WO2020146780A1 (es) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11127212B1 (en) * | 2017-08-24 | 2021-09-21 | Sean Asher Wilens | Method of projecting virtual reality imagery for augmenting real world objects and surfaces |
US11077825B2 (en) * | 2019-12-16 | 2021-08-03 | Plusai Limited | System and method for anti-tampering mechanism |
US11754689B2 (en) | 2019-12-16 | 2023-09-12 | Plusai, Inc. | System and method for detecting sensor adjustment need |
US11738694B2 (en) | 2019-12-16 | 2023-08-29 | Plusai, Inc. | System and method for anti-tampering sensor assembly |
US11470265B2 (en) | 2019-12-16 | 2022-10-11 | Plusai, Inc. | System and method for sensor system against glare and control thereof |
US11650415B2 (en) | 2019-12-16 | 2023-05-16 | Plusai, Inc. | System and method for a sensor protection mechanism |
US11313704B2 (en) | 2019-12-16 | 2022-04-26 | Plusai, Inc. | System and method for a sensor protection assembly |
US11724669B2 (en) | 2019-12-16 | 2023-08-15 | Plusai, Inc. | System and method for a sensor protection system |
US11792500B2 (en) * | 2020-03-18 | 2023-10-17 | Snap Inc. | Eyewear determining facial expressions using muscle sensors |
US11774770B2 (en) | 2020-06-03 | 2023-10-03 | Universal City Studios Llc | Interface device with three-dimensional (3-D) viewing functionality |
US20220026723A1 (en) * | 2020-07-24 | 2022-01-27 | Universal City Studios Llc | Electromagnetic coupling systems and methods for visualization device |
US11803063B2 (en) * | 2020-08-18 | 2023-10-31 | Universal City Studios Llc | Tether actuation systems and methods for visualization device |
CN115244920A (zh) * | 2020-12-11 | 2022-10-25 | Jvc建伍株式会社 | 头戴式显示器及其调整方法 |
US20220328571A1 (en) * | 2021-04-08 | 2022-10-13 | Semiconductor Energy Laboratory Co., Ltd. | Display apparatus and electronic device |
US11772667B1 (en) | 2022-06-08 | 2023-10-03 | Plusai, Inc. | Operating a vehicle in response to detecting a faulty sensor using calibration parameters of the sensor |
Family Cites Families (273)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7355807B2 (en) * | 2006-04-28 | 2008-04-08 | Hewlett-Packard Development Company, L.P. | Hard disk drive protection system and method |
JP3672586B2 (ja) * | 1994-03-24 | 2005-07-20 | 株式会社半導体エネルギー研究所 | 補正システムおよびその動作方法 |
TW290678B (es) * | 1994-12-22 | 1996-11-11 | Handotai Energy Kenkyusho Kk | |
KR100189178B1 (ko) * | 1995-05-19 | 1999-06-01 | 오우라 히로시 | 패널 화질 검사 장치 및 화질 보정 방법 |
US6259565B1 (en) | 1996-11-19 | 2001-07-10 | Sony Corporation | Display apparatus |
JPH11143379A (ja) * | 1997-09-03 | 1999-05-28 | Semiconductor Energy Lab Co Ltd | 半導体表示装置補正システムおよび半導体表示装置の補正方法 |
JP3854763B2 (ja) | 1999-11-19 | 2006-12-06 | キヤノン株式会社 | 画像表示装置 |
JP3583684B2 (ja) * | 2000-01-12 | 2004-11-04 | シャープ株式会社 | 画像欠陥検出装置および画像欠陥検出方法 |
US7734101B2 (en) * | 2000-10-11 | 2010-06-08 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and system for testing an image produced by a helmet-mounted display |
US7129975B2 (en) * | 2001-02-07 | 2006-10-31 | Dialog Imaging System Gmbh | Addressable imager with real time defect detection and substitution |
GB0121067D0 (en) * | 2001-08-31 | 2001-10-24 | Ibm | Drop detection device |
US7012756B2 (en) | 2001-11-14 | 2006-03-14 | Canon Kabushiki Kaisha | Display optical system, image display apparatus, image taking optical system, and image taking apparatus |
US7019909B2 (en) | 2001-11-14 | 2006-03-28 | Canon Kabushiki Kaisha | Optical system, image display apparatus, and image taking apparatus |
US20030215129A1 (en) * | 2002-05-15 | 2003-11-20 | Three-Five Systems, Inc. | Testing liquid crystal microdisplays |
US7495638B2 (en) | 2003-05-13 | 2009-02-24 | Research Triangle Institute | Visual display with increased field of view |
JP2005091219A (ja) * | 2003-09-18 | 2005-04-07 | Tokyo Electron Ltd | 落下検知装置又は異常検知装置と該装置を有する携帯機器 |
US20160098095A1 (en) | 2004-01-30 | 2016-04-07 | Electronic Scripting Products, Inc. | Deriving Input from Six Degrees of Freedom Interfaces |
US7059182B1 (en) * | 2004-03-03 | 2006-06-13 | Gary Dean Ragner | Active impact protection system |
ITTO20040436A1 (it) | 2004-06-28 | 2004-09-28 | St Microelectronics Srl | Dispositivo di rilevamento di caduta libera per la protezione di apparecchi portatili. |
JP4965800B2 (ja) | 2004-10-01 | 2012-07-04 | キヤノン株式会社 | 画像表示システム |
KR100618866B1 (ko) | 2004-10-02 | 2006-08-31 | 삼성전자주식회사 | 전자기기의 자유 낙하 검출방법 및 장치 |
US7350394B1 (en) | 2004-12-03 | 2008-04-01 | Maxtor Corporation | Zero-g offset identification of an accelerometer employed in a hard disk drive |
US7639260B2 (en) * | 2004-12-15 | 2009-12-29 | Xerox Corporation | Camera-based system for calibrating color displays |
TWI255342B (en) * | 2005-02-04 | 2006-05-21 | Benq Corp | Portable electronic device with an impact-detecting function |
JP4364157B2 (ja) * | 2005-04-22 | 2009-11-11 | トレックス・セミコンダクター株式会社 | 落下検出装置 |
US20060250322A1 (en) | 2005-05-09 | 2006-11-09 | Optics 1, Inc. | Dynamic vergence and focus control for head-mounted displays |
US7364306B2 (en) * | 2005-06-20 | 2008-04-29 | Digital Display Innovations, Llc | Field sequential light source modulation for a digital display system |
WO2007000178A1 (de) * | 2005-06-29 | 2007-01-04 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur verzerrungsfreien darstellung |
KR100723494B1 (ko) * | 2005-07-23 | 2007-06-04 | 삼성전자주식회사 | 모바일 기기의 자유 낙하 검출 방법, 이에 적합한 장치,그리고 이에 적합한 기록매체 |
KR100630762B1 (ko) | 2005-08-26 | 2006-10-04 | 삼성전자주식회사 | 디스크 드라이브의 자유 낙하 검출 방법 및 그 장치 |
JP2007264088A (ja) * | 2006-03-27 | 2007-10-11 | Funai Electric Co Ltd | 表示装置、焼き付き補正システム及び焼き付き補正方法 |
US7477469B2 (en) * | 2006-04-27 | 2009-01-13 | Seagate Technology Llc | Active protection system |
KR100818984B1 (ko) * | 2006-08-01 | 2008-04-04 | 삼성전자주식회사 | 영상 보정 시스템 및 그 동작 방법 |
US8406562B2 (en) * | 2006-08-11 | 2013-03-26 | Geo Semiconductor Inc. | System and method for automated calibration and correction of display geometry and color |
JP2010002181A (ja) | 2006-10-06 | 2010-01-07 | T & D:Kk | 落下を記録するための装置および方法 |
US8212859B2 (en) | 2006-10-13 | 2012-07-03 | Apple Inc. | Peripheral treatment for head-mounted displays |
US9667954B2 (en) | 2006-10-13 | 2017-05-30 | Apple Inc. | Enhanced image display in head-mounted displays |
CN101711401B (zh) * | 2007-04-19 | 2014-03-12 | 皇家飞利浦电子股份有限公司 | 跌倒检测系统 |
JP5603597B2 (ja) * | 2007-09-21 | 2014-10-08 | 株式会社村田製作所 | 落下検知装置、磁気ディスク装置および携帯電子機器 |
KR100920225B1 (ko) * | 2007-12-17 | 2009-10-05 | 한국전자통신연구원 | 영상을 이용한 3차원 그래픽 모델의 정확도 측정 방법 및장치 |
GB2468997A (en) | 2008-01-22 | 2010-09-29 | Univ Arizona State | Head-mounted projection display using reflective microdisplays |
US8025581B2 (en) | 2008-05-09 | 2011-09-27 | Disney Enterprises, Inc. | Interactive interface mounting assembly for amusement and theme park rides |
CN102099859B (zh) * | 2008-07-23 | 2015-04-15 | 株式会社村田制作所 | 下落检测装置、磁盘装置、以及便携式电子设备 |
CN101382559A (zh) * | 2008-09-04 | 2009-03-11 | 宇龙计算机通信科技(深圳)有限公司 | 一种移动终端及物体的掉落报警方法和装置 |
CN101377918B (zh) * | 2008-09-19 | 2013-02-27 | 李鑫 | 一种电子显示屏系统、电子显示屏亮度校正方法及系统 |
US8061182B2 (en) * | 2009-06-22 | 2011-11-22 | Research In Motion Limited | Portable electronic device and method of measuring drop impact at the portable electronic device |
JP2011077960A (ja) * | 2009-09-30 | 2011-04-14 | Brother Industries Ltd | ヘッドマウントディスプレイ |
CN102667882B (zh) * | 2009-11-25 | 2014-08-06 | 皇家飞利浦电子股份有限公司 | 用于检测用户跌倒的方法和装置 |
US8330305B2 (en) * | 2010-02-11 | 2012-12-11 | Amazon Technologies, Inc. | Protecting devices from impact damage |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US8964298B2 (en) | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US8477425B2 (en) | 2010-02-28 | 2013-07-02 | Osterhout Group, Inc. | See-through near-eye display glasses including a partially reflective, partially transmitting optical element |
JP5499854B2 (ja) | 2010-04-08 | 2014-05-21 | ソニー株式会社 | 頭部装着型ディスプレイにおける光学的位置調整方法 |
US10031576B2 (en) * | 2010-06-09 | 2018-07-24 | Dynavox Systems Llc | Speech generation device with a head mounted display unit |
US8941559B2 (en) | 2010-09-21 | 2015-01-27 | Microsoft Corporation | Opacity filter for display device |
WO2012040386A1 (en) | 2010-09-21 | 2012-03-29 | 4Iiii Innovations Inc. | Head-mounted peripheral vision display systems and methods |
US10359545B2 (en) | 2010-10-21 | 2019-07-23 | Lockheed Martin Corporation | Fresnel lens with reduced draft facet visibility |
IT1403374B1 (it) * | 2010-10-29 | 2013-10-17 | Bosco System Lab S P A | Apparato per la trasmissione di vibrazioni localizzate, in particolare a muscoli di un utilizzatore . |
US9292973B2 (en) | 2010-11-08 | 2016-03-22 | Microsoft Technology Licensing, Llc | Automatic variable virtual focus for augmented reality displays |
US8576276B2 (en) | 2010-11-18 | 2013-11-05 | Microsoft Corporation | Head-mounted display device which provides surround video |
US8694251B2 (en) * | 2010-11-25 | 2014-04-08 | Texas Instruments Incorporated | Attitude estimation for pedestrian navigation using low cost mems accelerometer in mobile applications, and processing methods, apparatus and systems |
JP2012141461A (ja) | 2010-12-29 | 2012-07-26 | Sony Corp | ヘッド・マウント・ディスプレイ |
CN103503025B (zh) * | 2011-02-25 | 2016-09-07 | 弗劳恩霍夫应用研究促进协会 | 基于对对象的模型进行变换来确定模型参数 |
US9183811B2 (en) * | 2011-04-01 | 2015-11-10 | Sharp Kabushiki Kaisha | Method of correcting unevenness of display panel and correction system |
JP5790187B2 (ja) | 2011-06-16 | 2015-10-07 | ソニー株式会社 | 表示装置 |
US9638711B2 (en) * | 2011-06-17 | 2017-05-02 | Verizon Telematics Inc. | Method and system for discerning a false positive in a fall detection signal |
CN102231016B (zh) * | 2011-06-28 | 2013-03-20 | 青岛海信电器股份有限公司 | 一种液晶模组亮度补偿方法、装置和系统 |
WO2013000075A1 (en) | 2011-06-29 | 2013-01-03 | Recon Instruments Inc. | Modular heads-up display systems |
AU2011204946C1 (en) | 2011-07-22 | 2012-07-26 | Microsoft Technology Licensing, Llc | Automatic text scrolling on a head-mounted display |
US9638836B1 (en) | 2011-08-17 | 2017-05-02 | Lockheed Martin Corporation | Lenses having astigmatism correcting inside reflective surface |
US9342610B2 (en) | 2011-08-25 | 2016-05-17 | Microsoft Technology Licensing, Llc | Portals: registered objects as virtualized, personalized displays |
US9402568B2 (en) | 2011-08-29 | 2016-08-02 | Verizon Telematics Inc. | Method and system for detecting a fall based on comparing data to criteria derived from multiple fall data sets |
WO2013040493A1 (en) * | 2011-09-16 | 2013-03-21 | Qualcomm Incorporated | Detecting that a mobile device is riding with a vehicle |
US9342108B2 (en) * | 2011-09-16 | 2016-05-17 | Apple Inc. | Protecting an electronic device |
US9285871B2 (en) | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US8866870B1 (en) | 2011-10-20 | 2014-10-21 | Lockheed Martin Corporation | Methods, apparatus, and systems for controlling from a first location a laser at a second location |
US8610781B2 (en) * | 2011-11-02 | 2013-12-17 | Stmicroelectronics, Inc. | System and method for light compensation in a video panel display |
JP5979507B2 (ja) | 2011-11-24 | 2016-08-24 | パナソニックIpマネジメント株式会社 | 頭部装着型ディスプレイ装置 |
US20130137076A1 (en) | 2011-11-30 | 2013-05-30 | Kathryn Stone Perez | Head-mounted display based education and instruction |
US20130141419A1 (en) | 2011-12-01 | 2013-06-06 | Brian Mount | Augmented reality with realistic occlusion |
US8705177B1 (en) | 2011-12-05 | 2014-04-22 | Google Inc. | Integrated near-to-eye display module |
US20150312561A1 (en) | 2011-12-06 | 2015-10-29 | Microsoft Technology Licensing, Llc | Virtual 3d monitor |
CN102402005B (zh) | 2011-12-06 | 2015-11-25 | 北京理工大学 | 自由曲面双焦面单目立体头盔显示器装置 |
US9497501B2 (en) | 2011-12-06 | 2016-11-15 | Microsoft Technology Licensing, Llc | Augmented reality virtual monitor |
US9451915B1 (en) * | 2012-02-29 | 2016-09-27 | Google Inc. | Performance of a diagnostic procedure using a wearable computing device |
CN102610056B (zh) * | 2012-03-16 | 2013-09-04 | 清华大学 | 面向手机佩戴方式的跌倒事件检测系统和方法 |
WO2013148747A1 (en) * | 2012-03-27 | 2013-10-03 | Vitaly Grossman | Wheeled platform powered by a cargo tracked vehicle and method for propulsion control thereof |
US9454007B1 (en) | 2012-05-07 | 2016-09-27 | Lockheed Martin Corporation | Free-space lens design and lenses therefrom |
US9146397B2 (en) * | 2012-05-30 | 2015-09-29 | Microsoft Technology Licensing, Llc | Customized see-through, electronic display device |
US9253524B2 (en) | 2012-07-20 | 2016-02-02 | Intel Corporation | Selective post-processing of decoded video frames based on focus point determination |
WO2014017348A1 (ja) * | 2012-07-24 | 2014-01-30 | ソニー株式会社 | 画像表示装置および画像表示方法 |
US9088787B1 (en) | 2012-08-13 | 2015-07-21 | Lockheed Martin Corporation | System, method and computer software product for providing visual remote assistance through computing systems |
US10073201B2 (en) | 2012-10-26 | 2018-09-11 | Qualcomm Incorporated | See through near-eye display |
US20140146394A1 (en) | 2012-11-28 | 2014-05-29 | Nigel David Tout | Peripheral display for a near-eye display device |
US8867139B2 (en) | 2012-11-30 | 2014-10-21 | Google Inc. | Dual axis internal optical beam tilt for eyepiece of an HMD |
US20140168264A1 (en) | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
US20140188426A1 (en) | 2012-12-27 | 2014-07-03 | Steven FASTERT | Monitoring hit count for impact events |
CA2896985A1 (en) | 2013-01-03 | 2014-07-10 | Meta Company | Extramissive spatial imaging digital eye glass for virtual or augmediated vision |
US9788714B2 (en) | 2014-07-08 | 2017-10-17 | Iarmourholdings, Inc. | Systems and methods using virtual reality or augmented reality environments for the measurement and/or improvement of human vestibulo-ocular performance |
US20140253702A1 (en) * | 2013-03-10 | 2014-09-11 | OrCam Technologies, Ltd. | Apparatus and method for executing system commands based on captured image data |
US9432492B2 (en) * | 2013-03-11 | 2016-08-30 | Apple Inc. | Drop countermeasures for electronic device |
US9519144B2 (en) | 2013-05-17 | 2016-12-13 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display having a defect |
US9582922B2 (en) | 2013-05-17 | 2017-02-28 | Nvidia Corporation | System, method, and computer program product to produce images for a near-eye light field display |
JP2014238731A (ja) * | 2013-06-07 | 2014-12-18 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理システム、および画像処理方法 |
US10905943B2 (en) | 2013-06-07 | 2021-02-02 | Sony Interactive Entertainment LLC | Systems and methods for reducing hops associated with a head mounted system |
US10137361B2 (en) | 2013-06-07 | 2018-11-27 | Sony Interactive Entertainment America Llc | Systems and methods for using reduced hops to generate an augmented virtual reality scene within a head mounted system |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US20150003819A1 (en) | 2013-06-28 | 2015-01-01 | Nathan Ackerman | Camera auto-focus based on eye gaze |
US9152022B2 (en) * | 2013-07-11 | 2015-10-06 | Intel Corporation | Techniques for adjusting a projected image |
US9264702B2 (en) * | 2013-08-19 | 2016-02-16 | Qualcomm Incorporated | Automatic calibration of scene camera for optical see-through head mounted display |
JP6237000B2 (ja) | 2013-08-29 | 2017-11-29 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
CN103472257A (zh) * | 2013-09-12 | 2013-12-25 | 天津三星通信技术研究有限公司 | 一种便携式终端加速度的检测方法及其检测系统 |
WO2015051660A1 (zh) | 2013-10-13 | 2015-04-16 | 北京蚁视科技有限公司 | 头戴式立体显示器 |
US9569886B2 (en) | 2013-12-19 | 2017-02-14 | Intel Corporation | Variable shading |
US9319622B2 (en) * | 2014-01-09 | 2016-04-19 | International Business Machines Corporation | Video projector with automated image enhancement |
US9696552B1 (en) | 2014-01-10 | 2017-07-04 | Lockheed Martin Corporation | System and method for providing an augmented reality lightweight clip-on wearable device |
US9310610B2 (en) | 2014-01-21 | 2016-04-12 | Osterhout Group, Inc. | See-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9389423B2 (en) | 2014-03-11 | 2016-07-12 | Google Inc. | Head wearable display with adjustable transparency |
US9037125B1 (en) * | 2014-04-07 | 2015-05-19 | Google Inc. | Detecting driving with a wearable computing device |
US9715257B2 (en) * | 2014-04-18 | 2017-07-25 | Apple Inc. | Active screen protection for electronic device |
JP2015228050A (ja) | 2014-05-30 | 2015-12-17 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9360671B1 (en) | 2014-06-09 | 2016-06-07 | Google Inc. | Systems and methods for image zoom |
AU2015303267A1 (en) | 2014-08-11 | 2016-07-07 | Vr Coaster Gmbh & Co. Kg | Method for operating a device, in particular an amusement ride, transport means, a fitness device or similar |
US9690375B2 (en) | 2014-08-18 | 2017-06-27 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
US10261579B2 (en) | 2014-09-01 | 2019-04-16 | Samsung Electronics Co., Ltd. | Head-mounted display apparatus |
KR102230076B1 (ko) | 2014-09-01 | 2021-03-19 | 삼성전자 주식회사 | 헤드 마운트 디스플레이 장치 |
US20160093230A1 (en) | 2014-09-30 | 2016-03-31 | Lockheed Martin Corporation | Domeless simulator |
US9984505B2 (en) | 2014-09-30 | 2018-05-29 | Sony Interactive Entertainment Inc. | Display of text information on a head-mounted display |
US20160097929A1 (en) | 2014-10-01 | 2016-04-07 | Dawson Yee | See-through display optic structure |
US20160097930A1 (en) | 2014-10-06 | 2016-04-07 | Steven John Robbins | Microdisplay optical system having two microlens arrays |
WO2016061447A1 (en) | 2014-10-17 | 2016-04-21 | Lockheed Martin Corporation | Head-wearable ultra-wide field of view display device |
CN110058414B (zh) | 2014-10-24 | 2021-10-12 | 埃马金公司 | 基于微显示器的沉浸式头戴视图器 |
US10057968B2 (en) | 2014-11-18 | 2018-08-21 | Meta Company | Wide field of view head mounted display apparatuses, methods and systems |
US10495884B2 (en) | 2014-12-14 | 2019-12-03 | Elbit Systems Ltd. | Visual perception enhancement of displayed color symbology |
US9581819B1 (en) | 2014-12-17 | 2017-02-28 | Lockheed Martin Corporation | See-through augmented reality system |
WO2016105521A1 (en) | 2014-12-23 | 2016-06-30 | Meta Company | Apparatuses, methods and systems coupling visual accommodation and visual convergence to the same plane at any depth of an object of interest |
EP3237953A1 (en) | 2014-12-26 | 2017-11-01 | CY Vision Inc. | Near-to-eye display device with variable resolution |
US10108832B2 (en) | 2014-12-30 | 2018-10-23 | Hand Held Products, Inc. | Augmented reality vision barcode scanning system and method |
EP3243557B1 (en) | 2015-01-05 | 2020-03-04 | Sony Corporation | Information processing device, information processing method, and program |
KR102261876B1 (ko) * | 2015-01-06 | 2021-06-07 | 삼성디스플레이 주식회사 | 표시 장치 및 그 구동 방법 |
US10740971B2 (en) | 2015-01-20 | 2020-08-11 | Microsoft Technology Licensing, Llc | Augmented reality field of view object follower |
WO2016126672A1 (en) * | 2015-02-02 | 2016-08-11 | Brian Mullins | Head mounted display calibration |
WO2016130941A1 (en) | 2015-02-12 | 2016-08-18 | Google Inc. | Combining a high resolution narrow field display and a mid resolution wide field display |
WO2016141054A1 (en) | 2015-03-02 | 2016-09-09 | Lockheed Martin Corporation | Wearable display system |
US9726885B2 (en) * | 2015-03-31 | 2017-08-08 | Timothy A. Cummings | System for virtual display and method of use |
US9690374B2 (en) | 2015-04-27 | 2017-06-27 | Google Inc. | Virtual/augmented reality transition system and method |
US20160349509A1 (en) * | 2015-05-26 | 2016-12-01 | Microsoft Technology Licensing, Llc | Mixed-reality headset |
US10038887B2 (en) | 2015-05-27 | 2018-07-31 | Google Llc | Capture and render of panoramic virtual reality content |
US20170363949A1 (en) | 2015-05-27 | 2017-12-21 | Google Inc | Multi-tier camera rig for stereoscopic image capture |
US9877016B2 (en) | 2015-05-27 | 2018-01-23 | Google Llc | Omnistereo capture and render of panoramic virtual reality content |
US10366534B2 (en) | 2015-06-10 | 2019-07-30 | Microsoft Technology Licensing, Llc | Selective surface mesh regeneration for 3-dimensional renderings |
US9638921B2 (en) | 2015-06-11 | 2017-05-02 | Oculus Vr, Llc | Strap system for head-mounted displays |
US9977493B2 (en) | 2015-06-17 | 2018-05-22 | Microsoft Technology Licensing, Llc | Hybrid display system |
WO2016209941A1 (en) | 2015-06-23 | 2016-12-29 | Google Inc. | Head mounted display device with dual curved displays |
CA2991644C (en) | 2015-07-06 | 2022-03-01 | Frank Jones | Methods and devices for demountable head mounted displays |
US9454010B1 (en) | 2015-08-07 | 2016-09-27 | Ariadne's Thread (Usa), Inc. | Wide field-of-view head mounted display system |
US9606362B2 (en) | 2015-08-07 | 2017-03-28 | Ariadne's Thread (Usa), Inc. | Peripheral field-of-view illumination system for a head mounted display |
JP6565465B2 (ja) * | 2015-08-12 | 2019-08-28 | セイコーエプソン株式会社 | 画像表示装置、コンピュータープログラム、および画像表示システム |
US10169917B2 (en) | 2015-08-20 | 2019-01-01 | Microsoft Technology Licensing, Llc | Augmented reality |
US10235808B2 (en) | 2015-08-20 | 2019-03-19 | Microsoft Technology Licensing, Llc | Communication system |
US20170053445A1 (en) | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Augmented Reality |
CN105139596A (zh) * | 2015-09-15 | 2015-12-09 | 广东小天才科技有限公司 | 一种基于可穿戴设备进行脱落提醒的方法和系统 |
US10565446B2 (en) * | 2015-09-24 | 2020-02-18 | Tobii Ab | Eye-tracking enabled wearable devices |
KR102411738B1 (ko) * | 2015-09-25 | 2022-06-21 | 삼성전자 주식회사 | 낙상 감지 장치 및 그 제어방법 |
US10082865B1 (en) * | 2015-09-29 | 2018-09-25 | Rockwell Collins, Inc. | Dynamic distortion mapping in a worn display |
CN108139803B (zh) * | 2015-10-08 | 2021-04-20 | Pcms控股公司 | 用于动态显示器配置的自动校准的方法及系统 |
EP3360001B1 (en) | 2015-10-08 | 2023-11-15 | LG Electronics Inc. | Head mount display device |
US10088685B1 (en) | 2015-10-19 | 2018-10-02 | Meta Company | Apparatuses, methods and systems for multiple focal distance display |
US10754156B2 (en) | 2015-10-20 | 2020-08-25 | Lockheed Martin Corporation | Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system |
US20170116950A1 (en) | 2015-10-22 | 2017-04-27 | Google Inc. | Liquid crystal display with variable drive voltage |
US9741125B2 (en) | 2015-10-28 | 2017-08-22 | Intel Corporation | Method and system of background-foreground segmentation for image processing |
CN105389957B (zh) * | 2015-10-29 | 2017-12-29 | 小米科技有限责任公司 | 可穿戴设备的通信方法、装置及系统 |
CN105208219A (zh) * | 2015-10-30 | 2015-12-30 | 努比亚技术有限公司 | 一种移动终端跌落提醒的方法及装置 |
CN113358045A (zh) | 2015-11-04 | 2021-09-07 | 奇跃公司 | 光场显示度量 |
US10001683B2 (en) | 2015-11-06 | 2018-06-19 | Microsoft Technology Licensing, Llc | Low-profile microdisplay module |
USD812612S1 (en) | 2015-11-18 | 2018-03-13 | Meta Company | Optical head mounted display with transparent visor |
US10424117B2 (en) * | 2015-12-02 | 2019-09-24 | Seiko Epson Corporation | Controlling a display of a head-mounted display device |
US10173588B2 (en) * | 2015-12-04 | 2019-01-08 | Karl Lenker | Systems and methods for motorbike collision avoidance |
US10445860B2 (en) * | 2015-12-08 | 2019-10-15 | Facebook Technologies, Llc | Autofocus virtual reality headset |
US9763342B2 (en) | 2015-12-09 | 2017-09-12 | Oculus Vr, Llc | Cable retention assembly for a head mounted display |
US10147235B2 (en) | 2015-12-10 | 2018-12-04 | Microsoft Technology Licensing, Llc | AR display with adjustable stereo overlap zone |
US20170176747A1 (en) | 2015-12-21 | 2017-06-22 | Tuomas Heikki Sakari Vallius | Multi-Pupil Display System for Head-Mounted Display Device |
US10229540B2 (en) | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
US20170188021A1 (en) | 2015-12-24 | 2017-06-29 | Meta Company | Optical engine for creating wide-field of view fovea-based display |
WO2017120271A1 (en) | 2016-01-04 | 2017-07-13 | Meta Company | Apparatuses, methods and systems for application of forces within a 3d virtual environment |
WO2017120552A1 (en) | 2016-01-06 | 2017-07-13 | Meta Company | Apparatuses, methods and systems for pre-warping images for a display system with a distorting optical component |
IL301884A (en) * | 2016-01-19 | 2023-06-01 | Magic Leap Inc | Augmented reality systems and methods that use reflections |
EP3347811A1 (en) | 2016-01-21 | 2018-07-18 | Google LLC | Global command interface for a hybrid display, corresponding method, and head mounted display |
US10229541B2 (en) | 2016-01-28 | 2019-03-12 | Sony Interactive Entertainment America Llc | Methods and systems for navigation within virtual reality space using head mounted display |
US10209785B2 (en) | 2016-02-02 | 2019-02-19 | Microsoft Technology Licensing, Llc | Volatility based cursor tethering |
US11112266B2 (en) | 2016-02-12 | 2021-09-07 | Disney Enterprises, Inc. | Method for motion-synchronized AR or VR entertainment experience |
USD776111S1 (en) | 2016-02-15 | 2017-01-10 | Meta Company | Forehead pad |
USD776110S1 (en) | 2016-02-15 | 2017-01-10 | Meta Company | Head-mounted display |
WO2017142977A1 (en) | 2016-02-15 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for tethering 3-d virtual elements to digital content |
US10169922B2 (en) | 2016-02-16 | 2019-01-01 | Microsoft Technology Licensing, Llc | Reality mixer for mixed reality |
WO2017143303A1 (en) | 2016-02-17 | 2017-08-24 | Meta Company | Apparatuses, methods and systems for sharing virtual elements |
US10473933B2 (en) | 2016-02-19 | 2019-11-12 | Microsoft Technology Licensing, Llc | Waveguide pupil relay |
US9933624B1 (en) | 2016-03-01 | 2018-04-03 | Daryl White | System and method for providing individualized virtual reality for an amusement attraction |
US9778467B1 (en) | 2016-03-01 | 2017-10-03 | Daryl White | Head mounted display |
US9984510B1 (en) | 2016-03-02 | 2018-05-29 | Meta Company | System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements |
US9928661B1 (en) | 2016-03-02 | 2018-03-27 | Meta Company | System and method for simulating user interaction with virtual objects in an interactive space |
US10168768B1 (en) | 2016-03-02 | 2019-01-01 | Meta Company | Systems and methods to facilitate interactions in an interactive space |
US10212517B1 (en) | 2016-03-02 | 2019-02-19 | Meta Company | Head-mounted display system with a surround sound system |
US9964767B2 (en) | 2016-03-03 | 2018-05-08 | Google Llc | Display with reflected LED micro-display panels |
CN108781320B (zh) * | 2016-03-14 | 2020-08-04 | 索诺瓦公司 | 具有丢失检测功能的无线身体佩戴式个人设备 |
KR102448919B1 (ko) | 2016-03-16 | 2022-10-04 | 삼성디스플레이 주식회사 | 표시 장치 |
US10325229B2 (en) * | 2016-03-16 | 2019-06-18 | Triax Technologies, Inc. | Wearable sensor for tracking worksite events including sensor removal |
US10133345B2 (en) | 2016-03-22 | 2018-11-20 | Microsoft Technology Licensing, Llc | Virtual-reality navigation |
US10003726B2 (en) * | 2016-03-25 | 2018-06-19 | Microsoft Technology Licensing, Llc | Illumination module for near eye-to-eye display system |
US10175487B2 (en) | 2016-03-29 | 2019-01-08 | Microsoft Technology Licensing, Llc | Peripheral display for head mounted display device |
US9946074B2 (en) | 2016-04-07 | 2018-04-17 | Google Llc | See-through curved eyepiece with patterned optical combiner |
US20170305083A1 (en) | 2016-04-26 | 2017-10-26 | David A Smith | Systems and methods for forming optical lenses with an undercut |
US9965899B2 (en) | 2016-04-28 | 2018-05-08 | Verizon Patent And Licensing Inc. | Methods and systems for minimizing pixel data transmission in a network-based virtual reality media delivery configuration |
US20170323482A1 (en) * | 2016-05-05 | 2017-11-09 | Universal City Studios Llc | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
US20170323416A1 (en) | 2016-05-09 | 2017-11-09 | Intel Corporation | Processing image fragments from one frame in separate image processing pipes based on image analysis |
US10186088B2 (en) | 2016-05-13 | 2019-01-22 | Meta Company | System and method for managing interactive virtual frames for virtual objects in a virtual environment |
US9990779B2 (en) | 2016-05-13 | 2018-06-05 | Meta Company | System and method for modifying virtual objects in a virtual environment in response to user interactions |
US10496156B2 (en) | 2016-05-17 | 2019-12-03 | Google Llc | Techniques to change location of objects in a virtual/augmented reality system |
US10502363B2 (en) | 2016-05-17 | 2019-12-10 | Occipital, Inc. | Self-contained mixed reality head mounted display |
US9983697B1 (en) | 2016-05-18 | 2018-05-29 | Meta Company | System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors |
US10151927B2 (en) | 2016-05-31 | 2018-12-11 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
US9979956B1 (en) * | 2016-06-09 | 2018-05-22 | Oculus Vr, Llc | Sharpness and blemish quality test subsystem for eyecup assemblies of head mounted displays |
US10226204B2 (en) | 2016-06-17 | 2019-03-12 | Philips North America Llc | Method for detecting and responding to falls by residents within a facility |
US10075685B1 (en) * | 2016-06-19 | 2018-09-11 | Oculus Vr, Llc | Virtual image distance test subsystem for eyecup assemblies of head mounted displays |
US9773438B1 (en) | 2016-06-29 | 2017-09-26 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
CN109661194B (zh) | 2016-07-14 | 2022-02-25 | 奇跃公司 | 使用角膜曲率的虹膜边界估计 |
US10614653B2 (en) * | 2016-07-22 | 2020-04-07 | Universal Entertainment Corporation | Gaming machine including projection-type display screen |
CN106019597A (zh) | 2016-07-27 | 2016-10-12 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
CA3034088A1 (en) * | 2016-08-17 | 2018-02-22 | Racing Optics, Inc. | Mobile device impact protection |
AU2017316667B2 (en) * | 2016-08-22 | 2022-01-27 | Magic Leap, Inc. | Multi-layer diffractive eyepiece |
CN106154555B (zh) | 2016-08-24 | 2020-08-21 | 北京小米移动软件有限公司 | 虚拟现实眼镜 |
CN106355828A (zh) * | 2016-08-26 | 2017-01-25 | 深圳市沃特沃德股份有限公司 | 检测穿戴设备脱落的方法和装置 |
TWI622803B (zh) | 2016-08-30 | 2018-05-01 | 廣達電腦股份有限公司 | 頭戴式顯示裝置 |
US10026231B1 (en) | 2016-09-12 | 2018-07-17 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
US9958951B1 (en) | 2016-09-12 | 2018-05-01 | Meta Company | System and method for providing views of virtual content in an augmented reality environment |
DE202017105948U1 (de) | 2016-10-03 | 2018-03-07 | Google LLC (n.d.Ges.d. Staates Delaware) | Augmented-Reality- und/oder Virtual-Reality-Headset |
US10425636B2 (en) * | 2016-10-03 | 2019-09-24 | Microsoft Technology Licensing, Llc | Automatic detection and correction of binocular misalignment in a display device |
US10334240B2 (en) * | 2016-10-28 | 2019-06-25 | Daqri, Llc | Efficient augmented reality display calibration |
US20180126116A1 (en) * | 2016-11-07 | 2018-05-10 | Blw Ip, Llc | Integrated Stroboscopic Eyewear For Sensory Training |
US10459236B2 (en) | 2016-12-09 | 2019-10-29 | Lg Electronics Inc. | Head-mounted display device with earbud holder |
US10805767B2 (en) * | 2016-12-15 | 2020-10-13 | Philips North America Llc | Method for tracking the location of a resident within a facility |
US10909895B2 (en) * | 2016-12-20 | 2021-02-02 | Sakai Display Products Corporation | Correction system, display panel, display device, correction method, and storage medium |
JP6215441B1 (ja) * | 2016-12-27 | 2017-10-18 | 株式会社コロプラ | 仮想空間を提供するための方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置 |
CA3049379A1 (en) * | 2017-01-05 | 2018-07-12 | Philipp K. Lang | Improved accuracy of displayed virtual data with optical head mount displays for mixed reality |
US10127727B1 (en) | 2017-01-10 | 2018-11-13 | Meta Company | Systems and methods to provide an interactive environment over an expanded field-of-view |
KR102623391B1 (ko) * | 2017-01-10 | 2024-01-11 | 삼성전자주식회사 | 영상 출력 방법 및 이를 지원하는 전자 장치 |
US20180196262A1 (en) | 2017-01-12 | 2018-07-12 | Artavious Cage | Virtual reality system |
CN106652347A (zh) * | 2017-01-24 | 2017-05-10 | 深圳前海零距物联网科技有限公司 | 智能头盔摔倒检测方法及智能头盔 |
CN106693338B (zh) * | 2017-02-13 | 2022-04-19 | 中国航天员科研训练中心 | 视觉虚拟涌浪运动防护训练装置 |
WO2018154877A1 (ja) * | 2017-02-24 | 2018-08-30 | 富士フイルム株式会社 | 付加情報表示装置、方法およびプログラム |
US10785471B1 (en) * | 2017-05-12 | 2020-09-22 | Facebook Technologies, Llc | Upsampling content for head-mounted displays |
EP3625614A4 (en) | 2017-05-18 | 2020-12-30 | The Arizona Board of Regents on behalf of the University of Arizona | MULTILAYER HEAD MOUNTED DISPLAY WITH HIGH DYNAMIC RANGE |
GB2562758B (en) | 2017-05-24 | 2021-05-12 | Sony Interactive Entertainment Inc | Input device and method |
US10168789B1 (en) | 2017-05-31 | 2019-01-01 | Meta Company | Systems and methods to facilitate user interactions with virtual content having two-dimensional representations and/or three-dimensional representations |
US10241545B1 (en) * | 2017-06-01 | 2019-03-26 | Facebook Technologies, Llc | Dynamic distortion correction for optical compensation |
US10277893B1 (en) * | 2017-06-22 | 2019-04-30 | Facebook Technologies, Llc | Characterization of optical distortion in a head mounted display |
US10430939B1 (en) * | 2017-08-28 | 2019-10-01 | Facebook Technologies, Llc | Full display panel grid-based virtual image distance test subsystem for eyecup assemblies of head mounted displays |
US10522110B1 (en) * | 2017-08-30 | 2019-12-31 | Facebook Technologies, Llc | Apparatuses, systems, and methods for measuring and adjusting the luminance of a head-mounted display |
JP6953247B2 (ja) * | 2017-09-08 | 2021-10-27 | ラピスセミコンダクタ株式会社 | ゴーグル型表示装置、視線検出方法及び視線検出システム |
AU2018373975B2 (en) * | 2017-11-27 | 2020-12-17 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Electronic device |
US10663738B2 (en) * | 2017-12-04 | 2020-05-26 | Samsung Electronics Co., Ltd. | System and method for HMD configurable for various mobile device sizes |
EP3729182B1 (en) * | 2017-12-21 | 2023-11-22 | BAE SYSTEMS plc | Eye tracking for head-worn display |
US10692473B1 (en) * | 2018-03-13 | 2020-06-23 | Facebook Technologies, Llc | Display pixel correction using compression |
US10948983B2 (en) * | 2018-03-21 | 2021-03-16 | Samsung Electronics Co., Ltd. | System and method for utilizing gaze tracking and focal point tracking |
US10902820B2 (en) | 2018-04-16 | 2021-01-26 | Facebook Technologies, Llc | Display device with dynamic resolution enhancement |
US10591737B2 (en) * | 2018-04-20 | 2020-03-17 | Dell Products L.P. | Systems and methods for automatic adjustment of head mounted display straps |
US10491890B1 (en) * | 2018-05-14 | 2019-11-26 | Dell Products L.P. | Systems and methods for automatic adjustment for vertical and rotational imbalance in augmented and virtual reality head-mounted displays |
US10685515B2 (en) * | 2018-09-10 | 2020-06-16 | Ford Global Technologies, Llc | In-vehicle location uncertainty management for passive start |
JP7143736B2 (ja) * | 2018-11-20 | 2022-09-29 | トヨタ自動車株式会社 | 運転支援装置、ウェアラブル装置、運転支援方法およびプログラム |
US11009943B2 (en) * | 2018-12-02 | 2021-05-18 | Vigo Technologies, Inc. | On/off detection in wearable electronic devices |
US11042034B2 (en) * | 2018-12-27 | 2021-06-22 | Facebook Technologies, Llc | Head mounted display calibration using portable docking station with calibration target |
-
2020
- 2020-01-09 US US16/738,908 patent/US11200656B2/en active Active
- 2020-01-09 US US16/738,788 patent/US11200655B2/en active Active
- 2020-01-09 US US16/738,906 patent/US11210772B2/en active Active
- 2020-01-10 CA CA3125224A patent/CA3125224A1/en active Pending
- 2020-01-10 SG SG11202106742XA patent/SG11202106742XA/en unknown
- 2020-01-10 SG SG11202106819TA patent/SG11202106819TA/en unknown
- 2020-01-10 WO PCT/US2020/013159 patent/WO2020146780A1/en unknown
- 2020-01-10 WO PCT/US2020/013163 patent/WO2020146783A1/en unknown
- 2020-01-10 WO PCT/US2020/013165 patent/WO2020146785A1/en unknown
- 2020-01-10 JP JP2021539873A patent/JP2022517775A/ja active Pending
- 2020-01-10 CA CA3124892A patent/CA3124892A1/en active Pending
- 2020-01-10 ES ES20704668T patent/ES2966264T3/es active Active
- 2020-01-10 CN CN202080008636.4A patent/CN113226498A/zh active Pending
- 2020-01-10 CN CN202080008663.1A patent/CN113226499B/zh active Active
- 2020-01-10 KR KR1020217024863A patent/KR20210113641A/ko unknown
- 2020-01-10 CA CA3125222A patent/CA3125222A1/en active Pending
- 2020-01-10 EP EP20704156.7A patent/EP3908381A1/en active Pending
- 2020-01-10 JP JP2021539874A patent/JP2022517945A/ja active Pending
- 2020-01-10 EP EP20703905.8A patent/EP3908380A1/en active Pending
- 2020-01-10 SG SG11202106745SA patent/SG11202106745SA/en unknown
- 2020-01-10 EP EP20704668.1A patent/EP3908382B1/en active Active
- 2020-01-10 KR KR1020217025240A patent/KR20210114439A/ko unknown
- 2020-01-10 CN CN202080008665.0A patent/CN113260427A/zh active Pending
- 2020-01-10 JP JP2021540204A patent/JP2022517227A/ja active Pending
- 2020-01-10 KR KR1020217025239A patent/KR20210114023A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
SG11202106745SA (en) | 2021-07-29 |
JP2022517775A (ja) | 2022-03-10 |
CN113226499B (zh) | 2023-09-26 |
US11200656B2 (en) | 2021-12-14 |
US11200655B2 (en) | 2021-12-14 |
US11210772B2 (en) | 2021-12-28 |
CA3125222A1 (en) | 2020-07-16 |
US20200226738A1 (en) | 2020-07-16 |
EP3908380A1 (en) | 2021-11-17 |
CN113260427A (zh) | 2021-08-13 |
KR20210113641A (ko) | 2021-09-16 |
CA3124892A1 (en) | 2020-07-16 |
EP3908382B1 (en) | 2023-08-23 |
JP2022517945A (ja) | 2022-03-11 |
SG11202106742XA (en) | 2021-07-29 |
KR20210114439A (ko) | 2021-09-23 |
KR20210114023A (ko) | 2021-09-17 |
WO2020146785A1 (en) | 2020-07-16 |
EP3908382A1 (en) | 2021-11-17 |
WO2020146783A1 (en) | 2020-07-16 |
EP3908381A1 (en) | 2021-11-17 |
SG11202106819TA (en) | 2021-07-29 |
US20200225715A1 (en) | 2020-07-16 |
JP2022517227A (ja) | 2022-03-07 |
CA3125224A1 (en) | 2020-07-16 |
WO2020146780A1 (en) | 2020-07-16 |
CN113226498A (zh) | 2021-08-06 |
US20200226838A1 (en) | 2020-07-16 |
CN113226499A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2966264T3 (es) | Sistema y método de visualización portátil | |
US20230185367A1 (en) | Systems and methods for generating augmented and virtual reality images | |
JP6824279B2 (ja) | インサイドアウト方式のポジション、ユーザボディ、及び環境トラッキングを伴うバーチャルリアリティ及びミックスドリアリティ用ヘッドマウントディスプレイ | |
JP7026214B2 (ja) | ヘッドマウントディスプレイ追跡システム | |
CN104244807B (zh) | 注视点检测装置以及注视点检测方法 | |
CN108351523A (zh) | 利用头戴式显示器使用立体照相机以及结构光的深度映射 | |
CN104956252A (zh) | 用于近眼显示设备的外围显示器 | |
US11269400B2 (en) | Positioning system | |
US20230359038A1 (en) | Eyewear having unsynchronized rolling shutter cameras | |
KR102457608B1 (ko) | 차량에서 가상 현실용 헤드셋을 동작하는 방법 및 제어 장치 | |
US11212485B2 (en) | Transparency system for commonplace camera | |
US11622104B2 (en) | Camera holder for economical and simplified test alignment | |
US11688040B2 (en) | Imaging systems and methods for correcting visual artifacts caused by camera straylight | |
WO2020049665A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、及びプログラム |