ES2858320T3 - Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual - Google Patents
Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual Download PDFInfo
- Publication number
- ES2858320T3 ES2858320T3 ES17723901T ES17723901T ES2858320T3 ES 2858320 T3 ES2858320 T3 ES 2858320T3 ES 17723901 T ES17723901 T ES 17723901T ES 17723901 T ES17723901 T ES 17723901T ES 2858320 T3 ES2858320 T3 ES 2858320T3
- Authority
- ES
- Spain
- Prior art keywords
- glasses
- attraction
- real world
- stereoscopic
- world environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 25
- 230000003190 augmentative effect Effects 0.000 title claims description 11
- 239000011521 glass Substances 0.000 claims abstract description 136
- 230000000007 visual effect Effects 0.000 claims abstract description 14
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000012800 visualization Methods 0.000 abstract 1
- UCTWMZQNUQWSLP-UHFFFAOYSA-N adrenaline Chemical compound CNCC(O)C1=CC=C(O)C(O)=C1 UCTWMZQNUQWSLP-UHFFFAOYSA-N 0.000 description 103
- 230000000694 effects Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 230000010287 polarization Effects 0.000 description 11
- UCTWMZQNUQWSLP-VIFPVBQESA-N (R)-adrenaline Chemical compound CNC[C@H](O)C1=CC=C(O)C(O)=C1 UCTWMZQNUQWSLP-VIFPVBQESA-N 0.000 description 6
- 238000004891 communication Methods 0.000 description 6
- 230000001404 mediated effect Effects 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 229940102884 adrenalin Drugs 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009435 building construction Methods 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000002675 image-guided surgery Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- 230000004580 weight loss Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G21/00—Chutes; Helter-skelters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G7/00—Up-and-down hill tracks; Switchbacks
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/22—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
- G02B30/25—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/324—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/383—Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0181—Adaptation to the pilot/driver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0183—Adaptation to parameters characterising the motion of the vehicle
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/008—Aspects relating to glasses for viewing stereoscopic images
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Sistema de atracción, que comprende: gafas (34) configuradas para ser usadas por un usuario, en el que las gafas (34) comprenden una pantalla (37, 38) transparente que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas externamente generadas por una fuente externa a las gafas (34) y proyectadas sobre un entorno del mundo real, donde la visión de las imágenes estereoscópicas generadas externamente es posible gracias a que el usuario ve a través de la pantalla (37, 38); y un sistema (32) de generación de gráficos por ordenador acoplado de manera comunicativa a las gafas (34), comprendiendo el sistema (32) de generación de gráficos por ordenador un proyector (53) estereoscópico y estando configurado para: generar contenido visual de transmisión continua del entorno del mundo real en base a los datos de imágenes del entorno del mundo real; generar uno o más aumentos virtuales superpuestos sobre el contenido visual de transmisión continua del entorno del mundo real; transmitir el contenido visual de transmisión continua del entorno del mundo real junto con los uno o más aumentos virtuales superpuestos para visualizarlos en la pantalla (37, 38) de las gafas (34); proyectar imágenes estereoscópicas en el entorno del mundo real usando el proyector (53) estereoscópico; finalizar la generación del contenido visual de transmisión continua del entorno del mundo real en base a una orientación de las gafas (34), una posición del usuario, un punto de vista del usuario o una combinación de los mismos; y empezar a funcionar en un modo que permite la visión de las imágenes estereoscópicas generadas externamente mediante la pantalla.
Description
DESCRIPCIÓN
Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual Antecedentes
La materia objeto descrita en la presente memoria se refiere a atracciones de parques de atracciones y, más específicamente, a la provisión de mejores factores de emoción y componentes de interés en las atracciones de parques de atracciones.
Los parques de atracciones y/o parques temáticos pueden incluir varias atracciones de entretenimiento, restaurantes y atracciones útiles para proporcionar diversión a los clientes (por ejemplo, familias y/o personas de todas las edades) del parque de atracciones. Por ejemplo, las atracciones pueden incluir atracciones tradicionales para niños, tales como carruseles, así como atracciones tradicionales para aquellas personas que buscan emociones fuertes, tales como montañas rusas. Ahora, se reconoce que la adición de componentes de interés y factores de emoción a dichas atracciones puede ser difícil y limitativa. Tradicionalmente, por ejemplo, aparte de proporcionar un sistema cada vez más complejo de pistas de montaña rusa escarpadas, retorcidas, y sinuosas, el factor de emoción de dichas montañas rusas y/u otras atracciones de alta adrenalina similares puede estar limitado al recorrido o a la naturaleza física existente de la propia atracción de alta adrenalina. Ahora, se reconoce que es deseable incluir componentes de interés y factores de emoción en dichas atracciones de una manera flexible y eficiente con relación a las técnicas tradicionales. El documento WO 2016/025962 A1 describe un dispositivo de comunicación tridimensional (3D) que incluye una cámara estereoscópica 3D para capturar vídeo y fotos en 3D. El dispositivo incluye también una pantalla 3D, que permite la visualización de vídeo y de fotos en 3D que han sido capturados por un dispositivo de comunicación de un usuario local o que han sido recibidos desde un dispositivo de comunicación 3D remoto.
Descripción breve
Se proporciona un sistema de atracción de feria según la reivindicación 1.
Se proporciona un procedimiento según la reivindicación 11.
Breve descripción de los dibujos
Estas y otras características, aspectos, y ventajas de la presente invención se comprenderán mejor cuando la siguiente descripción detallada se lea con referencia a los dibujos adjuntos en los que los caracteres similares representan partes similares a lo largo de los dibujos, en los que:
La Fig. 1 ilustra una realización de un parque de atracciones que incluye una o más atracciones según las presentes realizaciones;
La Fig. 2 es una ilustración de una realización de gafas de realidad aumentada estereoscópica (RA) o de realidad virtual (RV) y de un sistema de generación de gráficos por ordenador según las presentes realizaciones;
La Fig. 3 es una ilustración de una realización de gafas de realidad aumentada estereoscópica (RA) o de realidad virtual (RV);
La Fig. 4 es una vista en perspectiva de una atracción de alta adrenalina de la Fig. 1 que incluye diversas imágenes de RA y de RV proporcionadas por medio de las gafas estereoscópicas de RA/RV de la Fig. 2, según las presentes realizaciones; y
La Fig. 5 es un diagrama de flujo que ilustra una realización de un procedimiento útil en la creación de imágenes estereoscópicas dentro de una experiencia de RA, una experiencia de RV, o una experiencia de realidad mixta durante un viaje en una atracción usando el sistema de generación de gráficos por ordenador de la Fig. 2, según las presentes realizaciones.
Descripción detallada
A continuación, se describirán una o más realizaciones específicas de la presente descripción. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, es posible que en la memoria descriptiva no se describan todas las características de una implementación real. Debería apreciarse que, en el desarrollo de cualquier implementación real, al igual que en cualquier proyecto de ingeniería o de diseño, deben tomarse numerosas decisiones de implementación específicas para conseguir los objetivos específicos de los desarrolladores, tales como el cumplimiento de las restricciones relacionadas con el sistema y relacionados con la empresa, que puede variar de una implementación a otra. Además, debería apreciarse que dicho esfuerzo de desarrollo podría ser complejo y podría requerir mucho tiempo, pero, no obstante, sería una empresa rutinaria de diseño, de fabricación y de manufactura para
las personas con conocimientos ordinarios que disponen del beneficio de la presente descripción.
Las presentes realizaciones se refieren a sistemas y a procedimientos para proporcionar una experiencia estereoscópica mixta o de realidad aumentada (RA), una experiencia de realidad virtual (RV), o una combinación de las mismas, como parte de una atracción, tal como una atracción de alta adrenalina, en un parque de atracciones o un parque temático. En ciertas realizaciones, cada pasajero de la atracción (por ejemplo, el primer pasajero, el segundo pasajero, etc.) puede recibir unas gafas, tal como un par de gafas o anteojos electrónicos para ser usados durante un ciclo de la atracción de alta adrenalina. Las gafas pueden facilitar una experiencia de RA, una experiencia de RV o una combinación de ambas experiencias. De esta manera, puede hacerse referencia a las gafas como gafas estereoscópicas o gafas estereoscópicas RA/RV. Las gafas estereoscópicas RA/RV proporcionan la capacidad de visualizar imágenes estereoscópicas, que generan la ilusión de imágenes en 3D. Además, las gafas estereoscópicas RA/RV están configuradas para la visualización de imágenes de realidad aumentada o virtual superpuestas sobre una imagen del entorno en el mundo real del usuario, lo que genera la ilusión de que la imagen superpuesta es parte del entorno en el mundo real. Por consiguiente, las gafas estereoscópicas de RA/RV se implementan con lentes de visualización que son capaces de mostrar las imágenes RA/RV superpuestas transmitidos desde un controlador central, además de ser capaces de permitir al usuario ver el entorno en el mundo real, incluyendo cualquier imagen visualizada de manera estereoscópica. Por ejemplo, las lentes de visualización pueden implementarse con una capa polarizante, obturadores activos, capacidad de cambio de color u otra tecnología que permita la visualización estereoscópica y que es compatible con la capacidad de RA/RV de las gafas. De esta manera, puede usarse un único dispositivo de gafas dentro de un entorno para reproducir una diversidad de diferentes tipos de experiencias visuales. Al nivel de la base, las gafas pueden permitir también una visión sin ayudas, no estereoscópica o no aumentada en ciertos casos, por ejemplo, al inicio de un parque temático para permitir a los usuarios aclimatarse al entorno.
Las gafas estereoscópicas de RA/RV son capaces de actuar como una pantalla para las imágenes que se crean para reflejar el entorno real con imágenes aumentadas. En dichas realizaciones, los usuarios ven una imagen visualizada que se muestra en las lentes de las gafas de manera que se cree la ilusión de que la imagen aumentada es el entorno en el mundo real visto en tiempo real. Las imágenes del entorno en el mundo real pueden grabarse antes en el tiempo, por ejemplo, pueden almacenarse en una memoria del sistema, o, en ciertas realizaciones, pueden ser recopiladas en tiempo real por un usuario. Específicamente, en una realización, las gafas incluyen al menos dos cámaras, que pueden corresponder, respectivamente, a los puntos de vista respectivos (por ejemplo, vistas de los ojos derecho e izquierdo) de los pasajeros de la atracción, y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo capturado durante el uso en directo y transmitido sustancialmente en tiempo real) del entorno en el mundo real (por ejemplo, los aspectos del parque de atracciones físico) de los pasajeros de la atracción y/o de la atracción de alta adrenalina. Las gafas incluyen también una pantalla. Por ejemplo, las gafas pueden incluir al menos dos pantallas, respectivamente correspondientes a cada ojo de un pasajero de la atracción que usa las gafas.
Se proporciona también un sistema de generación de gráficos por ordenador. El sistema de generación de gráficos por ordenador puede recibir los datos de vídeo en tiempo real (por ejemplo, vídeo en directo que se transmite sustancialmente en tiempo real) desde las gafas, y puede representar una secuencia de vídeo del entorno en el mundo real junto con varias imágenes gráficas de RA, RV o RA y RV combinadas (RA/RV) a las pantallas respectivas de las gafas respectivas de los pasajeros de la atracción durante un ciclo del viaje en la atracción. Por ejemplo, en una realización, el sistema de generación de gráficos por ordenador puede representar las imágenes gráficas de RA/RV en las gafas, por ejemplo, en base a la posición o la ubicación de un vehículo de pasajeros de la atracción a lo largo de las pistas de una montaña rusa durante un ciclo de un viaje de alta adrenalina, una distancia predeterminada recorrida por el vehículo de pasajeros durante un ciclo del viaje de alta adrenalina, o después de un periodo de tiempo predeterminado en el ciclo del viaje de alta adrenalina. De esta manera, mediante el uso de las gafas y del sistema de generación de gráficos para crear una experiencia de RA, una experiencia de RV o una experiencia de realidad mixta, las gafas y el sistema de generación de gráficos por ordenador pueden mejorar el factor de emoción del viaje de alta adrenalina y, por extensión, pueden mejorar la experiencia de los pasajeros de la atracción mientras montan en la atracción de alta adrenalina. Sin embargo, debería apreciarse que es posible que las técnicas descritas en la presente memoria no se limiten a atracciones de alta adrenalina y/o a aplicaciones de atracciones de parques de atracciones, sino que pueden extenderse también a cualquiera de las diversas aplicaciones, tales como, por ejemplo, aplicaciones médicas (por ejemplo, cirugía guiada por imágenes, análisis de imágenes no invasivas), aplicaciones de diseño de ingeniería (por ejemplo, desarrollo de modelos de ingeniería), aplicaciones de fabricación, de construcción y de mantenimiento (por ejemplo, fabricación de productos, construcción de nuevos edificios, reparaciones de automóviles), aplicaciones de formación académica y/o profesional, aplicaciones de ejercicio (por ejemplo, culturismo y modelos de pérdida de peso), aplicaciones de televisión (TV) (por ejemplo, pronóstico del tiempo y noticias), y similares.
Con lo indicado anteriormente en mente, puede ser útil describir una realización de un parque de atracciones, tal como un parque 10 de atracciones ejemplar tal como se representa en la Fig. 1. Tal como se ilustra, el parque 10 de atracciones puede incluir una atracción 12 de alta adrenalina, un centro comercial con instalaciones 14 de parque de atracciones (por ejemplo, restaurantes, tiendas de recuerdos, etc.), y atracciones 16 adicionales (por ejemplo, noria,
atracción oscura u otras atracciones). En ciertas realizaciones, la atracción 12 de alta adrenalina puede incluir una montaña rusa u otra atracción de alta adrenalina similar y, de esta manera, puede incluir además una pista de bucle cerrado o un sistema de pistas 18 de bucle cerrado (por ejemplo, millas de pistas 18). Las pistas 18 pueden proporcionarse como una infraestructura sobre la cual puede desplazarse un vehículo 20 de pasajeros de una atracción, por ejemplo, cuando los pasajeros 22, 24, 26, 28 de la atracción monta en la atracción 12 de alta adrenalina. De esta manera, las pistas 18 pueden definir el movimiento del vehículo 20 de la atracción. Sin embargo, en otra realización, por ejemplo, las pistas 18 pueden reemplazarse por una trayectoria controlada, en la que el movimiento del vehículo 20 de la atracción puede controlarse mediante un sistema electrónico, un sistema magnético u otra infraestructura de sistema similar distinta a las pistas 18. Cabe señalar que, aunque el vehículo 20 de pasajeros de la atracción puede ilustrarse como un vehículo de 4 pasajeros, en otras realizaciones, el vehículo 20 de pasajeros de la atracción puede incluir cualquier número de espacios para pasajeros (por ejemplo, 1, 2, 4, 8, 10, 20 o más espacios) para acomodar uno o múltiples grupos de pasajeros 22, 24, 26, 28 de la atracción. Debería entenderse que, aunque la atracción 12 de alta adrenalina se describe en el contexto del vehículo 20 de la atracción, se contemplan otras realizaciones (por ejemplo, un entorno de teatro sentado, un entorno de arena para caminar o de movimiento libre, etc.) y puede usarse junto con las realizaciones descritas.
A medida que el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18, puede proporcionarse a los pasajeros 22, 24, 26, 28 de la atracción un recorrido en movimiento del escenario (por ejemplo, instalaciones 14, atracciones 16 de entretenimiento adicionales, etc.) en un área alrededor o cerca de la atracción 12 de alta adrenalina. Por ejemplo, esto puede incluir el entorno que rodea la atracción 12 de alta adrenalina (por ejemplo, un edificio que aloja total o parcialmente la atracción 12 de alta adrenalina). Aunque los pasajeros 22, 24, 26, 28 de la atracción pueden considerar la atracción 12 de alta adrenalina como una experiencia muy agradable, en ciertas realizaciones, puede ser útil mejorar la experiencia de los pasajeros 22, 24, 26, 28 de la atracción cuando los pasajeros 22, 24, 26, 28 de la atracción montan en la atracción 12 de alta adrenalina mejorando, por ejemplo, el factor de emoción de la atracción 12 de alta adrenalina. Específicamente, en lugar de tener una vista física de solo las instalaciones 14 (por ejemplo, restaurantes, tiendas de souvenirs y etc.), atracciones 16 de entretenimiento adicionales (por ejemplo, una noria u otras atracciones), u otros clientes o peatones en el interior del parque 10 de atracciones, puede ser útil proporcionar a los pasajeros 22, 24, 26, 28 de la atracción una experiencia de realidad (RA) aumentada o de realidad (RV) virtual cuando el vehículo 20 de la atracción atraviesa las pistas 18.
Por ejemplo, con referencia ahora a la Fig. 2, puede proporcionarse a cada uno de los pasajeros 22, 24, 26, 28 de la atracción un par 34 de gafas estereoscópicas de RA/RV que, en ciertas realizaciones, pueden incluir anteojos. En otras realizaciones, las gafas 34 estereoscópicas de RA/RV pueden incluirse como parte de un casco, una visera, una diadema, un par de anteojeras, uno o más parches para los ojos y/u otros sombreros o anteojos que puedan ser usados por cada uno de los pasajeros 22, 24, 26, 28 de la atracción. Tal como se representa, las gafas 34 estereoscópicas de RA/RV pueden acoplarse de manera comunicativa a un sistema 32 de generación de gráficos por ordenador (por ejemplo, en el interior del parque 10 de atracciones) a través de una red 48 inalámbrica (por ejemplo, redes de área local inalámbricas [WLAN], redes de área amplia inalámbricas [WWAN], comunicación de campo cercano [NFC]). Las gafas 34 estereoscópicas de RA/RV pueden usarse para crear un entorno 30 surrealista, que puede incluir una experiencia de RA, una experiencia de RV, una experiencia de realidad mixta, una combinación de experiencias de RA y de RV, una experiencia de realidad mediada por ordenador, una combinación de las mismas u otro entorno surrealista similar para los pasajeros 22, 24, 26, 28 de la atracción cuando los pasajeros 22, 24, 26, 28 de la atracción montan en la atracción 12 de alta adrenalina. Específicamente, las gafas 34 estereoscópicas de RA/RV pueden ser usadas por los pasajeros 22, 24, 26, 28 de la atracción durante la duración del viaje, de manera que los pasajeros 22, 24, 26, 28 de la atracción puedan sentirse completamente rodeados por el entorno 30 y puedan percibir el entorno 30 como un entorno físico del mundo real. Específicamente, tal como se apreciará adicionalmente, el entorno 30 puede ser un vídeo en tiempo real que incluye imágenes 44 del mundo real que los pasajeros 22, 24, 26, 28 de la atracción verían incluso sin usar las gafas 34 estereoscópicas de RA/RV mezcladas electrónicamente con una o más imágenes 45 de RA o de RV (por ejemplo, aumentos virtuales). La expresión "tiempo real" indica que las imágenes se obtienen y/o se proporcionan en un período de tiempo sustancialmente cercano al momento de la observación real. En realizaciones alternativas, las imágenes obtenidas pueden ser imágenes históricas del entorno.
En ciertas realizaciones, las gafas 34 estereoscópicas de RA/RV pueden ser cualquiera de entres diversos dispositivos electrónicos que pueden llevarse puestos y que pueden ser útiles para crear una experiencia de RA, una experiencia de RV y/u otra experiencia mediada por ordenador para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras usan la atracción 12 de alta adrenalina. Debería apreciarse que la realización de anteojos de las gafas 34 estereoscópicas de RA/RV tal como se describe en la presente memoria puede ser distinta de los dispositivos tradicionales y puede proporcionar muchas ventajas sobre los mismos, tales como pantallas montadas en la cabeza (Head-Mounted Displays, HMD) y/o pantallas de visualización frontal (Heads-Up Displays, HUD). Por ejemplo, tal como se apreciará adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden incluir una serie de sensores de orientación y de posición (por ejemplo, acelerómetros, magnetómetros, giroscopios, receptores de sistema de posicionamiento global [Global Positioning
System, GPS]) que pueden usarse para realizar un seguimiento de la posición, la orientación y el movimiento de los pasajeros 22, 24, 26, 28 de la atracción durante un ciclo de la atracción 12 de alta adrenalina.
De manera similar, las características de las gafas 34 estereoscópicas de RA/RV (por ejemplo, aspectos o marcas geométricas) pueden ser supervisadas por un sistema de supervisión (por ejemplo, una o más cámaras) para determinar la posición, la ubicación, la orientación, etc. de las gafas 34 estereoscópicas de RA/RV y, a su vez, las del usuario. Aun así, los pasajeros 22, 24, 26, 28 de la atracción pueden ser supervisados por un sistema 33 de supervisión (por ejemplo, una cámara), que puede acoplarse de manera comunicativa al sistema 32 de generación de gráficos por ordenador y puede usarse para identificar la posición, la ubicación, la orientación, etc., de los pasajeros 22, 24, 26, 28 de la atracción. El vehículo 20 de la atracción puede incluir también uno o más sensores (por ejemplo, sensores de peso, sensores de masa, sensores de movimiento, sensores ultrasónicos) que pueden ser útiles para supervisar a los respectivos pasajeros 22, 24, 26, 28 de la atracción para que el sistema 32 de generación de gráficos determine el punto de vista de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Además, tal como se apreciará adicionalmente, debido a que las gafas 34 estereoscópicas de RA/RV pueden incluir cámaras individuales (por ejemplo, cámaras 40 y 42) y pantallas individuales (por ejemplo, pantallas 37 y 38), los datos con respecto a los respectivos puntos de vista de cada ojo de los pasajeros 22, 24, 26, 28 de la atracción pueden ser capturados por las gafas 34 estereoscópicas de RA/RV. Es posible que todas estas ventajas no estén disponibles cuando se usan dispositivos como las HMDs y/o las HUDs tradicionales.
En ciertas realizaciones, para ayudar en la creación del entorno 30, las gafas 34 estereoscópicas de RA/RV pueden incluir circuitos de procesamiento, tales como un procesador 35 y una memoria 36. El procesador 35 puede estar acoplado de manera operativa a la memoria 36 para ejecutar instrucciones para realizar las técnicas descritas en la presente memoria para generar imágenes 44 del mundo real mezcladas con una o más imágenes 45 de RA/RV para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras están montados en la atracción 12 de alta adrenalina. Estas instrucciones pueden estar codificadas en programas o en un código almacenados en un medio legible por ordenador, no transitorio, tangible, tal como la memoria 36 y/u otro almacenamiento. El procesador 35 puede ser un procesador de propósito general, un dispositivo de sistema en chip (System-On-Chip, SoC), un circuito integrado específico de aplicación (Application-Specific Integrated Circuit, ASIC) o alguna otra configuración de procesador similar. En realizaciones alternativas, el procesador 35 y la memoria 36 pueden proporcionarse como un paquete auxiliar transportado por el usuario (por ejemplo, enganchado en el esperado o transportado en un bolsillo), bien cableado a o en comunicación inalámbrica con las gafas 34 estereoscópicas de RA/RV. En otras realizaciones, las gafas 34 estereoscópicas de RA/RV se comunican de manera inalámbrica con el sistema 32 de generación de gráficos por ordenador y no realizan un procesamiento de imágenes a bordo.
En ciertas realizaciones, tal como se ilustra adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden incluir también el par de pantallas 37 y 38 (por ejemplo, que pueden proporcionarse en la parte 39 frontal de bastidor de las gafas 34 estereoscópicas de RA/RV donde si no estarían las lentes de las gafas) correspondientes respectivamente a cada ojo de los pasajeros 22, 24, 26, 28 de la atracción. En otras realizaciones, puede emplearse una pantalla unificada. Cada una de las pantallas 37 y 38 respectivas puede incluir una pantalla que cubre al menos parte o solo algo de la superficie de visualización. Cada una de las pantallas 37 y 38 respectivas incluye una pantalla LCD transparente, una pantalla OLED transparente u otra pantalla similar útil para permitir, por ejemplo, que los pasajeros 22, 24, 26, 28 de la atracción vean las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV que aparecen en las pantallas 37 y 38 respectivas mientras se conserva la capacidad de ver a través de las pantallas 37 y 38 respectivas el entorno real y físico del mundo real (por ejemplo, el parque 10 de atracciones). Las pantallas 37 y 38 permiten observar las imágenes 43 estereoscópicas. Las pantallas 37, 38 pueden incluir también pantallas de campo de luz. En ciertas realizaciones, las pantallas 37, 38 pueden conmutar entre configuraciones opaca y transparente, dependiendo del entorno visual deseado.
Las cámaras 40 y 42 pueden corresponder respectivamente a los puntos de vista respectivos de los pasajeros 22, 24, 26, 28 de la atracción y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo en directo) del entorno del mundo real. En algunas realizaciones, puede emplearse una única cámara. Específicamente, en la realización ilustrada, las cámaras 40, 42 de las gafas 34 estereoscópicas de RA/RV pueden usarse para capturar imágenes en tiempo real del entorno físico del mundo real (por ejemplo, el parque 10 de atracciones físico) percibidas por los respectivos pasajeros 22, 24, 26, 28 de la atracción desde el punto de vista de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Tal como se apreciará adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden transmitir a continuación (por ejemplo, de manera inalámbrica a través de una o más interfaces de comunicaciones incluidas en las gafas 34 estereoscópicas de RA/RV) los datos de vídeo en tiempo real capturados mediante las cámaras 40 y 42 respectivas a un sistema 32 de generación de gráficos por ordenador para su procesamiento. Sin embargo, en otras realizaciones, los datos de vídeo en tiempo real capturados mediante las cámaras 40 y 42 respectivas pueden ser procesados en las gafas 34 estereoscópicas de RA/RV por el procesador 35. Además, las gafas 34 estereoscópicas de RA/RV pueden transmitir también datos de orientación, datos de posición, datos de punto de vista (por ejemplo, distancia focal, orientación, pose, etc.), datos de seguimiento de movimiento, etc., obtenidos y/o derivados en base a los datos obtenidos mediante sensores de orientación y de posición (por ejemplo, acelerómetros, magnetómetros, giroscopios,
receptores del sistema de posicionamiento global [GPS], etc.) sensores de seguimiento de movimiento (por ejemplo, sensores de seguimiento de movimiento electromagnéticos y de estado sólido), etc., que pueden incluirse en las gafas 34 estereoscópicas de RA/RV. Además, en las realizaciones en las que los datos de imagen del mundo real del entorno (por ejemplo, la atracción 12) se adquieren y se accede a las mismas previamente, las gafas estereoscópicas de RA/RV pueden implementarse sin las cámaras 40 y 42.
En ciertas realizaciones, tal como se ha indicado anteriormente, el sistema 32 de generación de gráficos por ordenador, que puede incluir también circuitos de procesamiento, tales como un procesador 46 (por ejemplo, un procesador de propósito general u otro procesador) y una memoria 47, puede procesar los datos de vídeo en tiempo real. (por ejemplo, vídeo en directo) y los datos de orientación y de posición y/o los datos de punto de vista recibidos desde las gafas 34 estereoscópicas de RA/RV o desde el sistema 33 de supervisión. Específicamente, el sistema 32 de generación de gráficos por ordenador puede usar estos datos para generar un fotograma de referencia para registrar los datos de vídeo en tiempo real con las imágenes 44 generadas del mundo real y las imágenes 45 de gráficos de RA/RV. Específicamente, usando el fotograma de referencia generado en base a los datos de orientación, los datos de posición, los datos de punto de vista, los datos de seguimiento de movimiento, etc., el sistema 32 de generación de gráficos puede generar a continuación una vista de las imágenes 44 del mundo real que es temporal y espacialmente acorde con lo que percibirían los respectivos pasajeros 22, 24, 26, 28 de la atracción si no llevaran puestas las gafas 34 estereoscópicas de RA/RV. El sistema 32 de generación de gráficos puede actualizar constantemente (por ejemplo, en tiempo real) la representación de las imágenes del mundo real para reflejar el cambio en la orientación y la posición respectivas y/o el movimiento de los respectivos pasajeros 22, 24, 26, 28 de la atracción.
Por ejemplo, en ciertas realizaciones, el sistema 32 de generación de gráficos puede generar imágenes (por ejemplo, imágenes 44 del mundo real e imágenes 45 de RA/RV) a una velocidad en tiempo real mayor o igual a aproximadamente 20 fotogramas por segundo (FPS), mayor o igual a aproximadamente 30 FPS, mayor o igual a aproximadamente 40 FPS, mayor o igual a aproximadamente 50 FPS, mayor o igual a aproximadamente 60 FPS, mayor o igual a aproximadamente 90 FPS o mayor o igual a aproximadamente 120 FPS. Además, el sistema 32 de generación de gráficos puede generar las imágenes 44 del mundo real para cada una de las gafas 34 estereoscópicas de RA/RV respectivas que usadas por los respectivos pasajeros 22, 24, 26, 28 de la atracción (por ejemplo, ajustadas para la orientación, la posición y el punto de vista respectivos de los respectivos pasajeros 22, 24, 26 y 28 de la atracción).
En ciertas realizaciones, tal como se ha descrito anteriormente, el sistema 32 de generación de gráficos por ordenador puede generar y renderizar también una o más imágenes 45 de gráficos de RA/RV superpuestas a las imágenes 44 del mundo real para crear una experiencia de RA completa, una experiencia de RV, una realidad mixta y/u otra experiencia mediada por ordenador para los pasajeros 22, 24, 26, 28 de la atracción. Por ejemplo, en ciertas realizaciones, el sistema 32 de generación de gráficos por ordenador puede utilizar una o más de las técnicas de mezclado de vídeo y/o de mezclado óptico descritas para superponer las imágenes 45 de gráficos de RA/RV sobre las imágenes 44 del mundo real, de manera que los pasajeros 22, 24, 26, 28 de la atracción perciban el entorno físico del mundo real del parque 10 de atracciones (por ejemplo, proporcionados como datos de vídeo renderizados mediante las pantallas 37 y 38 respectivas) junto con una imagen 45 de gráfico de RA/RV (por ejemplo, aumentos virtuales) cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Específicamente, tal como se ha descrito anteriormente con respecto a la renderización de las imágenes 44 del mundo real, el sistema 32 de generación de gráficos puede renderizar una vista de las imágenes 45 de gráficos de RA/RV que es temporal y espacialmente acorde con las imágenes 44 del mundo real, de manera que las imágenes 44 del mundo real puedan aparecer como un fondo superpuesto con las imágenes 45 de gráficos de RA/RV. De hecho, un modelo puede proporcionar imágenes generadas por ordenador para cualquier punto de vista disponible y pueden proporcionarse imágenes específicas a las gafas 34 estereoscópicas de RA/RV para su visualización en base a una orientación detectada de las gafas 34 estereoscópicas de RA/RV.
En ciertas realizaciones, el sistema 32 de generación de gráficos puede generar también uno o más modelos de brillo, de iluminación o de sombreado y/u otros modelos de renderización fotorrealista para generar las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV ajustadas para reflejar de manera precisa el contraste y el brillo del entorno físico del mundo real (por ejemplo, día soleado, día parcialmente nublado, día nublado, tarde, noche) al renderizar las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV. Por ejemplo, para aumentar el fotorrealismo de las imágenes 44 del mundo real y de las imágenes 45 de gráficos de RA/RV, en algunas realizaciones, el sistema 32 de generación de gráficos puede recibir datos relacionados con el clima de uno o más sistemas de pronóstico y/o de predicción meteorológicos (por ejemplo, sistema de predicción global (Global Forecast System), radares Doppler, etc.). A continuación, el sistema 32 de generación de gráficos puede usar los datos relacionados con el clima u otros datos similares para ajustar el contraste, el brillo y/u otros efectos de iluminación de las imágenes 44 del mundo real y/o de las imágenes 45 de gráficos de RA/RV.
En otras realizaciones, el sistema 32 de generación de gráficos puede ajustar el contraste, el brillo y/u otros efectos de iluminación de las imágenes 44 del mundo real y/o de las imágenes 45 de gráficos de RA/RV en base a la iluminación detectada desde uno o más sensores de luz incluidos en las gafas 34 estereoscópicas de RA/RV o en base a los datos
de vídeo en tiempo real capturados por las cámaras 40, 42. Además, tal como se ha indicado anteriormente, el sistema 32 de generación de gráficos puede actualizar de manera constante (por ejemplo, en tiempo real) la renderización de las imágenes 45 de gráficos de RA/RV para reflejar un cambio en las orientaciones, las posiciones, los puntos de vista y/o el movimiento respectivos de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Por ejemplo, tal como se apreciará adicionalmente con respecto a la Fig. 3, el sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV en las pantallas 37 y 38 respectivas de cada una de las gafas 34 estereoscópicas de RA/RV respectivas usadas por los respectivos pasajeros 22, 24, 26, 28 de la atracción ajustadas para las posiciones, los puntos de vista y los movimientos variables respectivos de los respectivos pasajeros 22, 24, 26 y 28 de la atracción.
Tal como se apreciará adicionalmente, el sistema 32 de generación de gráficos puede generar también las imágenes 45 de gráficos de RA/RV en un momento en el que el vehículo 20 de pasajeros de la atracción cruza por un punto predeterminado a lo largo de las pistas 18. De esta manera, en ciertas realizaciones, el sistema 32 de generación de gráficos puede usar los datos de posición, los datos de punto de vista, los datos de movimiento junto con los datos de GPS o los datos de los sistemas de información geográfica (GIS) recibidos para derivar un mapa de iluminación, por ejemplo, de la atracción 12 de alta adrenalina y de las pistas 18, así como del entorno inmediato que rodea la atracción 12 de alta adrenalina durante todo el ciclo de la atracción 12 de alta adrenalina. A continuación, el sistema 32 de generación de gráficos puede usar el mapa para introducir las imágenes 45 de gráficos de RA/RV en ciertos puntos predeterminados (por ejemplo, puntos basados en la ubicación, la distancia, o el tiempo) cuando el vehículo 24 de la atracción de pasajeros atraviesa las pistas 18. Además, en ciertas realizaciones, los datos de vídeo o de imagen capturados mediante las cámaras 40, 42 pueden ser usados por el sistema 32 de generación de gráficos para determinar los puntos de ubicación del vehículo 20 de la atracción y cuándo introducir las imágenes 45 de gráficos de RA/RV. Por ejemplo, el sistema 32 de generación de gráficos puede realizar uno o más algoritmos de reconocimiento geométrico (por ejemplo, reconocimiento de formas u objetos) o algoritmos de reconocimiento fotométrico (por ejemplo, reconocimiento facial o reconocimiento de objetos específicos) para determinar la posición o la ubicación del vehículo 20 de la atracción, así como la posición de visión de los pasajeros 22, 24, 26, 28 de la atracción.
La Fig. 3 es una ilustración de las gafas 34 estereoscópicas de RA/RV que muestra una realización en la que las gafas 34 estereoscópicas de RA/RV incluyen características que permiten también la visualización de imágenes estereoscópicas proyectadas externamente. Por ejemplo, las pantallas 37 y 38 pueden incluir una característica de polarización, tal como un revestimiento o capa polarizados, para permitir al usuario resolver imágenes proyectadas estereoscópicamente como si fueran en 3D. La característica de polarización puede estar revestida sobre una superficie 57 exterior de la pantalla 37 y una superficie exterior de la pantalla 38. De manera alternativa, la característica de polarización puede estar formada en el interior, incluida en o puede estar formada sobre una superficie opuesta de las pantallas 37 y 38. La característica de polarización sobre la pantalla 37 del ojo derecho tiene características de polarización diferentes a las de la característica de polarización en la pantalla 38 del ojo izquierdo para permitir que cada pantalla 37 y 38 respectiva actúe como una lente filtrada que solo permite el paso de la luz polarizada que tiene las características apropiadas. De esta manera, dos imágenes proyectadas superpuestas sobre una pantalla pueden verse estereoscópicamente. En ciertas realizaciones, las características de polarización en las pantallas respectivas pueden ser filtros de polarización lineal orientados ortogonalmente entre sí. En otra realización, los filtros de polarización de las pantallas 37 y 38 pueden ser filtros de polarización circular de orientación opuesta entre sí. En otra realización, las gafas 34 estereoscópicas de RA/RV tienen filtros de cambio de color, de manera que las pantallas 37 y 38 respectivas incluyen filtros de color que filtran longitudes de onda diferentes entre sí. En una realización específica, las gafas 34 estereoscópicas de RA/RV pueden implementarse con tecnología Inficolor 3D o con tecnología Infitec® 3D (Infitec GmbH, Baden Wuerttemberg, Alemania).
Se contemplan también otras implementaciones. Por ejemplo, las gafas 34 espectroscópicas de RA/RV pueden tener capacidades estereoscópicas activas, tales como obturadores activos que encienden y apagan cada pantalla 37 y 38 de manera alterna. Se contempla que pueda usarse el cambio de las velocidades de obturación para proporcionar contenido individualizado entre usuarios diferentes. Por ejemplo, un primer usuario y un segundo usuario, ambos con gafas 34 respectivas, pueden tener un contenido ensamblado diferente si sus obturadores activos se controlan a velocidades diferentes. El control puede basarse en señales recibidas desde el sistema 32, incluyendo señales incrustadas en los fotogramas visualizados. En otras realizaciones, el control del obturador puede estar preestablecido en el dispositivo. Las implementaciones estereoscópicas activas pueden ser ventajosas en atracciones más oscuros, debido a que la falta de filtros de color o de polarización puede permitir que el paso de más luz a través de las pantallas 37 y 38 cuando están actuando como lentes para visión estereoscópica. Debería entenderse también que, cuando las gafas 34 estereoscópicas de RA/RV se están usando en el modo RA/RV, las pantallas 37 y 38 pueden usarse para generar una imagen 3D interna o estereoscópica. Es decir, en ciertas realizaciones, el usuario ve una imagen o un flujo de vídeo transmitidos que pueden implementarse estereoscópicamente. Por ejemplo, la pantalla 38 del ojo izquierdo puede mostrar un canal de vídeo separado del de la pantalla 37 del ojo derecho. En base a las diferencias de perspectiva o a las ligeras diferencias en las imágenes o en el flujo de vídeo mostrados entre la vista del ojo izquierdo/del ojo derecho, de manera similar a las generadas en las imágenes estereoscópicas proyectadas, puede generarse internamente una ilusión 3D en el contenido visualizado.
La Fig. 4 ilustra varios ejemplos de imágenes 45 de RA/RV que pueden ser generadas por el sistema 32 de generación de gráficos, o en otras realizaciones, que pueden generarse mediante las gafas 34 estereoscópicas de RA/RV. Específicamente, tal como se ilustra en la Fig. 3, durante un ciclo de la atracción 12 de alta adrenalina, el sistema 32 de generación de gráficos puede renderizar imágenes 43 estereoscópicas, las imágenes 44 del mundo real, así como varias imágenes 45 de gráficos de RA/RV mediante las gafas 34 estereoscópicas de RA/RV respectivas (por ejemplo, mediante las pantallas 37 y 38 respectivas) de los pasajeros 22, 24, 26, 28 de la atracción. Para renderizar las imágenes estereoscópicas, el sistema 32 de generación de gráficos se usa junto con proyectores 53 estereoscópicos. Las imágenes 44 del mundo real pueden incluir imágenes renderizadas, por ejemplo, de las pistas 18, las instalaciones 14, y/u otros clientes u objetos que los pasajeros 22, 24, 26, 28 de la atracción verían mientras montan en la atracción 12 de alta adrenalina, incluyendo los demás pasajeros 22, 24, 26, 28, incluso si las gafas 34 estereoscópicas de RA/RV no estuvieran siendo usadas por los pasajeros 22, 24, 26, 28 de la atracción. Sin embargo, tal como se ha descrito anteriormente con respecto a la Fig. 2, en ciertas realizaciones, puede ser útil mejorar el factor de emoción de la atracción 12 de alta adrenalina renderizando varias imágenes 45 de gráficos de RA/RV en las pantallas 37 y 38 respectivas de las gafas 34 estereoscópicas de RA/RV respectivas de los pasajeros 22, 24, 26, 28 de la atracción.
Por ejemplo, tal como se muestra adicionalmente en la Fig. 4, el sistema 32 de generación de gráficos puede renderizar imágenes 45 de gráficos de RA/RV (ilustradas mediante líneas discontinuas) que pueden incluir, por ejemplo, una imagen de RA/RV de un segundo centro comercial de las instalaciones 49 del parque de atracciones, una imagen de RA/RV de uno o más personajes 50 de ficción, una imagen de RA/RV de una parte 52 rota de las pistas 18 y/o una imagen de RA/RV adicional 54, 56 y 58. En una realización, tal como se ilustra en la Fig. 4, la imagen 50 de RA/RV puede incluir una imagen de un monstruo u otro personaje de ficción similar que parece (por ejemplo, desde el punto de vista de los pasajeros 22, 24, 26, 28 de la atracción mientras usan las gafas 34 estereoscópicas de RA/RV) que está obstruyendo una parte de las pistas 18 cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Debería apreciarse que, además de las imágenes 45 de gráficos de RA/RV (por ejemplo, aumentos virtuales) que incluyen una imagen añadida, el sistema 32 de generación de gráficos puede renderizar también ciertas imágenes 45 de gráficos de RA/RV que incluyen una eliminación de uno o más objetos físicos del mundo real que ya no aparecen mientras los pasajeros 22, 24, 26, 28 de la atracción están usando las gafas 34 estereoscópicas de RA/RV. Por ejemplo, la imagen RA/RV de las instalaciones 49 puede aparecer en una ubicación en la que la atracción 16 está colocada en el entorno del mundo real.
Tal como se ha descrito anteriormente, en ciertas realizaciones, el sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV, por ejemplo, en base a la posición o a la ubicación del vehículo 20 de pasajeros de la atracción a lo largo de las pistas 18 en cualquier momento determinado durante un ciclo de la atracción 12 de alta adrenalina, a una distancia predeterminada recorrida por el vehículo 20 de pasajeros de la atracción durante un ciclo de la atracción 12 de alta adrenalina, o después de un periodo de tiempo predeterminado. Por ejemplo, en una realización, una vez que el vehículo de la atracción de pasajeros se desplaza a un punto 60 (por ejemplo, definido por una cierta distancia 62 o una ubicación en las pistas 18), la imagen RA/RV del personaje 50 ficticio puede aparecerse a los pasajeros 22, 24, 26, 28 de la atracción, a través de las gafas 34 estereoscópicas de RA/RV, como obstruyendo una ubicación sobre las pistas 18 todavía no atravesada por el vehículo 20 de pasajeros de la atracción durante un ciclo determinado de la atracción 12 de alta adrenalina. De manera similar, una vez que el vehículo 20 de pasajeros de la atracción se desplaza a un punto 62 (por ejemplo, definido por una cierta distancia 62 o una ubicación sobre las pistas 18), la imagen de RA/RV de la parte 52 rota de las pistas 18 (por ejemplo, con la apariencia de una pista rota) puede aparecerse a los pasajeros 22, 24, 26, 28 de la atracción, a través de las gafas 34 estereoscópicas de RA/RV, como si el vehículo 20 de pasajeros de la atracción fuese a encontrarse con un sitio en el que no hay pistas 18 de soporte. El sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV en base a la identidad de los usuarios individuales de las gafas 34. Cada gafa 34 puede estar asociada con una etiqueta RFID u otro elemento de identificación que transmite una señal de identificación al sistema 32 de generación de gráficos. El sistema 32 puede seleccionar la imagen superpuesta de entre varias opciones almacenadas en la memoria 47 en base a la identidad del pasajero de la atracción (por ejemplo, los pasajeros 22, 24, 26, 28 de la atracción). De esta manera, cada pasajero en un vehículo 20 de la atracción puede recibir un contenido personalizado que es diferente del recibido por los otros pasajeros en el vehículo 20 de la atracción. Por ejemplo, en una atracción que incluye contenido de personajes, ciertos pasajeros que usan gafas 34 particulares pueden estar asociados con personajes particulares. En dichas realizaciones, la imagen de RA/RV superpuesta puede estar asociada con el carácter particular. Puede mostrarse un contenido interactivo individualizado a los pasajeros de la atracción (por ejemplo, los pasajeros 22, 24, 26, 28 de la atracción) a través de las gafas 34 basado en experiencias previas del parque, recompensas, personajes, edad o intereses del pasajero, información del perfil del pasajero adquirida desde un servidor central, etc. En una realización, un invitado en una arena interactiva puede ver una imagen superpuesta particular mostrada solo si realiza de manera exitosa una acción física (por ejemplo, golpear un bloque o abrir una puerta).
Además, en ciertas realizaciones, el mapa de iluminación generado por el sistema 32 de generación de gráficos puede permitir que el sistema 32 de generación de gráficos incluya uno o más puntos de detección y/o de activación (por ejemplo, punto de activación para el que deben introducirse las imágenes 45 de RA/RV) en cada 1,6 kilómetros (1 milla)
de las pistas 18, cada 91 cm (1 yarda) de las pistas 18, cada 30 cm (1 pie) de las pistas 18, cada 2,54 cm (1 pulgada) de las pistas 18, cada centímetro de las pistas 18 o cada milímetro de las pistas 18. De esta manera, el sistema 32 de generación de gráficos puede detectar cuándo iniciar la renderización de las imágenes 45 de gráficos de RA/RV en base a la posición o la ubicación, la distancia recorrida y/o el tiempo transcurrido durante un ciclo de la atracción 12 de alta adrenalina con suficiente precisión y eficiencia. Además, ciertas imágenes 54, 56 ilustran que puede parecer a los pasajeros 22, 24, 26, 28 de la atracción que una o más de las imágenes 45 de gráficos de RA/RV interactúan entre sí (por ejemplo, se superponen o se tocan entre sí). En una realización, las imágenes (por ejemplo, imágenes 54A y 54B) pueden ser imágenes estereoscópicas. De manera similar, la imagen 58 de RA/RV ilustra un ejemplo de imágenes 45 de gráficos de RA/RV que pueden aparecer fuera de la línea de visión o del punto de vista (por ejemplo, punto ciego) de los pasajeros 22, 24, 26, 28 de la atracción que, sin embargo, pueden ser percibidas por los pasajeros 22, 24, 26, 28 de la atracción en caso de que alguno de los mismos mire en la dirección de la imagen 58 de RA/RV. Cabe señalar que pueden proporcionarse también imágenes completamente diferentes a diferentes pasajeros 22, 24, 26, 28 de la atracción de manera que uno o más de los pasajeros 22, 24, 26, 28 de la atracción tengan experiencias de viaje o incluso temáticas de viaje parcial o completamente diferentes.
En ciertas realizaciones, tal como se ha descrito anteriormente con respecto a la Fig. 2, debido a que el sistema 32 de generación de gráficos puede renderizar imágenes 44 del mundo real y las imágenes 45 de RA/RV en cada una de las pantallas 37 y 38 respectivas de las gafas 34 estereoscópicas de RA/RV usadas por cada uno de los respectivos pasajeros 22, 24, 26, 28 de la atracción, cada uno de los pasajeros 22, 24, 26, 28 de la atracción puede percibir las imágenes 44 del mundo real (por ejemplo, las instalaciones 14, la atracción 12 de alta adrenalina, etc.) y las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales) temporal y espacialmente acordes con sus puntos de vista respectivos, creando de esta manera un efecto fotorrealista cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Además, en otras realizaciones, además de las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales), el sistema 32 de generación de gráficos puede activar también uno o más efectos de sonido, efectos de retroalimentación háptica, efectos aromatizados, etc. que pueden coincidir con las apariciones de las imágenes 45 de RA/RV en las gafas 34 estereoscópicas de RA/RV. En algunas realizaciones, el sistema 32 de generación de gráficos es integral con las gafas 34 estereoscópicas de RA/RV.
De esta manera, al proporcionar las gafas 34 estereoscópicas de RA/RV y el sistema 32 de generación de gráficos para crear una experiencia de RA, una experiencia de RV y/u otra experiencia de realidad mediada por ordenador, las gafas 34 estereoscópicas de RA/RV y el sistema 32 de generación de gráficos pueden mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras montan en la atracción 12 de alta adrenalina. Además, al proporcionar las gafas 34 estereoscópicas de RA/RV como anteojos de RA/RV, a diferencia de dispositivos más voluminosos y engorrosos, tales como las pantallas montadas en la cabeza (HMD) tradicionales, puede proporcionarse a los pasajeros 22, 24, 26, 28 de la atracción una mayor libertad de movimientos, así como una experiencia más fotorrealista. Por ejemplo, cada uno de los pasajeros 22, 24, 26, 28 de la atracción puede ser capaz de ver al resto de los pasajeros 22, 24, 26, 28 de la atracción, así como también el propio vehículo 20 de pasajeros de la atracción incluso cuando está usando las gafas 34 estereoscópicas de RA/RV. Además, debido a que las gafas 34 estereoscópicas de RA/RV pueden incluir cámaras 40, 42 individuales y pantallas 37, 38 individuales, los datos con respecto a los puntos de vista respectivos de cada ojo de los pasajeros 22, 24, 26, 28 de la atracción pueden ser capturados por las gafas 34 estereoscópicas de RA/RV. De esta manera, el sistema 32 de generación de gráficos puede renderizar imágenes 44 del mundo real e imágenes 45 de RA/RV en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV que son consistentes con los puntos de vista respectivos de los pasajeros 22, 24, 26, 28 de la atracción. Es posible que dichas ventajas no estén disponibles cuando se usan dispositivos tales como las HMDs tradicionales. En otras realizaciones, el sistema 32 puede usar marcas de agua de audio para sincronizar el contenido de RA en la atracción 12, por ejemplo, para sincronizar los medios reproducidos con las imágenes de RA.
Con referencia ahora a la Fig. 5, se presenta un diagrama de flujo que ilustra una realización de un procedimiento 80 útil en la creación de una experiencia estereoscópica, una experiencia de RA, una experiencia de RV y/u otra experiencia mediada por ordenador durante una atracción de alta adrenalina usando, por ejemplo, el sistema 32 de generación de gráficos por ordenador representado en la Fig. 2. El procedimiento 80 puede ser representativo de un código iniciado o instrucciones almacenadas en un medio legible por ordenador, no transitorio (por ejemplo, la memoria 47) y ejecutado, por ejemplo, por el procesador 46 incluido en el sistema 32 de generación de gráficos por ordenador. El procedimiento 64 puede empezar con la recepción por parte del procesador 46 (bloque 82) de información de posición para un usuario que está usando las gafas 34. Tal como se ha indicado, la posición de las gafas puede evaluarse mediante etiquetas RFID en cada dispositivo, mediante cámaras, GPS, etc. En base a la posición, el sistema 32 puede determinar que el usuario que está usando las gafas 34 está posicionado en las proximidades de un evento estereoscópico deseado (bloque 84). Por consiguiente, el sistema 32 puede iniciar o mantener la proyección de imágenes estereoscópicas a ser mostradas al usuario y a ser vistas por el mismo (bloque 86).
Si el usuario de las gafas 34 es un pasajero en un vehículo de la atracción (véase la Fig. 4) o si no que se está moviendo con relación al entorno, el procedimiento 80 puede recibir información de posición actualizada (bloque 88) para reflejar
que el usuario se ha movido a una nueva ubicación asociada con un efecto mixto o de RA/RV deseado (bloque 90). Para generar el efecto de RA/RV, el procedimiento puede acceder a datos de imagen escaneados previamente o capturados en tiempo real y recibidos (bloque 92). Por ejemplo, el procesador 46 puede recibir datos de vídeo en tiempo real (por ejemplo, vídeo en directo) capturados mediante las cámaras 40, 42 de las gafas 34 estereoscópicas de RA/RV. A continuación, el procedimiento 64 puede continuar la generación por parte del procesador 46 de una visualización del entorno del mundo real en base a los datos de imágenes del mundo real. Por ejemplo, el procesador 46 puede generar un flujo de datos de vídeo del entorno del mundo real (por ejemplo, el parque 10 de atracciones) para visualizarlo en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV.
A continuación, el procedimiento 64 puede continuar con la superposición o el solapamiento por parte del procesador 46 (bloque 92) de una o más imágenes de realidad virtual o aumentada sobre la visualización generada del entorno del mundo real. Por ejemplo, el procesador 46 puede generar un flujo de datos de vídeo de las imágenes 44 del mundo real (por ejemplo, instalaciones 14, atracción 12 de alta adrenalina), y puede superponer o solapar las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales) sobre las imágenes 44 del mundo real usando una o más técnicas de mezclado de vídeo y/o de mezclado óptico. Tal como se ha descrito anteriormente, en ciertas realizaciones, por ejemplo, el procesador 46 del sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV, por ejemplo, en base a la posición o la ubicación del vehículo 20 de pasajeros de la atracción a lo largo de las pistas 18 en cualquier momento determinado durante un ciclo de la atracción 12 de alta adrenalina, a una distancia predeterminada recorrida por el vehículo 20 de pasajeros de la atracción durante un ciclo de la atracción 12 de alta adrenalina, o después de un intervalo de tiempo predeterminado. En otras realizaciones, el sistema 32 de generación de gráficos puede realizar uno o más algoritmos de reconocimiento geométrico o fotométrico sobre los datos de vídeo o de imagen capturados mediante las cámaras 40, 42 para determinar los puntos de ubicación del vehículo 20 de la atracción y cuándo introducir las Imágenes 45 de gráficos de RA/RV. A continuación, el procedimiento 64 puede concluir con la transmisión por parte del procesador 46 (bloque 94) de los datos de imagen de realidad virtual o aumentada superpuestos (por ejemplo, imágenes 45 de RA/RV) junto con los datos del entorno del mundo real (por ejemplo, imágenes 44 del mundo real) a mostrar en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras montan en la atracción 12 de alta adrenalina. El sistema 32 está configurado para permitir que las gafas 34 conmuten entre diferentes modos de visualización, por ejemplo, RA/RV, estereoscópico y mundo real (por ejemplo, sin efectos). La conmutación puede estar basada en el tiempo o en la posición del usuario en el interior de la atracción 12 y puede estar mediada por una señal de control desde el sistema 32. El sistema 32 puede recibir también información del usuario, por ejemplo, a través de un botón o conmutador de entrada en las gafas. Por ejemplo, ciertos usuarios pueden ser sensibles a la visualización de imágenes estereoscópicas. Dichos usuarios pueden tener la opción de desactivar la visualización estereoscópica en 3D y el sistema 32 puede proporcionar datos de vídeo alternativos parecidos a los efectos estereoscópicos.
Los efectos técnicos de las presentes realizaciones se refieren a sistemas y a procedimientos para proporcionar una experiencia de realidad aumentada (RA), una experiencia de realidad virtual (RV), una experiencia de realidad mixta (por ejemplo, una combinación de RA y RV), o una combinación de las mismas, como parte de una atracción de alta adrenalina en un parque de atracciones o un parque temático. En ciertas realizaciones, puede proporcionarse a cada pasajero de la atracción unas gafas (por ejemplo, gafas 34 estereoscópicas de RA/RV que están configuradas para ser usadas como gafas de RA/RV) para que las usen durante un ciclo de la atracción de alta adrenalina. En una realización, las gafas tienen capacidad tanto para RA/RV como para facilitar la visualización de imágenes estereoscópicas proyectadas. Para facilitar una experiencia de RA/RV o de realidad mixta, las gafas pueden estar configuradas para mostrar imágenes virtuales superpuestas sobre una representación del mundo real. Con ese fin, las gafas pueden incluir al menos dos cámaras, que pueden corresponder respectivamente a los puntos de vista respectivos de los pasajeros de la atracción, y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo en directo) del entorno del mundo real (por ejemplo, el parque de atracciones físico) de los pasajeros de la atracción y/o de la atracción de alta adrenalina. Las gafas pueden incluir también al menos dos pantallas correspondientes respectivamente a cada ojo de los pasajeros de la atracción. En ciertas realizaciones, puede proporcionarse también un sistema de generación de gráficos por ordenador. El sistema de generación de gráficos por ordenador puede renderizar un flujo de vídeo del entorno del mundo real junto con varias imágenes gráficas de RA/RV en las pantallas respectivas de las gafas estereoscópicas respectivas de los pasajeros de la atracción durante un ciclo de la atracción de alta adrenalina. Por ejemplo, en una realización, el sistema 32 de generación de gráficos puede renderizar las imágenes de gráficos de RA/RV en las gafas, por ejemplo, en base a la posición o a la ubicación del vehículo de la atracción de pasajeros a lo largo de las pistas en cualquier momento determinado durante un ciclo de la atracción de alta adrenalina, una distancia predeterminada recorrida por el vehículo de la atracción de pasajeros durante un ciclo de la atracción de alta adrenalina, o después de un periodo de tiempo predeterminado. De esta manera, con el uso de las gafas y del sistema de generación de gráficos para crear una experiencia de RA, una experiencia de RV y/o una experiencia de realidad mixta, las gafas y el sistema de generación de gráficos por ordenador pueden mejorar el factor de emoción de la atracción de alta adrenalina y, por extensión, pueden mejorar la experiencia de los pasajeros de la atracción mientras montan en la atracción de alta adrenalina.
Claims (15)
1. Sistema de atracción, que comprende:
gafas (34) configuradas para ser usadas por un usuario, en el que las gafas (34) comprenden una pantalla (37, 38) transparente que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas externamente generadas por una fuente externa a las gafas (34) y proyectadas sobre un entorno del mundo real, donde la visión de las imágenes estereoscópicas generadas externamente es posible gracias a que el usuario ve a través de la pantalla (37, 38); y
un sistema (32) de generación de gráficos por ordenador acoplado de manera comunicativa a las gafas (34), comprendiendo el sistema (32) de generación de gráficos por ordenador un proyector (53) estereoscópico y estando configurado para:
generar contenido visual de transmisión continua del entorno del mundo real en base a los datos de imágenes del entorno del mundo real;
generar uno o más aumentos virtuales superpuestos sobre el contenido visual de transmisión continua del entorno del mundo real;
transmitir el contenido visual de transmisión continua del entorno del mundo real junto con los uno o más aumentos virtuales superpuestos para visualizarlos en la pantalla (37, 38) de las gafas (34);
proyectar imágenes estereoscópicas en el entorno del mundo real usando el proyector (53) estereoscópico;
finalizar la generación del contenido visual de transmisión continua del entorno del mundo real en base a una orientación de las gafas (34), una posición del usuario, un punto de vista del usuario o una combinación de los mismos; y
empezar a funcionar en un modo que permite la visión de las imágenes estereoscópicas generadas externamente mediante la pantalla.
2. Sistema de atracción según la reivindicación 1, en el que la pantalla de las gafas (34) comprende una primera pantalla (37) y una segunda pantalla (38), y en el que la primera pantalla (37) está configurada para mostrar el contenido visual de transmisión continua a un primer ojo del usuario y la segunda pantalla (38) está configurada para mostrar el contenido visual de transmisión continua a un segundo ojo del usuario.
3. Sistema de atracción según la reivindicación 2, que comprende un primer filtro polarizado sobre o en la primera pantalla (37) orientado de manera diferente a un segundo filtro polarizado sobre o en la segunda pantalla (38), o que comprende un primer filtro de color sobre o en la primera pantalla (37) configurado para filtrar la luz de una longitud de onda diferente a la de un segundo filtro de color sobre o en la segunda pantalla (38).
4. Sistema de atracción según la reivindicación 1, en el que las gafas (34) comprenden una o más cámaras (40, 42) configuradas para obtener los datos de imagen del entorno del mundo real.
5. Sistema de atracción según la reivindicación 1, en el que el usuario es un pasajero en un vehículo (20) de la atracción y en el que el sistema (32) de generación de gráficos por ordenador está configurado para generar los uno o más aumentos virtuales cuando el vehículo (20) de la atracción se desplaza a una ubicación predeterminada, recorre una distancia predeterminada, después de un periodo de tiempo predeterminado o cualquier combinación de los mismos, durante un ciclo de la atracción.
6. Sistema de atracción según la reivindicación 1, en el que el sistema (32) de generación de gráficos por ordenador está configurado para generar el contenido visual de transmisión continua del entorno del mundo real en base a la orientación de las gafas (34), una posición del usuario, un punto de vista del usuario, una información de perfil del usuario, un personaje asociado con el usuario o una combinación de los mismos.
7. Sistema de atracción según la reivindicación 6, que comprende un sensor de posicionamiento en el interior de las gafas (34) para detectar la orientación de las gafas (34), o que comprende un sistema de supervisión configurado para supervisar los atributos físicos de las gafas (34) para determinar la orientación de las gafas (34).
8. Sistema de atracción según la reivindicación 6, que comprende un sensor configurado para detectar la posición del usuario en el interior del sistema de atracción, en el que el sistema de atracción comprende un vehículo de atracción o un estadio.
9. Sistema de atracción según la reivindicación 1, que comprende unas segundas gafas configuradas para ser usadas por un segundo usuario, en el que las segundas gafas comprenden una pantalla que tiene una característica estereoscópica configurada para permitir la visualización de las imágenes mostradas estereoscópicamente generadas externamente.
10. Sistema de atracción según la reivindicación 1, en el que el sistema (32) de generación de gráficos por ordenador está configurado para:
recibir una indicación de una iluminación, un contraste, un brillo o una combinación de los mismos, asociada con el entorno del mundo real; y
generar el contenido visual de transmisión continua del entorno del mundo real y los uno o más aumentos virtuales superpuestos ajustados para reflejar la iluminación, el contraste, el brillo o la combinación de los mismos, del entorno del mundo real.
11. Procedimiento de funcionamiento de un sistema de atracciones en un parque de atracciones que incluye una atracción (12) de parque de atracciones, que comprende:
recibir datos de imágenes del entorno o acceder a los mismos a través de un sistema (32) de generación de gráficos por ordenador,
generar una virtualización de un entorno del mundo real del sistema de atracción del parque de atracciones en base a los datos de imágenes del entorno;
superponer una imagen de realidad aumentada (RA) o una imagen de realidad virtual (RV) en la virtualización del entorno del mundo real;
proporcionar gafas (34) que comprenden una pantalla (37, 38) que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas por una fuente externa a las gafas (34) y proyectadas en el entorno del mundo real, donde la visualización de las imágenes estereoscópicas es posible gracias a que el usuario ve a través de la pantalla (37, 38);
transmitir la imagen RA o la imagen RV superpuesta junto con la virtualización del entorno del mundo real a las gafas (34) durante un ciclo de la atracción (12) del parque de atracciones;
transmitir una señal a las gafas (34) para permitir la visualización a través de la pantalla (37, 38) de las gafas (34);
proyectar imágenes estereoscópicas sobre una superficie del entorno del mundo real después de transmitir la señal; y
causar que las imágenes estereoscópicas se reflejen a través de filtros en las gafas (34) a un ojo izquierdo y derecho de un usuario para generar una ilusión de una imagen en 3D.
12. El procedimiento según la reivindicación 11, que comprende recibir datos asociados con una posición de un pasajero de la atracción (12) del parque de atracciones, una orientación del pasajero de la atracción, un punto de vista del pasajero de la atracción o una combinación de los mismos.
13. Procedimiento según la reivindicación 11, que recibe una señal de identificación asociada con las gafas (34) y en el que la imagen RA o la imagen RV superpuesta se selecciona en base a la señal de identificación.
14. Procedimiento según la reivindicación 11, que recibe una segunda señal de identificación asociada con las segundas gafas y que transmite una segunda imagen RA o imagen RV superpuesta junto con la virtualización del entorno del mundo real a las gafas durante el ciclo de la atracción (12) del parque de atracciones, en el que la segunda imagen RA o imagen RV superpuesta se selecciona en base a la segunda señal de identificación.
15. Procedimiento según la reivindicación 11, que recibe datos de imágenes del entorno o que accede a los mismos que comprende recibir datos de imágenes en tiempo real desde una cámara acoplada a las gafas (34).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662332299P | 2016-05-05 | 2016-05-05 | |
US15/586,956 US20170323482A1 (en) | 2016-05-05 | 2017-05-04 | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
PCT/US2017/031371 WO2017193043A1 (en) | 2016-05-05 | 2017-05-05 | Systems and methods for generating stereoscopic, augmented, and virtual reality images |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2858320T3 true ES2858320T3 (es) | 2021-09-30 |
Family
ID=58709641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17723901T Active ES2858320T3 (es) | 2016-05-05 | 2017-05-05 | Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual |
Country Status (11)
Country | Link |
---|---|
US (3) | US20170323482A1 (es) |
EP (1) | EP3452192B1 (es) |
JP (1) | JP7079207B2 (es) |
KR (1) | KR102488332B1 (es) |
CN (1) | CN109069935B (es) |
CA (1) | CA3021561A1 (es) |
ES (1) | ES2858320T3 (es) |
MY (1) | MY194042A (es) |
RU (1) | RU2735458C2 (es) |
SG (1) | SG11201809219XA (es) |
WO (1) | WO2017193043A1 (es) |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10151927B2 (en) * | 2016-05-31 | 2018-12-11 | Falcon's Treehouse, Llc | Virtual reality and augmented reality head set for ride vehicle |
US11182976B2 (en) * | 2016-06-06 | 2021-11-23 | Devar Entertainment Limited | Device for influencing virtual objects of augmented reality |
US10685492B2 (en) * | 2016-12-22 | 2020-06-16 | Choi Enterprise, LLC | Switchable virtual reality and augmented/mixed reality display device, and light field methods |
CN106775566A (zh) * | 2016-12-30 | 2017-05-31 | 维沃移动通信有限公司 | 一种虚拟现实终端的数据处理方法和虚拟现实终端 |
US20180255285A1 (en) | 2017-03-06 | 2018-09-06 | Universal City Studios Llc | Systems and methods for layered virtual features in an amusement park environment |
US10685491B2 (en) * | 2017-07-18 | 2020-06-16 | Universal City Studios Llc | Systems and methods for virtual reality and augmented reality path management |
CN108079574B (zh) * | 2017-12-22 | 2022-01-18 | 深圳华侨城卡乐技术有限公司 | 一种基于旋转木马设备的虚拟现实游戏平台及其控制方法 |
US10369483B1 (en) * | 2018-01-23 | 2019-08-06 | Universal City Studios Llc | Interactive tower attraction systems and methods |
US10678056B2 (en) * | 2018-02-26 | 2020-06-09 | Google Llc | Augmented reality light field head-mounted displays |
IT201800003194A1 (it) | 2018-03-01 | 2019-09-01 | Image Studio Consulting S R L | Interazioni di giostra |
DK3539627T3 (da) | 2018-03-16 | 2020-12-14 | Vr Coaster Gmbh & Co Kg | Synkroniseringsindretning med en basisstation til synkronisering af head-mounted displays med en virtuel verden i en forlystelse, forlystelse med en sådan synkroniseringsindretning og fremgangsmåde til drift af en sådan forlystelse |
US10977871B2 (en) * | 2018-04-25 | 2021-04-13 | International Business Machines Corporation | Delivery of a time-dependent virtual reality environment in a computing system |
US10322353B1 (en) * | 2018-05-15 | 2019-06-18 | Universal City Studios Llc | Systems and methods for dynamic ride profiles |
US10528132B1 (en) * | 2018-07-09 | 2020-01-07 | Ford Global Technologies, Llc | Gaze detection of occupants for vehicle displays |
JP7420400B2 (ja) * | 2018-07-25 | 2024-01-23 | ライト フィールド ラボ、インコーポレイテッド | ライトフィールドディスプレイシステムベースの遊園地のアトラクション |
DE102018121258A1 (de) * | 2018-08-30 | 2020-03-05 | Vr Coaster Gmbh & Co. Kg | Head Mounted Display sowie Vergnügungseinrichtung mit einem solchen Head Mounted Display |
EP3857534A4 (en) * | 2018-09-24 | 2021-12-08 | CAE Inc. | CAMERA BASED DISPLAY METHOD AND SYSTEM FOR SIMULATORS |
US11562539B2 (en) * | 2018-09-25 | 2023-01-24 | Universal City Studios Llc | Modular augmented and virtual reality ride attraction |
US10777012B2 (en) * | 2018-09-27 | 2020-09-15 | Universal City Studios Llc | Display systems in an entertainment environment |
JP7326740B2 (ja) * | 2018-12-28 | 2023-08-16 | トヨタ紡織株式会社 | 空間提供システム |
KR102629149B1 (ko) * | 2019-01-03 | 2024-01-26 | 삼성전자주식회사 | 외부 광에 따라 디스플레이의 특성을 변경하는 전자 장치 및 방법 |
US11318607B2 (en) * | 2019-01-04 | 2022-05-03 | Universal City Studios Llc | Extended reality ride test assembly for amusement park system |
US11200655B2 (en) | 2019-01-11 | 2021-12-14 | Universal City Studios Llc | Wearable visualization system and method |
CN109876474A (zh) * | 2019-02-20 | 2019-06-14 | 北京当红齐天国际文化发展集团有限公司 | 一种轨道式观影系统及其控制方法 |
US10767997B1 (en) * | 2019-02-25 | 2020-09-08 | Qualcomm Incorporated | Systems and methods for providing immersive extended reality experiences on moving platforms |
US11143874B2 (en) * | 2019-03-29 | 2021-10-12 | Sony Interactive Entertainment Inc. | Image processing apparatus, head-mounted display, and image displaying method |
US11206505B2 (en) * | 2019-05-06 | 2021-12-21 | Universal City Studios Llc | Systems and methods for dynamically loading area-based augmented reality content |
US11265487B2 (en) * | 2019-06-05 | 2022-03-01 | Mediatek Inc. | Camera view synthesis on head-mounted display for virtual reality and augmented reality |
CN112114428A (zh) * | 2019-06-21 | 2020-12-22 | 海信视像科技股份有限公司 | 一种ar或mr眼镜 |
US10828576B1 (en) * | 2019-07-29 | 2020-11-10 | Universal City Studios Llc | Motion exaggerating virtual reality ride systems and methods |
KR102641118B1 (ko) | 2019-12-30 | 2024-02-27 | 삼성전자주식회사 | 사용자에게 ar 오브젝트를 제공하는 방법 및 장치 |
AU2021210962A1 (en) | 2020-01-22 | 2022-08-04 | Photonic Medical Inc. | Open view, multi-modal, calibrated digital loupe with depth sensing |
KR102506312B1 (ko) * | 2020-01-22 | 2023-03-03 | 신화현 | 가상현실 컨텐츠를 포함하는 롤러코스터 시스템 및 이의 서비스 제공방법 |
JP2023512877A (ja) * | 2020-02-06 | 2023-03-30 | バルブ コーポレーション | 空間変動偏光子を使用した視野ベースの光学補正 |
US20230087402A1 (en) * | 2020-03-02 | 2023-03-23 | Carl Zeiss Meditec Ag | Head-mounted visualisation system |
US11774770B2 (en) | 2020-06-03 | 2023-10-03 | Universal City Studios Llc | Interface device with three-dimensional (3-D) viewing functionality |
US20220026723A1 (en) * | 2020-07-24 | 2022-01-27 | Universal City Studios Llc | Electromagnetic coupling systems and methods for visualization device |
US11794121B1 (en) * | 2020-12-09 | 2023-10-24 | Falcon's Beyond Brands, Llc | Theme or amusement park attraction using high frame rate active shutter technology |
US20220358687A1 (en) * | 2021-05-10 | 2022-11-10 | Cerence Operating Company | Touring circuitry for an immersive tour through a touring theater |
WO2023205092A1 (en) * | 2022-04-21 | 2023-10-26 | Universal City Studios Llc | Artificial intelligence (ai)-assisted and dynamic ride profile head tracking systems and methods |
WO2024039679A1 (en) * | 2022-08-15 | 2024-02-22 | Universal City Studios Llc | Show effect system for amusement park attraction system |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1138159B1 (en) * | 1998-12-07 | 2015-06-17 | Universal City Studios LLC | Image correction method to compensate for point of view image distortion |
RU51241U1 (ru) * | 2005-07-13 | 2006-01-27 | Евгений Борисович Гаскевич | Система формирования стереоизображения |
US20100079585A1 (en) * | 2008-09-29 | 2010-04-01 | Disney Enterprises, Inc. | Interactive theater with audience participation |
US20110141246A1 (en) * | 2009-12-15 | 2011-06-16 | Justin Michael Schwartz | System and Method for Producing Stereoscopic Images |
US20130278631A1 (en) * | 2010-02-28 | 2013-10-24 | Osterhout Group, Inc. | 3d positioning of augmented reality information |
US9994228B2 (en) * | 2010-05-14 | 2018-06-12 | Iarmourholdings, Inc. | Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment |
JP5804571B2 (ja) | 2010-09-06 | 2015-11-04 | 国立大学法人 東京大学 | 車両システム |
JP5423716B2 (ja) * | 2011-03-30 | 2014-02-19 | ブラザー工業株式会社 | ヘッドマウントディスプレイ |
CN202036738U (zh) * | 2011-05-09 | 2011-11-16 | 西安灵境科技有限公司 | 人机互动虚拟漫游健身装置 |
US20130002559A1 (en) | 2011-07-03 | 2013-01-03 | Vardi Nachum | Desktop computer user interface |
US20130083008A1 (en) * | 2011-09-30 | 2013-04-04 | Kevin A. Geisner | Enriched experience using personal a/v system |
KR20130035457A (ko) * | 2011-09-30 | 2013-04-09 | 삼성전자주식회사 | 디스플레이장치 및 영상처리방법 |
US20130169924A1 (en) * | 2012-01-04 | 2013-07-04 | Hayward LAMPLEY, JR. | Apparatus and system for data storage and retrieval |
KR101209854B1 (ko) * | 2012-09-11 | 2012-12-11 | 신동호 | 시뮬레이터용 3차원 운동장치 |
US20150243083A1 (en) | 2012-10-01 | 2015-08-27 | Guy COGGINS | Augmented Reality Biofeedback Display |
KR20140115637A (ko) * | 2013-03-21 | 2014-10-01 | 한국전자통신연구원 | 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법 |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
WO2014209244A1 (en) * | 2013-06-27 | 2014-12-31 | Koc Universitesi | Image display device in the form of a pair of eye glasses |
CN105518539A (zh) * | 2013-09-04 | 2016-04-20 | 依视路国际集团(光学总公司) | 用于增强现实的方法和系统 |
JP6632979B2 (ja) * | 2013-09-04 | 2020-01-22 | エシロール・アンテルナシオナル | 拡張現実感のための方法とシステム |
US9158115B1 (en) * | 2013-09-16 | 2015-10-13 | Amazon Technologies, Inc. | Touch control for immersion in a tablet goggles accessory |
US20160011422A1 (en) * | 2014-03-10 | 2016-01-14 | Ion Virtual Technology Corporation | Method and system for reducing motion blur when experiencing virtual or augmented reality environments |
CN203894474U (zh) * | 2014-04-15 | 2014-10-22 | 王傲立 | 一种vr眼镜 |
US20150358539A1 (en) * | 2014-06-06 | 2015-12-10 | Jacob Catt | Mobile Virtual Reality Camera, Method, And System |
WO2016025962A1 (en) * | 2014-08-15 | 2016-02-18 | The University Of Akron | Device and method for three-dimensional video communication |
US9690375B2 (en) * | 2014-08-18 | 2017-06-27 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
US20160114222A1 (en) * | 2014-10-24 | 2016-04-28 | Acushnet Company | Method of making a golf ball with composite construction |
US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US10018844B2 (en) * | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
US9918074B2 (en) * | 2015-06-18 | 2018-03-13 | Disney Enterprises, Inc. | Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses |
CN204952289U (zh) * | 2015-08-31 | 2016-01-13 | 深圳市维骏文化旅游科技有限公司 | 新型虚拟现实互动升降观影系统 |
EP3151554A1 (en) * | 2015-09-30 | 2017-04-05 | Calay Venture S.a.r.l. | Presence camera |
US20170171534A1 (en) * | 2015-11-12 | 2017-06-15 | Samsung Electronics Co., Ltd. | Method and apparatus to display stereoscopic image in 3d display system |
US11112266B2 (en) * | 2016-02-12 | 2021-09-07 | Disney Enterprises, Inc. | Method for motion-synchronized AR or VR entertainment experience |
US20170272732A1 (en) * | 2016-03-17 | 2017-09-21 | Disney Enterprises, Inc. | Wavelength multiplexing visualization using discrete pixels |
US11256092B2 (en) * | 2016-04-10 | 2022-02-22 | Everysight Ltd. | Binocular wide field of view (WFOV) wearable optical display system |
KR101687174B1 (ko) * | 2016-04-29 | 2016-12-16 | 주식회사 조이펀 | Vr 기기에서의 이벤트 발생에 의한 메시지 표시방법 및 그 장치 |
-
2017
- 2017-05-04 US US15/586,956 patent/US20170323482A1/en not_active Abandoned
- 2017-05-05 SG SG11201809219XA patent/SG11201809219XA/en unknown
- 2017-05-05 JP JP2018558202A patent/JP7079207B2/ja active Active
- 2017-05-05 ES ES17723901T patent/ES2858320T3/es active Active
- 2017-05-05 CA CA3021561A patent/CA3021561A1/en active Pending
- 2017-05-05 KR KR1020187034763A patent/KR102488332B1/ko active IP Right Grant
- 2017-05-05 EP EP17723901.9A patent/EP3452192B1/en active Active
- 2017-05-05 CN CN201780027854.0A patent/CN109069935B/zh active Active
- 2017-05-05 RU RU2018142013A patent/RU2735458C2/ru active
- 2017-05-05 MY MYPI2018001780A patent/MY194042A/en unknown
- 2017-05-05 WO PCT/US2017/031371 patent/WO2017193043A1/en unknown
-
2020
- 2020-08-04 US US16/984,845 patent/US11670054B2/en active Active
-
2023
- 2023-04-25 US US18/306,902 patent/US20230260230A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20190005906A (ko) | 2019-01-16 |
RU2735458C2 (ru) | 2020-11-02 |
RU2018142013A3 (es) | 2020-06-08 |
JP7079207B2 (ja) | 2022-06-01 |
EP3452192B1 (en) | 2020-12-09 |
WO2017193043A1 (en) | 2017-11-09 |
US20230260230A1 (en) | 2023-08-17 |
EP3452192A1 (en) | 2019-03-13 |
CA3021561A1 (en) | 2017-11-09 |
KR102488332B1 (ko) | 2023-01-13 |
US11670054B2 (en) | 2023-06-06 |
CN109069935A (zh) | 2018-12-21 |
SG11201809219XA (en) | 2018-11-29 |
US20170323482A1 (en) | 2017-11-09 |
JP2019515749A (ja) | 2019-06-13 |
MY194042A (en) | 2022-11-09 |
US20200364940A1 (en) | 2020-11-19 |
RU2018142013A (ru) | 2020-06-05 |
CN109069935B (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2858320T3 (es) | Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual | |
US11586277B2 (en) | Systems and methods for generating augmented and virtual reality images | |
RU2768131C2 (ru) | Система и способ для наложения текста на дисплей устройства визуализации, а также машиночитаемый носитель данных | |
US10777012B2 (en) | Display systems in an entertainment environment |