ES2858320T3 - Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual - Google Patents

Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual Download PDF

Info

Publication number
ES2858320T3
ES2858320T3 ES17723901T ES17723901T ES2858320T3 ES 2858320 T3 ES2858320 T3 ES 2858320T3 ES 17723901 T ES17723901 T ES 17723901T ES 17723901 T ES17723901 T ES 17723901T ES 2858320 T3 ES2858320 T3 ES 2858320T3
Authority
ES
Spain
Prior art keywords
glasses
attraction
real world
stereoscopic
world environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17723901T
Other languages
English (en)
Inventor
Thierry Coup
Brian Mcquillian
Justin Schwartz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Application granted granted Critical
Publication of ES2858320T3 publication Critical patent/ES2858320T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G21/00Chutes; Helter-skelters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • A63G31/16Amusement arrangements creating illusions of travel
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G7/00Up-and-down hill tracks; Switchbacks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • G02B30/25Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type using polarisation techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/324Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/337Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/008Aspects relating to glasses for viewing stereoscopic images

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Sistema de atracción, que comprende: gafas (34) configuradas para ser usadas por un usuario, en el que las gafas (34) comprenden una pantalla (37, 38) transparente que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas externamente generadas por una fuente externa a las gafas (34) y proyectadas sobre un entorno del mundo real, donde la visión de las imágenes estereoscópicas generadas externamente es posible gracias a que el usuario ve a través de la pantalla (37, 38); y un sistema (32) de generación de gráficos por ordenador acoplado de manera comunicativa a las gafas (34), comprendiendo el sistema (32) de generación de gráficos por ordenador un proyector (53) estereoscópico y estando configurado para: generar contenido visual de transmisión continua del entorno del mundo real en base a los datos de imágenes del entorno del mundo real; generar uno o más aumentos virtuales superpuestos sobre el contenido visual de transmisión continua del entorno del mundo real; transmitir el contenido visual de transmisión continua del entorno del mundo real junto con los uno o más aumentos virtuales superpuestos para visualizarlos en la pantalla (37, 38) de las gafas (34); proyectar imágenes estereoscópicas en el entorno del mundo real usando el proyector (53) estereoscópico; finalizar la generación del contenido visual de transmisión continua del entorno del mundo real en base a una orientación de las gafas (34), una posición del usuario, un punto de vista del usuario o una combinación de los mismos; y empezar a funcionar en un modo que permite la visión de las imágenes estereoscópicas generadas externamente mediante la pantalla.

Description

DESCRIPCIÓN
Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual Antecedentes
La materia objeto descrita en la presente memoria se refiere a atracciones de parques de atracciones y, más específicamente, a la provisión de mejores factores de emoción y componentes de interés en las atracciones de parques de atracciones.
Los parques de atracciones y/o parques temáticos pueden incluir varias atracciones de entretenimiento, restaurantes y atracciones útiles para proporcionar diversión a los clientes (por ejemplo, familias y/o personas de todas las edades) del parque de atracciones. Por ejemplo, las atracciones pueden incluir atracciones tradicionales para niños, tales como carruseles, así como atracciones tradicionales para aquellas personas que buscan emociones fuertes, tales como montañas rusas. Ahora, se reconoce que la adición de componentes de interés y factores de emoción a dichas atracciones puede ser difícil y limitativa. Tradicionalmente, por ejemplo, aparte de proporcionar un sistema cada vez más complejo de pistas de montaña rusa escarpadas, retorcidas, y sinuosas, el factor de emoción de dichas montañas rusas y/u otras atracciones de alta adrenalina similares puede estar limitado al recorrido o a la naturaleza física existente de la propia atracción de alta adrenalina. Ahora, se reconoce que es deseable incluir componentes de interés y factores de emoción en dichas atracciones de una manera flexible y eficiente con relación a las técnicas tradicionales. El documento WO 2016/025962 A1 describe un dispositivo de comunicación tridimensional (3D) que incluye una cámara estereoscópica 3D para capturar vídeo y fotos en 3D. El dispositivo incluye también una pantalla 3D, que permite la visualización de vídeo y de fotos en 3D que han sido capturados por un dispositivo de comunicación de un usuario local o que han sido recibidos desde un dispositivo de comunicación 3D remoto.
Descripción breve
Se proporciona un sistema de atracción de feria según la reivindicación 1.
Se proporciona un procedimiento según la reivindicación 11.
Breve descripción de los dibujos
Estas y otras características, aspectos, y ventajas de la presente invención se comprenderán mejor cuando la siguiente descripción detallada se lea con referencia a los dibujos adjuntos en los que los caracteres similares representan partes similares a lo largo de los dibujos, en los que:
La Fig. 1 ilustra una realización de un parque de atracciones que incluye una o más atracciones según las presentes realizaciones;
La Fig. 2 es una ilustración de una realización de gafas de realidad aumentada estereoscópica (RA) o de realidad virtual (RV) y de un sistema de generación de gráficos por ordenador según las presentes realizaciones;
La Fig. 3 es una ilustración de una realización de gafas de realidad aumentada estereoscópica (RA) o de realidad virtual (RV);
La Fig. 4 es una vista en perspectiva de una atracción de alta adrenalina de la Fig. 1 que incluye diversas imágenes de RA y de RV proporcionadas por medio de las gafas estereoscópicas de RA/RV de la Fig. 2, según las presentes realizaciones; y
La Fig. 5 es un diagrama de flujo que ilustra una realización de un procedimiento útil en la creación de imágenes estereoscópicas dentro de una experiencia de RA, una experiencia de RV, o una experiencia de realidad mixta durante un viaje en una atracción usando el sistema de generación de gráficos por ordenador de la Fig. 2, según las presentes realizaciones.
Descripción detallada
A continuación, se describirán una o más realizaciones específicas de la presente descripción. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, es posible que en la memoria descriptiva no se describan todas las características de una implementación real. Debería apreciarse que, en el desarrollo de cualquier implementación real, al igual que en cualquier proyecto de ingeniería o de diseño, deben tomarse numerosas decisiones de implementación específicas para conseguir los objetivos específicos de los desarrolladores, tales como el cumplimiento de las restricciones relacionadas con el sistema y relacionados con la empresa, que puede variar de una implementación a otra. Además, debería apreciarse que dicho esfuerzo de desarrollo podría ser complejo y podría requerir mucho tiempo, pero, no obstante, sería una empresa rutinaria de diseño, de fabricación y de manufactura para las personas con conocimientos ordinarios que disponen del beneficio de la presente descripción.
Las presentes realizaciones se refieren a sistemas y a procedimientos para proporcionar una experiencia estereoscópica mixta o de realidad aumentada (RA), una experiencia de realidad virtual (RV), o una combinación de las mismas, como parte de una atracción, tal como una atracción de alta adrenalina, en un parque de atracciones o un parque temático. En ciertas realizaciones, cada pasajero de la atracción (por ejemplo, el primer pasajero, el segundo pasajero, etc.) puede recibir unas gafas, tal como un par de gafas o anteojos electrónicos para ser usados durante un ciclo de la atracción de alta adrenalina. Las gafas pueden facilitar una experiencia de RA, una experiencia de RV o una combinación de ambas experiencias. De esta manera, puede hacerse referencia a las gafas como gafas estereoscópicas o gafas estereoscópicas RA/RV. Las gafas estereoscópicas RA/RV proporcionan la capacidad de visualizar imágenes estereoscópicas, que generan la ilusión de imágenes en 3D. Además, las gafas estereoscópicas RA/RV están configuradas para la visualización de imágenes de realidad aumentada o virtual superpuestas sobre una imagen del entorno en el mundo real del usuario, lo que genera la ilusión de que la imagen superpuesta es parte del entorno en el mundo real. Por consiguiente, las gafas estereoscópicas de RA/RV se implementan con lentes de visualización que son capaces de mostrar las imágenes RA/RV superpuestas transmitidos desde un controlador central, además de ser capaces de permitir al usuario ver el entorno en el mundo real, incluyendo cualquier imagen visualizada de manera estereoscópica. Por ejemplo, las lentes de visualización pueden implementarse con una capa polarizante, obturadores activos, capacidad de cambio de color u otra tecnología que permita la visualización estereoscópica y que es compatible con la capacidad de RA/RV de las gafas. De esta manera, puede usarse un único dispositivo de gafas dentro de un entorno para reproducir una diversidad de diferentes tipos de experiencias visuales. Al nivel de la base, las gafas pueden permitir también una visión sin ayudas, no estereoscópica o no aumentada en ciertos casos, por ejemplo, al inicio de un parque temático para permitir a los usuarios aclimatarse al entorno.
Las gafas estereoscópicas de RA/RV son capaces de actuar como una pantalla para las imágenes que se crean para reflejar el entorno real con imágenes aumentadas. En dichas realizaciones, los usuarios ven una imagen visualizada que se muestra en las lentes de las gafas de manera que se cree la ilusión de que la imagen aumentada es el entorno en el mundo real visto en tiempo real. Las imágenes del entorno en el mundo real pueden grabarse antes en el tiempo, por ejemplo, pueden almacenarse en una memoria del sistema, o, en ciertas realizaciones, pueden ser recopiladas en tiempo real por un usuario. Específicamente, en una realización, las gafas incluyen al menos dos cámaras, que pueden corresponder, respectivamente, a los puntos de vista respectivos (por ejemplo, vistas de los ojos derecho e izquierdo) de los pasajeros de la atracción, y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo capturado durante el uso en directo y transmitido sustancialmente en tiempo real) del entorno en el mundo real (por ejemplo, los aspectos del parque de atracciones físico) de los pasajeros de la atracción y/o de la atracción de alta adrenalina. Las gafas incluyen también una pantalla. Por ejemplo, las gafas pueden incluir al menos dos pantallas, respectivamente correspondientes a cada ojo de un pasajero de la atracción que usa las gafas.
Se proporciona también un sistema de generación de gráficos por ordenador. El sistema de generación de gráficos por ordenador puede recibir los datos de vídeo en tiempo real (por ejemplo, vídeo en directo que se transmite sustancialmente en tiempo real) desde las gafas, y puede representar una secuencia de vídeo del entorno en el mundo real junto con varias imágenes gráficas de RA, RV o RA y RV combinadas (RA/RV) a las pantallas respectivas de las gafas respectivas de los pasajeros de la atracción durante un ciclo del viaje en la atracción. Por ejemplo, en una realización, el sistema de generación de gráficos por ordenador puede representar las imágenes gráficas de RA/RV en las gafas, por ejemplo, en base a la posición o la ubicación de un vehículo de pasajeros de la atracción a lo largo de las pistas de una montaña rusa durante un ciclo de un viaje de alta adrenalina, una distancia predeterminada recorrida por el vehículo de pasajeros durante un ciclo del viaje de alta adrenalina, o después de un periodo de tiempo predeterminado en el ciclo del viaje de alta adrenalina. De esta manera, mediante el uso de las gafas y del sistema de generación de gráficos para crear una experiencia de RA, una experiencia de RV o una experiencia de realidad mixta, las gafas y el sistema de generación de gráficos por ordenador pueden mejorar el factor de emoción del viaje de alta adrenalina y, por extensión, pueden mejorar la experiencia de los pasajeros de la atracción mientras montan en la atracción de alta adrenalina. Sin embargo, debería apreciarse que es posible que las técnicas descritas en la presente memoria no se limiten a atracciones de alta adrenalina y/o a aplicaciones de atracciones de parques de atracciones, sino que pueden extenderse también a cualquiera de las diversas aplicaciones, tales como, por ejemplo, aplicaciones médicas (por ejemplo, cirugía guiada por imágenes, análisis de imágenes no invasivas), aplicaciones de diseño de ingeniería (por ejemplo, desarrollo de modelos de ingeniería), aplicaciones de fabricación, de construcción y de mantenimiento (por ejemplo, fabricación de productos, construcción de nuevos edificios, reparaciones de automóviles), aplicaciones de formación académica y/o profesional, aplicaciones de ejercicio (por ejemplo, culturismo y modelos de pérdida de peso), aplicaciones de televisión (TV) (por ejemplo, pronóstico del tiempo y noticias), y similares.
Con lo indicado anteriormente en mente, puede ser útil describir una realización de un parque de atracciones, tal como un parque 10 de atracciones ejemplar tal como se representa en la Fig. 1. Tal como se ilustra, el parque 10 de atracciones puede incluir una atracción 12 de alta adrenalina, un centro comercial con instalaciones 14 de parque de atracciones (por ejemplo, restaurantes, tiendas de recuerdos, etc.), y atracciones 16 adicionales (por ejemplo, noria, atracción oscura u otras atracciones). En ciertas realizaciones, la atracción 12 de alta adrenalina puede incluir una montaña rusa u otra atracción de alta adrenalina similar y, de esta manera, puede incluir además una pista de bucle cerrado o un sistema de pistas 18 de bucle cerrado (por ejemplo, millas de pistas 18). Las pistas 18 pueden proporcionarse como una infraestructura sobre la cual puede desplazarse un vehículo 20 de pasajeros de una atracción, por ejemplo, cuando los pasajeros 22, 24, 26, 28 de la atracción monta en la atracción 12 de alta adrenalina. De esta manera, las pistas 18 pueden definir el movimiento del vehículo 20 de la atracción. Sin embargo, en otra realización, por ejemplo, las pistas 18 pueden reemplazarse por una trayectoria controlada, en la que el movimiento del vehículo 20 de la atracción puede controlarse mediante un sistema electrónico, un sistema magnético u otra infraestructura de sistema similar distinta a las pistas 18. Cabe señalar que, aunque el vehículo 20 de pasajeros de la atracción puede ilustrarse como un vehículo de 4 pasajeros, en otras realizaciones, el vehículo 20 de pasajeros de la atracción puede incluir cualquier número de espacios para pasajeros (por ejemplo, 1, 2, 4, 8, 10, 20 o más espacios) para acomodar uno o múltiples grupos de pasajeros 22, 24, 26, 28 de la atracción. Debería entenderse que, aunque la atracción 12 de alta adrenalina se describe en el contexto del vehículo 20 de la atracción, se contemplan otras realizaciones (por ejemplo, un entorno de teatro sentado, un entorno de arena para caminar o de movimiento libre, etc.) y puede usarse junto con las realizaciones descritas.
A medida que el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18, puede proporcionarse a los pasajeros 22, 24, 26, 28 de la atracción un recorrido en movimiento del escenario (por ejemplo, instalaciones 14, atracciones 16 de entretenimiento adicionales, etc.) en un área alrededor o cerca de la atracción 12 de alta adrenalina. Por ejemplo, esto puede incluir el entorno que rodea la atracción 12 de alta adrenalina (por ejemplo, un edificio que aloja total o parcialmente la atracción 12 de alta adrenalina). Aunque los pasajeros 22, 24, 26, 28 de la atracción pueden considerar la atracción 12 de alta adrenalina como una experiencia muy agradable, en ciertas realizaciones, puede ser útil mejorar la experiencia de los pasajeros 22, 24, 26, 28 de la atracción cuando los pasajeros 22, 24, 26, 28 de la atracción montan en la atracción 12 de alta adrenalina mejorando, por ejemplo, el factor de emoción de la atracción 12 de alta adrenalina. Específicamente, en lugar de tener una vista física de solo las instalaciones 14 (por ejemplo, restaurantes, tiendas de souvenirs y etc.), atracciones 16 de entretenimiento adicionales (por ejemplo, una noria u otras atracciones), u otros clientes o peatones en el interior del parque 10 de atracciones, puede ser útil proporcionar a los pasajeros 22, 24, 26, 28 de la atracción una experiencia de realidad (RA) aumentada o de realidad (RV) virtual cuando el vehículo 20 de la atracción atraviesa las pistas 18.
Por ejemplo, con referencia ahora a la Fig. 2, puede proporcionarse a cada uno de los pasajeros 22, 24, 26, 28 de la atracción un par 34 de gafas estereoscópicas de RA/RV que, en ciertas realizaciones, pueden incluir anteojos. En otras realizaciones, las gafas 34 estereoscópicas de RA/RV pueden incluirse como parte de un casco, una visera, una diadema, un par de anteojeras, uno o más parches para los ojos y/u otros sombreros o anteojos que puedan ser usados por cada uno de los pasajeros 22, 24, 26, 28 de la atracción. Tal como se representa, las gafas 34 estereoscópicas de RA/RV pueden acoplarse de manera comunicativa a un sistema 32 de generación de gráficos por ordenador (por ejemplo, en el interior del parque 10 de atracciones) a través de una red 48 inalámbrica (por ejemplo, redes de área local inalámbricas [WLAN], redes de área amplia inalámbricas [WWAN], comunicación de campo cercano [NFC]). Las gafas 34 estereoscópicas de RA/RV pueden usarse para crear un entorno 30 surrealista, que puede incluir una experiencia de RA, una experiencia de RV, una experiencia de realidad mixta, una combinación de experiencias de RA y de RV, una experiencia de realidad mediada por ordenador, una combinación de las mismas u otro entorno surrealista similar para los pasajeros 22, 24, 26, 28 de la atracción cuando los pasajeros 22, 24, 26, 28 de la atracción montan en la atracción 12 de alta adrenalina. Específicamente, las gafas 34 estereoscópicas de RA/RV pueden ser usadas por los pasajeros 22, 24, 26, 28 de la atracción durante la duración del viaje, de manera que los pasajeros 22, 24, 26, 28 de la atracción puedan sentirse completamente rodeados por el entorno 30 y puedan percibir el entorno 30 como un entorno físico del mundo real. Específicamente, tal como se apreciará adicionalmente, el entorno 30 puede ser un vídeo en tiempo real que incluye imágenes 44 del mundo real que los pasajeros 22, 24, 26, 28 de la atracción verían incluso sin usar las gafas 34 estereoscópicas de RA/RV mezcladas electrónicamente con una o más imágenes 45 de RA o de RV (por ejemplo, aumentos virtuales). La expresión "tiempo real" indica que las imágenes se obtienen y/o se proporcionan en un período de tiempo sustancialmente cercano al momento de la observación real. En realizaciones alternativas, las imágenes obtenidas pueden ser imágenes históricas del entorno.
En ciertas realizaciones, las gafas 34 estereoscópicas de RA/RV pueden ser cualquiera de entres diversos dispositivos electrónicos que pueden llevarse puestos y que pueden ser útiles para crear una experiencia de RA, una experiencia de RV y/u otra experiencia mediada por ordenador para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras usan la atracción 12 de alta adrenalina. Debería apreciarse que la realización de anteojos de las gafas 34 estereoscópicas de RA/RV tal como se describe en la presente memoria puede ser distinta de los dispositivos tradicionales y puede proporcionar muchas ventajas sobre los mismos, tales como pantallas montadas en la cabeza (Head-Mounted Displays, HMD) y/o pantallas de visualización frontal (Heads-Up Displays, HUD). Por ejemplo, tal como se apreciará adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden incluir una serie de sensores de orientación y de posición (por ejemplo, acelerómetros, magnetómetros, giroscopios, receptores de sistema de posicionamiento global [Global Positioning System, GPS]) que pueden usarse para realizar un seguimiento de la posición, la orientación y el movimiento de los pasajeros 22, 24, 26, 28 de la atracción durante un ciclo de la atracción 12 de alta adrenalina.
De manera similar, las características de las gafas 34 estereoscópicas de RA/RV (por ejemplo, aspectos o marcas geométricas) pueden ser supervisadas por un sistema de supervisión (por ejemplo, una o más cámaras) para determinar la posición, la ubicación, la orientación, etc. de las gafas 34 estereoscópicas de RA/RV y, a su vez, las del usuario. Aun así, los pasajeros 22, 24, 26, 28 de la atracción pueden ser supervisados por un sistema 33 de supervisión (por ejemplo, una cámara), que puede acoplarse de manera comunicativa al sistema 32 de generación de gráficos por ordenador y puede usarse para identificar la posición, la ubicación, la orientación, etc., de los pasajeros 22, 24, 26, 28 de la atracción. El vehículo 20 de la atracción puede incluir también uno o más sensores (por ejemplo, sensores de peso, sensores de masa, sensores de movimiento, sensores ultrasónicos) que pueden ser útiles para supervisar a los respectivos pasajeros 22, 24, 26, 28 de la atracción para que el sistema 32 de generación de gráficos determine el punto de vista de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Además, tal como se apreciará adicionalmente, debido a que las gafas 34 estereoscópicas de RA/RV pueden incluir cámaras individuales (por ejemplo, cámaras 40 y 42) y pantallas individuales (por ejemplo, pantallas 37 y 38), los datos con respecto a los respectivos puntos de vista de cada ojo de los pasajeros 22, 24, 26, 28 de la atracción pueden ser capturados por las gafas 34 estereoscópicas de RA/RV. Es posible que todas estas ventajas no estén disponibles cuando se usan dispositivos como las HMDs y/o las HUDs tradicionales.
En ciertas realizaciones, para ayudar en la creación del entorno 30, las gafas 34 estereoscópicas de RA/RV pueden incluir circuitos de procesamiento, tales como un procesador 35 y una memoria 36. El procesador 35 puede estar acoplado de manera operativa a la memoria 36 para ejecutar instrucciones para realizar las técnicas descritas en la presente memoria para generar imágenes 44 del mundo real mezcladas con una o más imágenes 45 de RA/RV para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras están montados en la atracción 12 de alta adrenalina. Estas instrucciones pueden estar codificadas en programas o en un código almacenados en un medio legible por ordenador, no transitorio, tangible, tal como la memoria 36 y/u otro almacenamiento. El procesador 35 puede ser un procesador de propósito general, un dispositivo de sistema en chip (System-On-Chip, SoC), un circuito integrado específico de aplicación (Application-Specific Integrated Circuit, ASIC) o alguna otra configuración de procesador similar. En realizaciones alternativas, el procesador 35 y la memoria 36 pueden proporcionarse como un paquete auxiliar transportado por el usuario (por ejemplo, enganchado en el esperado o transportado en un bolsillo), bien cableado a o en comunicación inalámbrica con las gafas 34 estereoscópicas de RA/RV. En otras realizaciones, las gafas 34 estereoscópicas de RA/RV se comunican de manera inalámbrica con el sistema 32 de generación de gráficos por ordenador y no realizan un procesamiento de imágenes a bordo.
En ciertas realizaciones, tal como se ilustra adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden incluir también el par de pantallas 37 y 38 (por ejemplo, que pueden proporcionarse en la parte 39 frontal de bastidor de las gafas 34 estereoscópicas de RA/RV donde si no estarían las lentes de las gafas) correspondientes respectivamente a cada ojo de los pasajeros 22, 24, 26, 28 de la atracción. En otras realizaciones, puede emplearse una pantalla unificada. Cada una de las pantallas 37 y 38 respectivas puede incluir una pantalla que cubre al menos parte o solo algo de la superficie de visualización. Cada una de las pantallas 37 y 38 respectivas incluye una pantalla LCD transparente, una pantalla OLED transparente u otra pantalla similar útil para permitir, por ejemplo, que los pasajeros 22, 24, 26, 28 de la atracción vean las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV que aparecen en las pantallas 37 y 38 respectivas mientras se conserva la capacidad de ver a través de las pantallas 37 y 38 respectivas el entorno real y físico del mundo real (por ejemplo, el parque 10 de atracciones). Las pantallas 37 y 38 permiten observar las imágenes 43 estereoscópicas. Las pantallas 37, 38 pueden incluir también pantallas de campo de luz. En ciertas realizaciones, las pantallas 37, 38 pueden conmutar entre configuraciones opaca y transparente, dependiendo del entorno visual deseado.
Las cámaras 40 y 42 pueden corresponder respectivamente a los puntos de vista respectivos de los pasajeros 22, 24, 26, 28 de la atracción y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo en directo) del entorno del mundo real. En algunas realizaciones, puede emplearse una única cámara. Específicamente, en la realización ilustrada, las cámaras 40, 42 de las gafas 34 estereoscópicas de RA/RV pueden usarse para capturar imágenes en tiempo real del entorno físico del mundo real (por ejemplo, el parque 10 de atracciones físico) percibidas por los respectivos pasajeros 22, 24, 26, 28 de la atracción desde el punto de vista de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Tal como se apreciará adicionalmente, las gafas 34 estereoscópicas de RA/RV pueden transmitir a continuación (por ejemplo, de manera inalámbrica a través de una o más interfaces de comunicaciones incluidas en las gafas 34 estereoscópicas de RA/RV) los datos de vídeo en tiempo real capturados mediante las cámaras 40 y 42 respectivas a un sistema 32 de generación de gráficos por ordenador para su procesamiento. Sin embargo, en otras realizaciones, los datos de vídeo en tiempo real capturados mediante las cámaras 40 y 42 respectivas pueden ser procesados en las gafas 34 estereoscópicas de RA/RV por el procesador 35. Además, las gafas 34 estereoscópicas de RA/RV pueden transmitir también datos de orientación, datos de posición, datos de punto de vista (por ejemplo, distancia focal, orientación, pose, etc.), datos de seguimiento de movimiento, etc., obtenidos y/o derivados en base a los datos obtenidos mediante sensores de orientación y de posición (por ejemplo, acelerómetros, magnetómetros, giroscopios, receptores del sistema de posicionamiento global [GPS], etc.) sensores de seguimiento de movimiento (por ejemplo, sensores de seguimiento de movimiento electromagnéticos y de estado sólido), etc., que pueden incluirse en las gafas 34 estereoscópicas de RA/RV. Además, en las realizaciones en las que los datos de imagen del mundo real del entorno (por ejemplo, la atracción 12) se adquieren y se accede a las mismas previamente, las gafas estereoscópicas de RA/RV pueden implementarse sin las cámaras 40 y 42.
En ciertas realizaciones, tal como se ha indicado anteriormente, el sistema 32 de generación de gráficos por ordenador, que puede incluir también circuitos de procesamiento, tales como un procesador 46 (por ejemplo, un procesador de propósito general u otro procesador) y una memoria 47, puede procesar los datos de vídeo en tiempo real. (por ejemplo, vídeo en directo) y los datos de orientación y de posición y/o los datos de punto de vista recibidos desde las gafas 34 estereoscópicas de RA/RV o desde el sistema 33 de supervisión. Específicamente, el sistema 32 de generación de gráficos por ordenador puede usar estos datos para generar un fotograma de referencia para registrar los datos de vídeo en tiempo real con las imágenes 44 generadas del mundo real y las imágenes 45 de gráficos de RA/RV. Específicamente, usando el fotograma de referencia generado en base a los datos de orientación, los datos de posición, los datos de punto de vista, los datos de seguimiento de movimiento, etc., el sistema 32 de generación de gráficos puede generar a continuación una vista de las imágenes 44 del mundo real que es temporal y espacialmente acorde con lo que percibirían los respectivos pasajeros 22, 24, 26, 28 de la atracción si no llevaran puestas las gafas 34 estereoscópicas de RA/RV. El sistema 32 de generación de gráficos puede actualizar constantemente (por ejemplo, en tiempo real) la representación de las imágenes del mundo real para reflejar el cambio en la orientación y la posición respectivas y/o el movimiento de los respectivos pasajeros 22, 24, 26, 28 de la atracción.
Por ejemplo, en ciertas realizaciones, el sistema 32 de generación de gráficos puede generar imágenes (por ejemplo, imágenes 44 del mundo real e imágenes 45 de RA/RV) a una velocidad en tiempo real mayor o igual a aproximadamente 20 fotogramas por segundo (FPS), mayor o igual a aproximadamente 30 FPS, mayor o igual a aproximadamente 40 FPS, mayor o igual a aproximadamente 50 FPS, mayor o igual a aproximadamente 60 FPS, mayor o igual a aproximadamente 90 FPS o mayor o igual a aproximadamente 120 FPS. Además, el sistema 32 de generación de gráficos puede generar las imágenes 44 del mundo real para cada una de las gafas 34 estereoscópicas de RA/RV respectivas que usadas por los respectivos pasajeros 22, 24, 26, 28 de la atracción (por ejemplo, ajustadas para la orientación, la posición y el punto de vista respectivos de los respectivos pasajeros 22, 24, 26 y 28 de la atracción).
En ciertas realizaciones, tal como se ha descrito anteriormente, el sistema 32 de generación de gráficos por ordenador puede generar y renderizar también una o más imágenes 45 de gráficos de RA/RV superpuestas a las imágenes 44 del mundo real para crear una experiencia de RA completa, una experiencia de RV, una realidad mixta y/u otra experiencia mediada por ordenador para los pasajeros 22, 24, 26, 28 de la atracción. Por ejemplo, en ciertas realizaciones, el sistema 32 de generación de gráficos por ordenador puede utilizar una o más de las técnicas de mezclado de vídeo y/o de mezclado óptico descritas para superponer las imágenes 45 de gráficos de RA/RV sobre las imágenes 44 del mundo real, de manera que los pasajeros 22, 24, 26, 28 de la atracción perciban el entorno físico del mundo real del parque 10 de atracciones (por ejemplo, proporcionados como datos de vídeo renderizados mediante las pantallas 37 y 38 respectivas) junto con una imagen 45 de gráfico de RA/RV (por ejemplo, aumentos virtuales) cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Específicamente, tal como se ha descrito anteriormente con respecto a la renderización de las imágenes 44 del mundo real, el sistema 32 de generación de gráficos puede renderizar una vista de las imágenes 45 de gráficos de RA/RV que es temporal y espacialmente acorde con las imágenes 44 del mundo real, de manera que las imágenes 44 del mundo real puedan aparecer como un fondo superpuesto con las imágenes 45 de gráficos de RA/RV. De hecho, un modelo puede proporcionar imágenes generadas por ordenador para cualquier punto de vista disponible y pueden proporcionarse imágenes específicas a las gafas 34 estereoscópicas de RA/RV para su visualización en base a una orientación detectada de las gafas 34 estereoscópicas de RA/RV.
En ciertas realizaciones, el sistema 32 de generación de gráficos puede generar también uno o más modelos de brillo, de iluminación o de sombreado y/u otros modelos de renderización fotorrealista para generar las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV ajustadas para reflejar de manera precisa el contraste y el brillo del entorno físico del mundo real (por ejemplo, día soleado, día parcialmente nublado, día nublado, tarde, noche) al renderizar las imágenes 44 del mundo real y las imágenes 45 de gráficos de RA/RV. Por ejemplo, para aumentar el fotorrealismo de las imágenes 44 del mundo real y de las imágenes 45 de gráficos de RA/RV, en algunas realizaciones, el sistema 32 de generación de gráficos puede recibir datos relacionados con el clima de uno o más sistemas de pronóstico y/o de predicción meteorológicos (por ejemplo, sistema de predicción global (Global Forecast System), radares Doppler, etc.). A continuación, el sistema 32 de generación de gráficos puede usar los datos relacionados con el clima u otros datos similares para ajustar el contraste, el brillo y/u otros efectos de iluminación de las imágenes 44 del mundo real y/o de las imágenes 45 de gráficos de RA/RV.
En otras realizaciones, el sistema 32 de generación de gráficos puede ajustar el contraste, el brillo y/u otros efectos de iluminación de las imágenes 44 del mundo real y/o de las imágenes 45 de gráficos de RA/RV en base a la iluminación detectada desde uno o más sensores de luz incluidos en las gafas 34 estereoscópicas de RA/RV o en base a los datos de vídeo en tiempo real capturados por las cámaras 40, 42. Además, tal como se ha indicado anteriormente, el sistema 32 de generación de gráficos puede actualizar de manera constante (por ejemplo, en tiempo real) la renderización de las imágenes 45 de gráficos de RA/RV para reflejar un cambio en las orientaciones, las posiciones, los puntos de vista y/o el movimiento respectivos de los respectivos pasajeros 22, 24, 26, 28 de la atracción. Por ejemplo, tal como se apreciará adicionalmente con respecto a la Fig. 3, el sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV en las pantallas 37 y 38 respectivas de cada una de las gafas 34 estereoscópicas de RA/RV respectivas usadas por los respectivos pasajeros 22, 24, 26, 28 de la atracción ajustadas para las posiciones, los puntos de vista y los movimientos variables respectivos de los respectivos pasajeros 22, 24, 26 y 28 de la atracción.
Tal como se apreciará adicionalmente, el sistema 32 de generación de gráficos puede generar también las imágenes 45 de gráficos de RA/RV en un momento en el que el vehículo 20 de pasajeros de la atracción cruza por un punto predeterminado a lo largo de las pistas 18. De esta manera, en ciertas realizaciones, el sistema 32 de generación de gráficos puede usar los datos de posición, los datos de punto de vista, los datos de movimiento junto con los datos de GPS o los datos de los sistemas de información geográfica (GIS) recibidos para derivar un mapa de iluminación, por ejemplo, de la atracción 12 de alta adrenalina y de las pistas 18, así como del entorno inmediato que rodea la atracción 12 de alta adrenalina durante todo el ciclo de la atracción 12 de alta adrenalina. A continuación, el sistema 32 de generación de gráficos puede usar el mapa para introducir las imágenes 45 de gráficos de RA/RV en ciertos puntos predeterminados (por ejemplo, puntos basados en la ubicación, la distancia, o el tiempo) cuando el vehículo 24 de la atracción de pasajeros atraviesa las pistas 18. Además, en ciertas realizaciones, los datos de vídeo o de imagen capturados mediante las cámaras 40, 42 pueden ser usados por el sistema 32 de generación de gráficos para determinar los puntos de ubicación del vehículo 20 de la atracción y cuándo introducir las imágenes 45 de gráficos de RA/RV. Por ejemplo, el sistema 32 de generación de gráficos puede realizar uno o más algoritmos de reconocimiento geométrico (por ejemplo, reconocimiento de formas u objetos) o algoritmos de reconocimiento fotométrico (por ejemplo, reconocimiento facial o reconocimiento de objetos específicos) para determinar la posición o la ubicación del vehículo 20 de la atracción, así como la posición de visión de los pasajeros 22, 24, 26, 28 de la atracción.
La Fig. 3 es una ilustración de las gafas 34 estereoscópicas de RA/RV que muestra una realización en la que las gafas 34 estereoscópicas de RA/RV incluyen características que permiten también la visualización de imágenes estereoscópicas proyectadas externamente. Por ejemplo, las pantallas 37 y 38 pueden incluir una característica de polarización, tal como un revestimiento o capa polarizados, para permitir al usuario resolver imágenes proyectadas estereoscópicamente como si fueran en 3D. La característica de polarización puede estar revestida sobre una superficie 57 exterior de la pantalla 37 y una superficie exterior de la pantalla 38. De manera alternativa, la característica de polarización puede estar formada en el interior, incluida en o puede estar formada sobre una superficie opuesta de las pantallas 37 y 38. La característica de polarización sobre la pantalla 37 del ojo derecho tiene características de polarización diferentes a las de la característica de polarización en la pantalla 38 del ojo izquierdo para permitir que cada pantalla 37 y 38 respectiva actúe como una lente filtrada que solo permite el paso de la luz polarizada que tiene las características apropiadas. De esta manera, dos imágenes proyectadas superpuestas sobre una pantalla pueden verse estereoscópicamente. En ciertas realizaciones, las características de polarización en las pantallas respectivas pueden ser filtros de polarización lineal orientados ortogonalmente entre sí. En otra realización, los filtros de polarización de las pantallas 37 y 38 pueden ser filtros de polarización circular de orientación opuesta entre sí. En otra realización, las gafas 34 estereoscópicas de RA/RV tienen filtros de cambio de color, de manera que las pantallas 37 y 38 respectivas incluyen filtros de color que filtran longitudes de onda diferentes entre sí. En una realización específica, las gafas 34 estereoscópicas de RA/RV pueden implementarse con tecnología Inficolor 3D o con tecnología Infitec® 3D (Infitec GmbH, Baden Wuerttemberg, Alemania).
Se contemplan también otras implementaciones. Por ejemplo, las gafas 34 espectroscópicas de RA/RV pueden tener capacidades estereoscópicas activas, tales como obturadores activos que encienden y apagan cada pantalla 37 y 38 de manera alterna. Se contempla que pueda usarse el cambio de las velocidades de obturación para proporcionar contenido individualizado entre usuarios diferentes. Por ejemplo, un primer usuario y un segundo usuario, ambos con gafas 34 respectivas, pueden tener un contenido ensamblado diferente si sus obturadores activos se controlan a velocidades diferentes. El control puede basarse en señales recibidas desde el sistema 32, incluyendo señales incrustadas en los fotogramas visualizados. En otras realizaciones, el control del obturador puede estar preestablecido en el dispositivo. Las implementaciones estereoscópicas activas pueden ser ventajosas en atracciones más oscuros, debido a que la falta de filtros de color o de polarización puede permitir que el paso de más luz a través de las pantallas 37 y 38 cuando están actuando como lentes para visión estereoscópica. Debería entenderse también que, cuando las gafas 34 estereoscópicas de RA/RV se están usando en el modo RA/RV, las pantallas 37 y 38 pueden usarse para generar una imagen 3D interna o estereoscópica. Es decir, en ciertas realizaciones, el usuario ve una imagen o un flujo de vídeo transmitidos que pueden implementarse estereoscópicamente. Por ejemplo, la pantalla 38 del ojo izquierdo puede mostrar un canal de vídeo separado del de la pantalla 37 del ojo derecho. En base a las diferencias de perspectiva o a las ligeras diferencias en las imágenes o en el flujo de vídeo mostrados entre la vista del ojo izquierdo/del ojo derecho, de manera similar a las generadas en las imágenes estereoscópicas proyectadas, puede generarse internamente una ilusión 3D en el contenido visualizado.
La Fig. 4 ilustra varios ejemplos de imágenes 45 de RA/RV que pueden ser generadas por el sistema 32 de generación de gráficos, o en otras realizaciones, que pueden generarse mediante las gafas 34 estereoscópicas de RA/RV. Específicamente, tal como se ilustra en la Fig. 3, durante un ciclo de la atracción 12 de alta adrenalina, el sistema 32 de generación de gráficos puede renderizar imágenes 43 estereoscópicas, las imágenes 44 del mundo real, así como varias imágenes 45 de gráficos de RA/RV mediante las gafas 34 estereoscópicas de RA/RV respectivas (por ejemplo, mediante las pantallas 37 y 38 respectivas) de los pasajeros 22, 24, 26, 28 de la atracción. Para renderizar las imágenes estereoscópicas, el sistema 32 de generación de gráficos se usa junto con proyectores 53 estereoscópicos. Las imágenes 44 del mundo real pueden incluir imágenes renderizadas, por ejemplo, de las pistas 18, las instalaciones 14, y/u otros clientes u objetos que los pasajeros 22, 24, 26, 28 de la atracción verían mientras montan en la atracción 12 de alta adrenalina, incluyendo los demás pasajeros 22, 24, 26, 28, incluso si las gafas 34 estereoscópicas de RA/RV no estuvieran siendo usadas por los pasajeros 22, 24, 26, 28 de la atracción. Sin embargo, tal como se ha descrito anteriormente con respecto a la Fig. 2, en ciertas realizaciones, puede ser útil mejorar el factor de emoción de la atracción 12 de alta adrenalina renderizando varias imágenes 45 de gráficos de RA/RV en las pantallas 37 y 38 respectivas de las gafas 34 estereoscópicas de RA/RV respectivas de los pasajeros 22, 24, 26, 28 de la atracción.
Por ejemplo, tal como se muestra adicionalmente en la Fig. 4, el sistema 32 de generación de gráficos puede renderizar imágenes 45 de gráficos de RA/RV (ilustradas mediante líneas discontinuas) que pueden incluir, por ejemplo, una imagen de RA/RV de un segundo centro comercial de las instalaciones 49 del parque de atracciones, una imagen de RA/RV de uno o más personajes 50 de ficción, una imagen de RA/RV de una parte 52 rota de las pistas 18 y/o una imagen de RA/RV adicional 54, 56 y 58. En una realización, tal como se ilustra en la Fig. 4, la imagen 50 de RA/RV puede incluir una imagen de un monstruo u otro personaje de ficción similar que parece (por ejemplo, desde el punto de vista de los pasajeros 22, 24, 26, 28 de la atracción mientras usan las gafas 34 estereoscópicas de RA/RV) que está obstruyendo una parte de las pistas 18 cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Debería apreciarse que, además de las imágenes 45 de gráficos de RA/RV (por ejemplo, aumentos virtuales) que incluyen una imagen añadida, el sistema 32 de generación de gráficos puede renderizar también ciertas imágenes 45 de gráficos de RA/RV que incluyen una eliminación de uno o más objetos físicos del mundo real que ya no aparecen mientras los pasajeros 22, 24, 26, 28 de la atracción están usando las gafas 34 estereoscópicas de RA/RV. Por ejemplo, la imagen RA/RV de las instalaciones 49 puede aparecer en una ubicación en la que la atracción 16 está colocada en el entorno del mundo real.
Tal como se ha descrito anteriormente, en ciertas realizaciones, el sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV, por ejemplo, en base a la posición o a la ubicación del vehículo 20 de pasajeros de la atracción a lo largo de las pistas 18 en cualquier momento determinado durante un ciclo de la atracción 12 de alta adrenalina, a una distancia predeterminada recorrida por el vehículo 20 de pasajeros de la atracción durante un ciclo de la atracción 12 de alta adrenalina, o después de un periodo de tiempo predeterminado. Por ejemplo, en una realización, una vez que el vehículo de la atracción de pasajeros se desplaza a un punto 60 (por ejemplo, definido por una cierta distancia 62 o una ubicación en las pistas 18), la imagen RA/RV del personaje 50 ficticio puede aparecerse a los pasajeros 22, 24, 26, 28 de la atracción, a través de las gafas 34 estereoscópicas de RA/RV, como obstruyendo una ubicación sobre las pistas 18 todavía no atravesada por el vehículo 20 de pasajeros de la atracción durante un ciclo determinado de la atracción 12 de alta adrenalina. De manera similar, una vez que el vehículo 20 de pasajeros de la atracción se desplaza a un punto 62 (por ejemplo, definido por una cierta distancia 62 o una ubicación sobre las pistas 18), la imagen de RA/RV de la parte 52 rota de las pistas 18 (por ejemplo, con la apariencia de una pista rota) puede aparecerse a los pasajeros 22, 24, 26, 28 de la atracción, a través de las gafas 34 estereoscópicas de RA/RV, como si el vehículo 20 de pasajeros de la atracción fuese a encontrarse con un sitio en el que no hay pistas 18 de soporte. El sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV en base a la identidad de los usuarios individuales de las gafas 34. Cada gafa 34 puede estar asociada con una etiqueta RFID u otro elemento de identificación que transmite una señal de identificación al sistema 32 de generación de gráficos. El sistema 32 puede seleccionar la imagen superpuesta de entre varias opciones almacenadas en la memoria 47 en base a la identidad del pasajero de la atracción (por ejemplo, los pasajeros 22, 24, 26, 28 de la atracción). De esta manera, cada pasajero en un vehículo 20 de la atracción puede recibir un contenido personalizado que es diferente del recibido por los otros pasajeros en el vehículo 20 de la atracción. Por ejemplo, en una atracción que incluye contenido de personajes, ciertos pasajeros que usan gafas 34 particulares pueden estar asociados con personajes particulares. En dichas realizaciones, la imagen de RA/RV superpuesta puede estar asociada con el carácter particular. Puede mostrarse un contenido interactivo individualizado a los pasajeros de la atracción (por ejemplo, los pasajeros 22, 24, 26, 28 de la atracción) a través de las gafas 34 basado en experiencias previas del parque, recompensas, personajes, edad o intereses del pasajero, información del perfil del pasajero adquirida desde un servidor central, etc. En una realización, un invitado en una arena interactiva puede ver una imagen superpuesta particular mostrada solo si realiza de manera exitosa una acción física (por ejemplo, golpear un bloque o abrir una puerta).
Además, en ciertas realizaciones, el mapa de iluminación generado por el sistema 32 de generación de gráficos puede permitir que el sistema 32 de generación de gráficos incluya uno o más puntos de detección y/o de activación (por ejemplo, punto de activación para el que deben introducirse las imágenes 45 de RA/RV) en cada 1,6 kilómetros (1 milla) de las pistas 18, cada 91 cm (1 yarda) de las pistas 18, cada 30 cm (1 pie) de las pistas 18, cada 2,54 cm (1 pulgada) de las pistas 18, cada centímetro de las pistas 18 o cada milímetro de las pistas 18. De esta manera, el sistema 32 de generación de gráficos puede detectar cuándo iniciar la renderización de las imágenes 45 de gráficos de RA/RV en base a la posición o la ubicación, la distancia recorrida y/o el tiempo transcurrido durante un ciclo de la atracción 12 de alta adrenalina con suficiente precisión y eficiencia. Además, ciertas imágenes 54, 56 ilustran que puede parecer a los pasajeros 22, 24, 26, 28 de la atracción que una o más de las imágenes 45 de gráficos de RA/RV interactúan entre sí (por ejemplo, se superponen o se tocan entre sí). En una realización, las imágenes (por ejemplo, imágenes 54A y 54B) pueden ser imágenes estereoscópicas. De manera similar, la imagen 58 de RA/RV ilustra un ejemplo de imágenes 45 de gráficos de RA/RV que pueden aparecer fuera de la línea de visión o del punto de vista (por ejemplo, punto ciego) de los pasajeros 22, 24, 26, 28 de la atracción que, sin embargo, pueden ser percibidas por los pasajeros 22, 24, 26, 28 de la atracción en caso de que alguno de los mismos mire en la dirección de la imagen 58 de RA/RV. Cabe señalar que pueden proporcionarse también imágenes completamente diferentes a diferentes pasajeros 22, 24, 26, 28 de la atracción de manera que uno o más de los pasajeros 22, 24, 26, 28 de la atracción tengan experiencias de viaje o incluso temáticas de viaje parcial o completamente diferentes.
En ciertas realizaciones, tal como se ha descrito anteriormente con respecto a la Fig. 2, debido a que el sistema 32 de generación de gráficos puede renderizar imágenes 44 del mundo real y las imágenes 45 de RA/RV en cada una de las pantallas 37 y 38 respectivas de las gafas 34 estereoscópicas de RA/RV usadas por cada uno de los respectivos pasajeros 22, 24, 26, 28 de la atracción, cada uno de los pasajeros 22, 24, 26, 28 de la atracción puede percibir las imágenes 44 del mundo real (por ejemplo, las instalaciones 14, la atracción 12 de alta adrenalina, etc.) y las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales) temporal y espacialmente acordes con sus puntos de vista respectivos, creando de esta manera un efecto fotorrealista cuando el vehículo 20 de pasajeros de la atracción atraviesa las pistas 18. Además, en otras realizaciones, además de las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales), el sistema 32 de generación de gráficos puede activar también uno o más efectos de sonido, efectos de retroalimentación háptica, efectos aromatizados, etc. que pueden coincidir con las apariciones de las imágenes 45 de RA/RV en las gafas 34 estereoscópicas de RA/RV. En algunas realizaciones, el sistema 32 de generación de gráficos es integral con las gafas 34 estereoscópicas de RA/RV.
De esta manera, al proporcionar las gafas 34 estereoscópicas de RA/RV y el sistema 32 de generación de gráficos para crear una experiencia de RA, una experiencia de RV y/u otra experiencia de realidad mediada por ordenador, las gafas 34 estereoscópicas de RA/RV y el sistema 32 de generación de gráficos pueden mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras montan en la atracción 12 de alta adrenalina. Además, al proporcionar las gafas 34 estereoscópicas de RA/RV como anteojos de RA/RV, a diferencia de dispositivos más voluminosos y engorrosos, tales como las pantallas montadas en la cabeza (HMD) tradicionales, puede proporcionarse a los pasajeros 22, 24, 26, 28 de la atracción una mayor libertad de movimientos, así como una experiencia más fotorrealista. Por ejemplo, cada uno de los pasajeros 22, 24, 26, 28 de la atracción puede ser capaz de ver al resto de los pasajeros 22, 24, 26, 28 de la atracción, así como también el propio vehículo 20 de pasajeros de la atracción incluso cuando está usando las gafas 34 estereoscópicas de RA/RV. Además, debido a que las gafas 34 estereoscópicas de RA/RV pueden incluir cámaras 40, 42 individuales y pantallas 37, 38 individuales, los datos con respecto a los puntos de vista respectivos de cada ojo de los pasajeros 22, 24, 26, 28 de la atracción pueden ser capturados por las gafas 34 estereoscópicas de RA/RV. De esta manera, el sistema 32 de generación de gráficos puede renderizar imágenes 44 del mundo real e imágenes 45 de RA/RV en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV que son consistentes con los puntos de vista respectivos de los pasajeros 22, 24, 26, 28 de la atracción. Es posible que dichas ventajas no estén disponibles cuando se usan dispositivos tales como las HMDs tradicionales. En otras realizaciones, el sistema 32 puede usar marcas de agua de audio para sincronizar el contenido de RA en la atracción 12, por ejemplo, para sincronizar los medios reproducidos con las imágenes de RA.
Con referencia ahora a la Fig. 5, se presenta un diagrama de flujo que ilustra una realización de un procedimiento 80 útil en la creación de una experiencia estereoscópica, una experiencia de RA, una experiencia de RV y/u otra experiencia mediada por ordenador durante una atracción de alta adrenalina usando, por ejemplo, el sistema 32 de generación de gráficos por ordenador representado en la Fig. 2. El procedimiento 80 puede ser representativo de un código iniciado o instrucciones almacenadas en un medio legible por ordenador, no transitorio (por ejemplo, la memoria 47) y ejecutado, por ejemplo, por el procesador 46 incluido en el sistema 32 de generación de gráficos por ordenador. El procedimiento 64 puede empezar con la recepción por parte del procesador 46 (bloque 82) de información de posición para un usuario que está usando las gafas 34. Tal como se ha indicado, la posición de las gafas puede evaluarse mediante etiquetas RFID en cada dispositivo, mediante cámaras, GPS, etc. En base a la posición, el sistema 32 puede determinar que el usuario que está usando las gafas 34 está posicionado en las proximidades de un evento estereoscópico deseado (bloque 84). Por consiguiente, el sistema 32 puede iniciar o mantener la proyección de imágenes estereoscópicas a ser mostradas al usuario y a ser vistas por el mismo (bloque 86).
Si el usuario de las gafas 34 es un pasajero en un vehículo de la atracción (véase la Fig. 4) o si no que se está moviendo con relación al entorno, el procedimiento 80 puede recibir información de posición actualizada (bloque 88) para reflejar que el usuario se ha movido a una nueva ubicación asociada con un efecto mixto o de RA/RV deseado (bloque 90). Para generar el efecto de RA/RV, el procedimiento puede acceder a datos de imagen escaneados previamente o capturados en tiempo real y recibidos (bloque 92). Por ejemplo, el procesador 46 puede recibir datos de vídeo en tiempo real (por ejemplo, vídeo en directo) capturados mediante las cámaras 40, 42 de las gafas 34 estereoscópicas de RA/RV. A continuación, el procedimiento 64 puede continuar la generación por parte del procesador 46 de una visualización del entorno del mundo real en base a los datos de imágenes del mundo real. Por ejemplo, el procesador 46 puede generar un flujo de datos de vídeo del entorno del mundo real (por ejemplo, el parque 10 de atracciones) para visualizarlo en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV.
A continuación, el procedimiento 64 puede continuar con la superposición o el solapamiento por parte del procesador 46 (bloque 92) de una o más imágenes de realidad virtual o aumentada sobre la visualización generada del entorno del mundo real. Por ejemplo, el procesador 46 puede generar un flujo de datos de vídeo de las imágenes 44 del mundo real (por ejemplo, instalaciones 14, atracción 12 de alta adrenalina), y puede superponer o solapar las imágenes 45 de RA/RV (por ejemplo, imágenes de RA/RV o aumentos 49, 50, 52, 54, 56 y 58 virtuales) sobre las imágenes 44 del mundo real usando una o más técnicas de mezclado de vídeo y/o de mezclado óptico. Tal como se ha descrito anteriormente, en ciertas realizaciones, por ejemplo, el procesador 46 del sistema 32 de generación de gráficos puede renderizar las imágenes 45 de gráficos de RA/RV, por ejemplo, en base a la posición o la ubicación del vehículo 20 de pasajeros de la atracción a lo largo de las pistas 18 en cualquier momento determinado durante un ciclo de la atracción 12 de alta adrenalina, a una distancia predeterminada recorrida por el vehículo 20 de pasajeros de la atracción durante un ciclo de la atracción 12 de alta adrenalina, o después de un intervalo de tiempo predeterminado. En otras realizaciones, el sistema 32 de generación de gráficos puede realizar uno o más algoritmos de reconocimiento geométrico o fotométrico sobre los datos de vídeo o de imagen capturados mediante las cámaras 40, 42 para determinar los puntos de ubicación del vehículo 20 de la atracción y cuándo introducir las Imágenes 45 de gráficos de RA/RV. A continuación, el procedimiento 64 puede concluir con la transmisión por parte del procesador 46 (bloque 94) de los datos de imagen de realidad virtual o aumentada superpuestos (por ejemplo, imágenes 45 de RA/RV) junto con los datos del entorno del mundo real (por ejemplo, imágenes 44 del mundo real) a mostrar en las pantallas 37, 38 de las gafas 34 estereoscópicas de RA/RV para mejorar el factor de emoción de la atracción 12 de alta adrenalina y, por extensión, la experiencia de los pasajeros 22, 24, 26, 28 de la atracción mientras montan en la atracción 12 de alta adrenalina. El sistema 32 está configurado para permitir que las gafas 34 conmuten entre diferentes modos de visualización, por ejemplo, RA/RV, estereoscópico y mundo real (por ejemplo, sin efectos). La conmutación puede estar basada en el tiempo o en la posición del usuario en el interior de la atracción 12 y puede estar mediada por una señal de control desde el sistema 32. El sistema 32 puede recibir también información del usuario, por ejemplo, a través de un botón o conmutador de entrada en las gafas. Por ejemplo, ciertos usuarios pueden ser sensibles a la visualización de imágenes estereoscópicas. Dichos usuarios pueden tener la opción de desactivar la visualización estereoscópica en 3D y el sistema 32 puede proporcionar datos de vídeo alternativos parecidos a los efectos estereoscópicos.
Los efectos técnicos de las presentes realizaciones se refieren a sistemas y a procedimientos para proporcionar una experiencia de realidad aumentada (RA), una experiencia de realidad virtual (RV), una experiencia de realidad mixta (por ejemplo, una combinación de RA y RV), o una combinación de las mismas, como parte de una atracción de alta adrenalina en un parque de atracciones o un parque temático. En ciertas realizaciones, puede proporcionarse a cada pasajero de la atracción unas gafas (por ejemplo, gafas 34 estereoscópicas de RA/RV que están configuradas para ser usadas como gafas de RA/RV) para que las usen durante un ciclo de la atracción de alta adrenalina. En una realización, las gafas tienen capacidad tanto para RA/RV como para facilitar la visualización de imágenes estereoscópicas proyectadas. Para facilitar una experiencia de RA/RV o de realidad mixta, las gafas pueden estar configuradas para mostrar imágenes virtuales superpuestas sobre una representación del mundo real. Con ese fin, las gafas pueden incluir al menos dos cámaras, que pueden corresponder respectivamente a los puntos de vista respectivos de los pasajeros de la atracción, y pueden usarse para capturar datos de vídeo en tiempo real (por ejemplo, vídeo en directo) del entorno del mundo real (por ejemplo, el parque de atracciones físico) de los pasajeros de la atracción y/o de la atracción de alta adrenalina. Las gafas pueden incluir también al menos dos pantallas correspondientes respectivamente a cada ojo de los pasajeros de la atracción. En ciertas realizaciones, puede proporcionarse también un sistema de generación de gráficos por ordenador. El sistema de generación de gráficos por ordenador puede renderizar un flujo de vídeo del entorno del mundo real junto con varias imágenes gráficas de RA/RV en las pantallas respectivas de las gafas estereoscópicas respectivas de los pasajeros de la atracción durante un ciclo de la atracción de alta adrenalina. Por ejemplo, en una realización, el sistema 32 de generación de gráficos puede renderizar las imágenes de gráficos de RA/RV en las gafas, por ejemplo, en base a la posición o a la ubicación del vehículo de la atracción de pasajeros a lo largo de las pistas en cualquier momento determinado durante un ciclo de la atracción de alta adrenalina, una distancia predeterminada recorrida por el vehículo de la atracción de pasajeros durante un ciclo de la atracción de alta adrenalina, o después de un periodo de tiempo predeterminado. De esta manera, con el uso de las gafas y del sistema de generación de gráficos para crear una experiencia de RA, una experiencia de RV y/o una experiencia de realidad mixta, las gafas y el sistema de generación de gráficos por ordenador pueden mejorar el factor de emoción de la atracción de alta adrenalina y, por extensión, pueden mejorar la experiencia de los pasajeros de la atracción mientras montan en la atracción de alta adrenalina.

Claims (15)

REIVINDICACIONES
1. Sistema de atracción, que comprende:
gafas (34) configuradas para ser usadas por un usuario, en el que las gafas (34) comprenden una pantalla (37, 38) transparente que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas externamente generadas por una fuente externa a las gafas (34) y proyectadas sobre un entorno del mundo real, donde la visión de las imágenes estereoscópicas generadas externamente es posible gracias a que el usuario ve a través de la pantalla (37, 38); y
un sistema (32) de generación de gráficos por ordenador acoplado de manera comunicativa a las gafas (34), comprendiendo el sistema (32) de generación de gráficos por ordenador un proyector (53) estereoscópico y estando configurado para:
generar contenido visual de transmisión continua del entorno del mundo real en base a los datos de imágenes del entorno del mundo real;
generar uno o más aumentos virtuales superpuestos sobre el contenido visual de transmisión continua del entorno del mundo real;
transmitir el contenido visual de transmisión continua del entorno del mundo real junto con los uno o más aumentos virtuales superpuestos para visualizarlos en la pantalla (37, 38) de las gafas (34);
proyectar imágenes estereoscópicas en el entorno del mundo real usando el proyector (53) estereoscópico;
finalizar la generación del contenido visual de transmisión continua del entorno del mundo real en base a una orientación de las gafas (34), una posición del usuario, un punto de vista del usuario o una combinación de los mismos; y
empezar a funcionar en un modo que permite la visión de las imágenes estereoscópicas generadas externamente mediante la pantalla.
2. Sistema de atracción según la reivindicación 1, en el que la pantalla de las gafas (34) comprende una primera pantalla (37) y una segunda pantalla (38), y en el que la primera pantalla (37) está configurada para mostrar el contenido visual de transmisión continua a un primer ojo del usuario y la segunda pantalla (38) está configurada para mostrar el contenido visual de transmisión continua a un segundo ojo del usuario.
3. Sistema de atracción según la reivindicación 2, que comprende un primer filtro polarizado sobre o en la primera pantalla (37) orientado de manera diferente a un segundo filtro polarizado sobre o en la segunda pantalla (38), o que comprende un primer filtro de color sobre o en la primera pantalla (37) configurado para filtrar la luz de una longitud de onda diferente a la de un segundo filtro de color sobre o en la segunda pantalla (38).
4. Sistema de atracción según la reivindicación 1, en el que las gafas (34) comprenden una o más cámaras (40, 42) configuradas para obtener los datos de imagen del entorno del mundo real.
5. Sistema de atracción según la reivindicación 1, en el que el usuario es un pasajero en un vehículo (20) de la atracción y en el que el sistema (32) de generación de gráficos por ordenador está configurado para generar los uno o más aumentos virtuales cuando el vehículo (20) de la atracción se desplaza a una ubicación predeterminada, recorre una distancia predeterminada, después de un periodo de tiempo predeterminado o cualquier combinación de los mismos, durante un ciclo de la atracción.
6. Sistema de atracción según la reivindicación 1, en el que el sistema (32) de generación de gráficos por ordenador está configurado para generar el contenido visual de transmisión continua del entorno del mundo real en base a la orientación de las gafas (34), una posición del usuario, un punto de vista del usuario, una información de perfil del usuario, un personaje asociado con el usuario o una combinación de los mismos.
7. Sistema de atracción según la reivindicación 6, que comprende un sensor de posicionamiento en el interior de las gafas (34) para detectar la orientación de las gafas (34), o que comprende un sistema de supervisión configurado para supervisar los atributos físicos de las gafas (34) para determinar la orientación de las gafas (34).
8. Sistema de atracción según la reivindicación 6, que comprende un sensor configurado para detectar la posición del usuario en el interior del sistema de atracción, en el que el sistema de atracción comprende un vehículo de atracción o un estadio.
9. Sistema de atracción según la reivindicación 1, que comprende unas segundas gafas configuradas para ser usadas por un segundo usuario, en el que las segundas gafas comprenden una pantalla que tiene una característica estereoscópica configurada para permitir la visualización de las imágenes mostradas estereoscópicamente generadas externamente.
10. Sistema de atracción según la reivindicación 1, en el que el sistema (32) de generación de gráficos por ordenador está configurado para:
recibir una indicación de una iluminación, un contraste, un brillo o una combinación de los mismos, asociada con el entorno del mundo real; y
generar el contenido visual de transmisión continua del entorno del mundo real y los uno o más aumentos virtuales superpuestos ajustados para reflejar la iluminación, el contraste, el brillo o la combinación de los mismos, del entorno del mundo real.
11. Procedimiento de funcionamiento de un sistema de atracciones en un parque de atracciones que incluye una atracción (12) de parque de atracciones, que comprende:
recibir datos de imágenes del entorno o acceder a los mismos a través de un sistema (32) de generación de gráficos por ordenador,
generar una virtualización de un entorno del mundo real del sistema de atracción del parque de atracciones en base a los datos de imágenes del entorno;
superponer una imagen de realidad aumentada (RA) o una imagen de realidad virtual (RV) en la virtualización del entorno del mundo real;
proporcionar gafas (34) que comprenden una pantalla (37, 38) que tiene una característica estereoscópica configurada para permitir la visualización de imágenes estereoscópicas generadas por una fuente externa a las gafas (34) y proyectadas en el entorno del mundo real, donde la visualización de las imágenes estereoscópicas es posible gracias a que el usuario ve a través de la pantalla (37, 38);
transmitir la imagen RA o la imagen RV superpuesta junto con la virtualización del entorno del mundo real a las gafas (34) durante un ciclo de la atracción (12) del parque de atracciones;
transmitir una señal a las gafas (34) para permitir la visualización a través de la pantalla (37, 38) de las gafas (34);
proyectar imágenes estereoscópicas sobre una superficie del entorno del mundo real después de transmitir la señal; y
causar que las imágenes estereoscópicas se reflejen a través de filtros en las gafas (34) a un ojo izquierdo y derecho de un usuario para generar una ilusión de una imagen en 3D.
12. El procedimiento según la reivindicación 11, que comprende recibir datos asociados con una posición de un pasajero de la atracción (12) del parque de atracciones, una orientación del pasajero de la atracción, un punto de vista del pasajero de la atracción o una combinación de los mismos.
13. Procedimiento según la reivindicación 11, que recibe una señal de identificación asociada con las gafas (34) y en el que la imagen RA o la imagen RV superpuesta se selecciona en base a la señal de identificación.
14. Procedimiento según la reivindicación 11, que recibe una segunda señal de identificación asociada con las segundas gafas y que transmite una segunda imagen RA o imagen RV superpuesta junto con la virtualización del entorno del mundo real a las gafas durante el ciclo de la atracción (12) del parque de atracciones, en el que la segunda imagen RA o imagen RV superpuesta se selecciona en base a la segunda señal de identificación.
15. Procedimiento según la reivindicación 11, que recibe datos de imágenes del entorno o que accede a los mismos que comprende recibir datos de imágenes en tiempo real desde una cámara acoplada a las gafas (34).
ES17723901T 2016-05-05 2017-05-05 Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual Active ES2858320T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662332299P 2016-05-05 2016-05-05
US15/586,956 US20170323482A1 (en) 2016-05-05 2017-05-04 Systems and methods for generating stereoscopic, augmented, and virtual reality images
PCT/US2017/031371 WO2017193043A1 (en) 2016-05-05 2017-05-05 Systems and methods for generating stereoscopic, augmented, and virtual reality images

Publications (1)

Publication Number Publication Date
ES2858320T3 true ES2858320T3 (es) 2021-09-30

Family

ID=58709641

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17723901T Active ES2858320T3 (es) 2016-05-05 2017-05-05 Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual

Country Status (11)

Country Link
US (3) US20170323482A1 (es)
EP (1) EP3452192B1 (es)
JP (1) JP7079207B2 (es)
KR (1) KR102488332B1 (es)
CN (1) CN109069935B (es)
CA (1) CA3021561A1 (es)
ES (1) ES2858320T3 (es)
MY (1) MY194042A (es)
RU (1) RU2735458C2 (es)
SG (1) SG11201809219XA (es)
WO (1) WO2017193043A1 (es)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10151927B2 (en) * 2016-05-31 2018-12-11 Falcon's Treehouse, Llc Virtual reality and augmented reality head set for ride vehicle
US11182976B2 (en) * 2016-06-06 2021-11-23 Devar Entertainment Limited Device for influencing virtual objects of augmented reality
US10685492B2 (en) * 2016-12-22 2020-06-16 Choi Enterprise, LLC Switchable virtual reality and augmented/mixed reality display device, and light field methods
CN106775566A (zh) * 2016-12-30 2017-05-31 维沃移动通信有限公司 一种虚拟现实终端的数据处理方法和虚拟现实终端
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US10685491B2 (en) * 2017-07-18 2020-06-16 Universal City Studios Llc Systems and methods for virtual reality and augmented reality path management
CN108079574B (zh) * 2017-12-22 2022-01-18 深圳华侨城卡乐技术有限公司 一种基于旋转木马设备的虚拟现实游戏平台及其控制方法
US10369483B1 (en) * 2018-01-23 2019-08-06 Universal City Studios Llc Interactive tower attraction systems and methods
US10678056B2 (en) * 2018-02-26 2020-06-09 Google Llc Augmented reality light field head-mounted displays
IT201800003194A1 (it) 2018-03-01 2019-09-01 Image Studio Consulting S R L Interazioni di giostra
DK3539627T3 (da) 2018-03-16 2020-12-14 Vr Coaster Gmbh & Co Kg Synkroniseringsindretning med en basisstation til synkronisering af head-mounted displays med en virtuel verden i en forlystelse, forlystelse med en sådan synkroniseringsindretning og fremgangsmåde til drift af en sådan forlystelse
US10977871B2 (en) * 2018-04-25 2021-04-13 International Business Machines Corporation Delivery of a time-dependent virtual reality environment in a computing system
US10322353B1 (en) * 2018-05-15 2019-06-18 Universal City Studios Llc Systems and methods for dynamic ride profiles
US10528132B1 (en) * 2018-07-09 2020-01-07 Ford Global Technologies, Llc Gaze detection of occupants for vehicle displays
JP7420400B2 (ja) * 2018-07-25 2024-01-23 ライト フィールド ラボ、インコーポレイテッド ライトフィールドディスプレイシステムベースの遊園地のアトラクション
DE102018121258A1 (de) * 2018-08-30 2020-03-05 Vr Coaster Gmbh & Co. Kg Head Mounted Display sowie Vergnügungseinrichtung mit einem solchen Head Mounted Display
EP3857534A4 (en) * 2018-09-24 2021-12-08 CAE Inc. CAMERA BASED DISPLAY METHOD AND SYSTEM FOR SIMULATORS
US11562539B2 (en) * 2018-09-25 2023-01-24 Universal City Studios Llc Modular augmented and virtual reality ride attraction
US10777012B2 (en) * 2018-09-27 2020-09-15 Universal City Studios Llc Display systems in an entertainment environment
JP7326740B2 (ja) * 2018-12-28 2023-08-16 トヨタ紡織株式会社 空間提供システム
KR102629149B1 (ko) * 2019-01-03 2024-01-26 삼성전자주식회사 외부 광에 따라 디스플레이의 특성을 변경하는 전자 장치 및 방법
US11318607B2 (en) * 2019-01-04 2022-05-03 Universal City Studios Llc Extended reality ride test assembly for amusement park system
US11200655B2 (en) 2019-01-11 2021-12-14 Universal City Studios Llc Wearable visualization system and method
CN109876474A (zh) * 2019-02-20 2019-06-14 北京当红齐天国际文化发展集团有限公司 一种轨道式观影系统及其控制方法
US10767997B1 (en) * 2019-02-25 2020-09-08 Qualcomm Incorporated Systems and methods for providing immersive extended reality experiences on moving platforms
US11143874B2 (en) * 2019-03-29 2021-10-12 Sony Interactive Entertainment Inc. Image processing apparatus, head-mounted display, and image displaying method
US11206505B2 (en) * 2019-05-06 2021-12-21 Universal City Studios Llc Systems and methods for dynamically loading area-based augmented reality content
US11265487B2 (en) * 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
CN112114428A (zh) * 2019-06-21 2020-12-22 海信视像科技股份有限公司 一种ar或mr眼镜
US10828576B1 (en) * 2019-07-29 2020-11-10 Universal City Studios Llc Motion exaggerating virtual reality ride systems and methods
KR102641118B1 (ko) 2019-12-30 2024-02-27 삼성전자주식회사 사용자에게 ar 오브젝트를 제공하는 방법 및 장치
AU2021210962A1 (en) 2020-01-22 2022-08-04 Photonic Medical Inc. Open view, multi-modal, calibrated digital loupe with depth sensing
KR102506312B1 (ko) * 2020-01-22 2023-03-03 신화현 가상현실 컨텐츠를 포함하는 롤러코스터 시스템 및 이의 서비스 제공방법
JP2023512877A (ja) * 2020-02-06 2023-03-30 バルブ コーポレーション 空間変動偏光子を使用した視野ベースの光学補正
US20230087402A1 (en) * 2020-03-02 2023-03-23 Carl Zeiss Meditec Ag Head-mounted visualisation system
US11774770B2 (en) 2020-06-03 2023-10-03 Universal City Studios Llc Interface device with three-dimensional (3-D) viewing functionality
US20220026723A1 (en) * 2020-07-24 2022-01-27 Universal City Studios Llc Electromagnetic coupling systems and methods for visualization device
US11794121B1 (en) * 2020-12-09 2023-10-24 Falcon's Beyond Brands, Llc Theme or amusement park attraction using high frame rate active shutter technology
US20220358687A1 (en) * 2021-05-10 2022-11-10 Cerence Operating Company Touring circuitry for an immersive tour through a touring theater
WO2023205092A1 (en) * 2022-04-21 2023-10-26 Universal City Studios Llc Artificial intelligence (ai)-assisted and dynamic ride profile head tracking systems and methods
WO2024039679A1 (en) * 2022-08-15 2024-02-22 Universal City Studios Llc Show effect system for amusement park attraction system

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1138159B1 (en) * 1998-12-07 2015-06-17 Universal City Studios LLC Image correction method to compensate for point of view image distortion
RU51241U1 (ru) * 2005-07-13 2006-01-27 Евгений Борисович Гаскевич Система формирования стереоизображения
US20100079585A1 (en) * 2008-09-29 2010-04-01 Disney Enterprises, Inc. Interactive theater with audience participation
US20110141246A1 (en) * 2009-12-15 2011-06-16 Justin Michael Schwartz System and Method for Producing Stereoscopic Images
US20130278631A1 (en) * 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
JP5804571B2 (ja) 2010-09-06 2015-11-04 国立大学法人 東京大学 車両システム
JP5423716B2 (ja) * 2011-03-30 2014-02-19 ブラザー工業株式会社 ヘッドマウントディスプレイ
CN202036738U (zh) * 2011-05-09 2011-11-16 西安灵境科技有限公司 人机互动虚拟漫游健身装置
US20130002559A1 (en) 2011-07-03 2013-01-03 Vardi Nachum Desktop computer user interface
US20130083008A1 (en) * 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
KR20130035457A (ko) * 2011-09-30 2013-04-09 삼성전자주식회사 디스플레이장치 및 영상처리방법
US20130169924A1 (en) * 2012-01-04 2013-07-04 Hayward LAMPLEY, JR. Apparatus and system for data storage and retrieval
KR101209854B1 (ko) * 2012-09-11 2012-12-11 신동호 시뮬레이터용 3차원 운동장치
US20150243083A1 (en) 2012-10-01 2015-08-27 Guy COGGINS Augmented Reality Biofeedback Display
KR20140115637A (ko) * 2013-03-21 2014-10-01 한국전자통신연구원 다수 사용자에 입체 영상을 제공하는 시스템 및 그 방법
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2014209244A1 (en) * 2013-06-27 2014-12-31 Koc Universitesi Image display device in the form of a pair of eye glasses
CN105518539A (zh) * 2013-09-04 2016-04-20 依视路国际集团(光学总公司) 用于增强现实的方法和系统
JP6632979B2 (ja) * 2013-09-04 2020-01-22 エシロール・アンテルナシオナル 拡張現実感のための方法とシステム
US9158115B1 (en) * 2013-09-16 2015-10-13 Amazon Technologies, Inc. Touch control for immersion in a tablet goggles accessory
US20160011422A1 (en) * 2014-03-10 2016-01-14 Ion Virtual Technology Corporation Method and system for reducing motion blur when experiencing virtual or augmented reality environments
CN203894474U (zh) * 2014-04-15 2014-10-22 王傲立 一种vr眼镜
US20150358539A1 (en) * 2014-06-06 2015-12-10 Jacob Catt Mobile Virtual Reality Camera, Method, And System
WO2016025962A1 (en) * 2014-08-15 2016-02-18 The University Of Akron Device and method for three-dimensional video communication
US9690375B2 (en) * 2014-08-18 2017-06-27 Universal City Studios Llc Systems and methods for generating augmented and virtual reality images
US20160114222A1 (en) * 2014-10-24 2016-04-28 Acushnet Company Method of making a golf ball with composite construction
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US10018844B2 (en) * 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9918074B2 (en) * 2015-06-18 2018-03-13 Disney Enterprises, Inc. Three dimensional (3D) stereo display systems for creating 3D effects for viewers wearing 3D glasses
CN204952289U (zh) * 2015-08-31 2016-01-13 深圳市维骏文化旅游科技有限公司 新型虚拟现实互动升降观影系统
EP3151554A1 (en) * 2015-09-30 2017-04-05 Calay Venture S.a.r.l. Presence camera
US20170171534A1 (en) * 2015-11-12 2017-06-15 Samsung Electronics Co., Ltd. Method and apparatus to display stereoscopic image in 3d display system
US11112266B2 (en) * 2016-02-12 2021-09-07 Disney Enterprises, Inc. Method for motion-synchronized AR or VR entertainment experience
US20170272732A1 (en) * 2016-03-17 2017-09-21 Disney Enterprises, Inc. Wavelength multiplexing visualization using discrete pixels
US11256092B2 (en) * 2016-04-10 2022-02-22 Everysight Ltd. Binocular wide field of view (WFOV) wearable optical display system
KR101687174B1 (ko) * 2016-04-29 2016-12-16 주식회사 조이펀 Vr 기기에서의 이벤트 발생에 의한 메시지 표시방법 및 그 장치

Also Published As

Publication number Publication date
KR20190005906A (ko) 2019-01-16
RU2735458C2 (ru) 2020-11-02
RU2018142013A3 (es) 2020-06-08
JP7079207B2 (ja) 2022-06-01
EP3452192B1 (en) 2020-12-09
WO2017193043A1 (en) 2017-11-09
US20230260230A1 (en) 2023-08-17
EP3452192A1 (en) 2019-03-13
CA3021561A1 (en) 2017-11-09
KR102488332B1 (ko) 2023-01-13
US11670054B2 (en) 2023-06-06
CN109069935A (zh) 2018-12-21
SG11201809219XA (en) 2018-11-29
US20170323482A1 (en) 2017-11-09
JP2019515749A (ja) 2019-06-13
MY194042A (en) 2022-11-09
US20200364940A1 (en) 2020-11-19
RU2018142013A (ru) 2020-06-05
CN109069935B (zh) 2021-05-11

Similar Documents

Publication Publication Date Title
ES2858320T3 (es) Sistemas y procedimientos para generar imágenes estereoscópicas, de realidad aumentada y de realidad virtual
US11586277B2 (en) Systems and methods for generating augmented and virtual reality images
RU2768131C2 (ru) Система и способ для наложения текста на дисплей устройства визуализации, а также машиночитаемый носитель данных
US10777012B2 (en) Display systems in an entertainment environment