ES2986706T3 - Sistema de detección de orientación de objetos - Google Patents
Sistema de detección de orientación de objetos Download PDFInfo
- Publication number
- ES2986706T3 ES2986706T3 ES20710712T ES20710712T ES2986706T3 ES 2986706 T3 ES2986706 T3 ES 2986706T3 ES 20710712 T ES20710712 T ES 20710712T ES 20710712 T ES20710712 T ES 20710712T ES 2986706 T3 ES2986706 T3 ES 2986706T3
- Authority
- ES
- Spain
- Prior art keywords
- orientation
- ride
- face
- guest
- stroller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G7/00—Up-and-down hill tracks; Switchbacks
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G21/00—Chutes; Helter-skelters
- A63G21/06—Chutes; Helter-skelters with passing arrangements for cars
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63G—MERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
- A63G31/00—Amusement arrangements
- A63G31/16—Amusement arrangements creating illusions of travel
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Un sistema de orientación facial de una atracción que incluye uno o más sensores y un controlador. El controlador recibe datos del carrito de la atracción de uno o más sensores que indican la presencia y posición del carrito de la atracción en la atracción, determina la orientación del carrito de la atracción en función de los datos del carrito de la atracción, recibe datos de posición de un invitado de uno o más sensores que indican la posición de un cuerpo, una cara o una combinación de los mismos del invitado, determina la orientación de la cara, la rotación de la cara o una combinación de las mismas del invitado en función de los datos de orientación y posición del carrito de la atracción, y transmite datos que indican la orientación de la cara determinada, la rotación de la cara o una combinación de las mismas a un controlador posterior para un control posterior en función de la orientación de la cara determinada, la rotación de la cara o la combinación de las mismas. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Sistema de detección de orientación de objetos
ANTECEDENTES
La presente descripción se refiere en general al campo de la detección de objetos basada en cámaras. Más específicamente, las realizaciones de la presente descripción se refieren a sistemas y procedimientos para identificar la orientación de objetos utilizando cámaras.
En muchos casos, puede ser útil comprender la orientación de un objeto. Tradicionalmente, dispositivos portátiles u otras características conocidas de objetos se han utilizado para ayudar a facilitar la detección de la orientación de los objetos. Sin embargo, la provisión y utilización de dispositivos portátiles puede ser costosa y engorrosa. Además, las características conocidas pueden variar de un objeto a otro y, por lo tanto, pueden ser difíciles de detectar y usar como referencia.
Por ejemplo, muchos paseos al estilo de los parques de diversiones incluyen vehículos de paseo que transportan pasajeros a lo largo de una ruta de paseo, por ejemplo, definida por una pista. En el transcurso del paseo, la ruta de paseo puede incluir una serie de características, que incluyen túneles, giros, ascensos, descensos, bucles, etc. La ruta de paseo también puede incluir funciones de visualización de escenas, como efectos de iluminación, figuras animadas o figuras robóticas que pueden proporcionar contenido complementario y/o mejorar una experiencia inmersiva para los huéspedes. Sin embargo, debido a la complejidad de algunos paseos en atracciones, determinar la orientación del cuerpo y/o la cara de un huésped dentro del paseo, como activar o desactivar las funciones de visualización de escenas a lo largo de la ruta del paseo cuando el huésped está viendo las funciones, puede ser difícil sin el uso de equipo de paseo portátil para huéspedes. Sin embargo, proporcionar equipo de paseo portátil puede ser costoso y requerir tiempo adicional para implementarlo en comparación con los paseos de estilo parque de diversiones que no usan dicho equipo. El documento US6179619 describe una máquina de juego para un objeto en movimiento que tiene tanto un dispositivo de detección de posición que es operable para detectar una posición de una persona que viaja sobre el objeto en movimiento en un curso de movimiento para obtener información de posición como un dispositivo de detección de dirección que es operable para detectar una dirección de un campo de visión de la persona para obtener información de dirección. El documento US2018/0104601 describe un programa informático específico para atracciones que se utiliza para proporcionar una realidad virtual correspondiente a un viaje del vehículo que se genera y se representa en una pantalla montada en la cabeza asociada con el huésped de un vehículo según la posición del vehículo en la ruta, y según la posición y/o la orientación de la pantalla montada en la cabeza.
COMPENDIO
A continuación, se resumen ciertas realizaciones cuyo alcance es proporcional al objeto reivindicado originalmente. Estas realizaciones no pretenden limitar el alcance de la descripción, sino que estas realizaciones pretenden proporcionar únicamente un breve resumen de determinadas realizaciones descritas. De hecho, la presente descripción puede abarcar una variedad de formas que pueden ser similares o diferentes de las realizaciones expuestas a continuación.
Las realizaciones descritas en esta invención se refieren a un sistema que puede rastrear la orientación de la cara y la futura rotación de la cara de los huéspedes en paseos en parques de diversiones. Como se emplea en esta memoria, el término "orientación de la cara" se refiere a la posición de la cabeza de un huésped con respecto a un ángulo de rotación particular. El término "rotación de la cara" se refiere a un movimiento real o intervalo de movimientos de la cabeza para alcanzar el ángulo de rotación particular. En algunas realizaciones, el sistema puede usar una orientación de carro de paseo en el paseo junto con el seguimiento esquelético para determinar la orientación y rotación de la cara. En otras realizaciones, el sistema puede usar detección de imagen facial y/o corporal para determinar las características faciales junto con la orientación y rotación de la cara. Además, el aprendizaje automático puede usarse al determinar una orientación facial basada en determinaciones recurrentes.
Aunque la discusión a continuación se centra principalmente en paseos de estilo parque de diversiones, esto no pretende limitar el alcance de la presente invención. De hecho, el sistema actual de detección de orientación de objetos se puede utilizar en una serie de aplicaciones diferentes totalmente diferentes de los paseos de estilo parque de diversiones.
En una realización, un sistema de orientación facial de un paseo incluye uno o más sensores y un controlador. El controlador recibe datos del carro de paseo del uno o más sensores indicativos de una presencia y posición del carro de paseo en el paseo, determina la orientación del carro de paseo según los datos del carro de paseo, recibe datos de posición de un huésped del uno o más sensores indicativos de una posición de un cuerpo, una cara, o una combinación de los mismos, del huésped, determina la orientación de la cara, la rotación de la cara, o una combinación de los mismos, del huésped según la orientación del carro de paseo y los datos de posición, y transmite datos indicativos de la orientación de la cara determinada, la rotación de la cara, o una combinación de los mismos a un controlador aguas abajo para el control posterior según la orientación de la cara determinada, la rotación de la cara, o la combinación de los mismos.
En una realización, un procedimiento incluye recibir datos del carro de paseo de uno o más sensores indicativos de una presencia y posición de un carro de paseo en una atracción, determinar la orientación del carro de paseo según los datos del carro de paseo, recibir datos de posición de un huésped de uno o más sensores indicativos de una posición de un cuerpo, una cara o una combinación de los mismos, del huésped, determinar la orientación de la cara, la rotación de la cara o una combinación de las mismas, del huésped según la orientación del carro de paseo y los datos de posición, y transmitir datos indicativos de la orientación de la cara determinada, la rotación de la cara o una combinación de las mismas a un controlador aguas abajo para el control posterior según la orientación de la cara determinada, la rotación de la cara o la combinación de las mismas.
En una realización, un medio legible por máquina tangible y no transitorio incluye instrucciones legibles por máquina que, cuando se ejecutan por uno o más procesadores de la máquina, hacen que la máquina: reciba datos del carro de paseo de uno o más sensores indicativos de una presencia y posición de un carro de paseo en una atracción, determine la orientación del carro de paseo según los datos del carro de paseo, reciba datos de posición de un huésped de uno o más sensores indicativos de una posición de un cuerpo, una cara o una combinación de los mismos, del huésped, determine la orientación de la cara, la rotación de la cara o una combinación de los mismos, del huésped según los datos de orientación y posición del carro de paseo, y transmita datos indicativos de la orientación de la cara determinada, la rotación de la cara o una combinación de los mismos a un controlador aguas abajo para el control posterior según la orientación de la cara determinada, la rotación de la cara o la combinación de los mismos.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Estas y otras características, aspectos, y ventajas de la presente descripción se entenderán mejor cuando se lea la siguiente descripción detallada con referencia a los dibujos adjuntos en los que caracteres similares representan partes similares en todos los dibujos, en los que:
la Figura 1 es un diagrama de bloques de una atracción de un parque de diversiones que incluye una atracción con una visualización de escena a lo largo de una ruta de paseo, según una realización de la presente descripción;
la Figura 2 es un diagrama esquemático de un sistema de orientación de cara que incluye un controlador de visualización de escena utilizado para controlar las funciones de visualización de escenas, según una realización;
la Figura 3 es un diagrama de bloques del sistema de orientación de caras de la Figura 2 utilizando el seguimiento del esqueleto para determinar una orientación de la cara, que posteriormente se utiliza para controlar una figura animada, según una realización; y
la Figura 4 es un diagrama de flujo de procedimientos para determinar la orientación de la cara de un huésped, según una realización.
DESCRIPCIÓN DETALLADA
Una o más realizaciones específicas de la presente descripción se describirán a continuación. En un esfuerzo por proporcionar una descripción concisa de estas realizaciones, no todas las características de una implementación real se puedan describir en la memoria descriptiva. Debe apreciarse que en el desarrollo de cualquier implementación real, como en cualquier proyecto de ingeniería o diseño, deben tomarse numerosas decisiones específicas de la implementación para lograr los objetivos específicos de los desarrolladores, como el cumplimiento de las restricciones relacionadas con el sistema y relacionadas con el negocio, que pueden variar de una implementación a otra. Además, debe apreciarse que dicho esfuerzo de desarrollo puede ser complejo y requerir mucho tiempo, pero sin embargo sería una tarea rutinaria de diseño, fabricación y manufactura para los expertos en la materia que tengan el beneficio de esta descripción.
Cuando se introducen elementos de varias realizaciones de la presente descripción, los artículos "un", "una", "el" y "la" pretenden significar que hay uno o más de los elementos. Las expresiones "que comprende/n", "que incluye/n" y "que tiene/n" pretenden ser inclusivos y significan que puede haber elementos adicionales distintos de los elementos enumerados. Además, debe entenderse que las referencias a "una realización" o "realización" de la presente descripción no pretenden interpretarse como excluyentes de la existencia de realizaciones adicionales que también incorporan las características mencionadas.
Los parques de atracciones cuentan con una amplia variedad de entretenimientos, como atracciones, espectáculos y juegos. Los diferentes tipos de entretenimiento pueden incluir funciones de visualización de escenas, como una escena temática a lo largo de una ruta de paseo, que mejora la experiencia de un huésped en el parque de diversiones. Las funciones de visualización de escenas pueden incluir efectos, objetos o equipos a lo largo de la ruta del paseo que se activan mientras los huéspedes están viendo la escena del espectáculo en particular. Por ejemplo, una figura robótica a lo largo de una ruta de paseo puede incluir elementos u objetos que cambian o se activan según la presencia detectada de un carro y/o huésped a lo largo de la ruta de paseo. Los cambios en la escena del espectáculo pueden incluir variaciones en el equipo animado y cambios en la iluminación, el posicionamiento del carro de paseo, etc.
La activación de las funciones de visualización de escenas típicas (por ejemplo, iluminación, animaciones) puede activarse por información limitada sobre una atracción y/o un huésped que ve el objeto de la escena del espectáculo a lo largo de la ruta del paseo. Por ejemplo, el activador puede basarse en el posicionamiento de un carro de paseo y/o un huésped. Por lo tanto, independientemente de la posición del huésped dentro del carro de paseo, las funciones de visualización de escenas proporcionadas en la ruta del paseo pueden activarse. Esto puede dar como resultado una experiencia menos personalizada que se implementa genéricamente para cada iteración de la atracción.
Sin embargo, puede ser deseable proporcionar activadores más granulares que proporcionen cambios de atracción más personalizados según las características particulares de los huéspedes de la atracción. En esta invención se proporcionan técnicas que facilitan la determinación de la orientación de la cara de un huésped y el giro de la cara mientras está en un paseo sin el uso de la cara del huésped o el equipo de cabeza mientras está en el paseo. La determinación de la orientación y el giro de la cara de un huésped se puede usar para activar o inicializar las funciones de visualización de escenas. Por ejemplo, las funciones de visualización de escenas, como animaciones o efectos especiales, pueden proporcionarse en respuesta a la cara de un huésped orientada a estar dentro del alcance de visualización de un objeto o equipo en particular en la ruta de paseo que proporciona la función de visualización de escenas. Por lo general, un carro de paseo se mueve a lo largo de la ruta de paseo con el cuerpo o la cabeza de un huésped moviéndose y girando para ver las características a lo largo de la ruta de paseo. Los efectos y las animaciones pueden activarse para inicializarse en respuesta a la detección de un carro de paseo activo en el paseo. Sin embargo, proporcionar la orientación precisa de la cara del huésped y los giros de la cara en una posición particular en la ruta de paseo, como dentro de un intervalo de visualización de objetos o equipos que proporcionan efectos especiales o animaciones en la atracción, puede ser complejo.
Cabe señalar que, aunque los ejemplos proporcionados en esta invención se pueden presentar en general en un parque de diversiones y en un contexto de atracción con paseo, como el uso de las presentes técnicas de determinación de la orientación de la cara del huésped para facilitar la activación de características en una visualización de escena en una ruta de paseo, las técnicas en esta descripción se pueden aplicar a otras condiciones y/o contextos no relacionados con el parque de diversiones. Por lo tanto, debe entenderse que los presentes ejemplos simplemente reflejan un ejemplo del mundo real de un sistema de orientación facial en atracciones para proporcionar un contexto útil para la discusión, y no deben verse como limitantes de la aplicabilidad del presente enfoque. En cambio, el presente enfoque debe entenderse como aplicable a cualquier situación en la que la orientación precisa de personas u objetos en movimiento (por ejemplo, girar la cara) pueda determinarse dentro de un entorno con fines comerciales, de entretenimiento, etc.
Teniendo en cuenta lo anterior, la Figura 1 es un diagrama de bloques de un paseo de parque de diversiones 100 que puede funcionar junto con el sistema de orientación facial descrito según las presentes realizaciones. En particular, el paseo del parque de diversiones 100 puede incluir uno o más carros de paseo 112 con o sin huéspedes, y una función de visualización de escenas a lo largo de una ruta de paseo 108 que incluye figuras animadas 102, los efectos de iluminación 104 y pantallas 106. Las funciones de visualización de escenas pueden activarse para cambiar según la orientación detectada del carro de paseo 112 junto con la orientación de la cara y/o el giro de la cabeza de un huésped.
Como se representa, las funciones de visualización de escenas, como las figuras animadas 102, los efectos de iluminación 104 y la pantalla 106, se pueden controlar para que reaccionen a través de un controlador de visualización de escena 110. En una realización, el controlador de visualización de escena 110 de un sistema de orientación facial puede centralizarse y sincronizarse con al menos una o más funciones de visualización de escenas ubicadas a lo largo de la ruta de paseo 108 del paseo de parque de diversiones 100 para controlar las una o más funciones de visualización de escenas. El controlador de visualización de escena 110 recibe información de posicionamiento contextual (por ejemplo, la posición del carro de paseo 112 y los datos de posición del cuerpo y/o la cabeza del huésped) a través de uno o más sensores y/o procesadores ubicados en o alrededor de las funciones de visualización de escenas, el carro de paseo 112 y/o la ruta de paseo 108. Usando esta información, la orientación de la cara puede determinarse por el sistema de orientación de la cara, como se describe en detalle en la Figura 2.
Una vez que se determina la orientación de la cara, se puede enviar una señal de control a los uno o más sistemas que controlan las funciones de visualización de escenas para activar una o más de las funciones de visualización de escenas según la orientación de la cara. La información de posicionamiento contextual (por ejemplo, datos detectados que indican la posición del carro de paseo 112 en las pistas de paseo 116 y la posición del cuerpo y/o la cabeza del huésped) también puede enviarse a un sistema de monitoreo 111. El sistema de supervisión 111 puede ser un sistema administrativo que no solo supervisa los cambios en la escena del espectáculo, como las señales de control de animación o iluminación enviadas desde el controlador de visualización de escena 110 en respuesta a la orientación del carro de paseo 112 y la orientación de la cara, sino que también puede controlar o reconfigurar el controlador de visualización de escena 110. De esta manera, el sistema de monitoreo 111 puede restablecer los cambios en la función de visualización de escenas o anular las animaciones y efectos determinados por el controlador de visualización de escena 110. Por ejemplo, el controlador de visualización de escena 110 puede enviar automáticamente una animación a la figura animada 102 en respuesta a un huésped que mira hacia la figura animada 102, como se analiza en detalle en la Figura 2. De manera similar, un operador de paseo 122 puede detener manualmente una animación a través de un mecanismo de parada (por ejemplo, un botón) para anular la animación si el operador de paseo 122 encuentra algún problema con la figura animada 102 más allá de los determinados por el controlador de visualización de escena 110. El sistema de monitoreo 111 también se puede usar para recalibrar sensores en o alrededor de la escena del espectáculo. Además, el sistema de monitoreo 111 se puede usar para restablecer los algoritmos de determinación de orientación de cara del controlador de visualización de escena 110. En ciertas realizaciones, el sistema de monitoreo 111 y el controlador de visualización de escena 110 pueden implementarse como un único controlador.
Como se mencionó anteriormente, el controlador de visualización de escena 110 del sistema de orientación facial puede utilizar una combinación de datos de sensor recibidos por los sensores en o cerca de las funciones de visualización de escenas, datos del carro de paseo 112 y/o la ruta de paseo 108 para detectar el posicionamiento del carro de paseo 112 y el cuerpo/cabeza de un huésped, y para determinar adicionalmente la orientación facial, la alineación y/o estimar la rotación facial. La determinación puede usarse para controlar correspondientemente animaciones y efectos producidos a lo largo de la escena del espectáculo. Según la orientación del carro de paseo 112, se puede generar un mapa 3D de un huésped en el paseo. La generación de mapas 3D puede basarse en una posición y orientación conocidas de la pista de paseo 116, y características conocidas dentro del paseo 100 (por ejemplo, la pista de paseo 116 gira hacia una función de visualización de escenas en un punto medio del paseo 100). Por ejemplo, el mapa 3D puede generar la orientación del carro de paseo 112 según el posicionamiento de la pista de paseo 116. Además, los datos de posición del huésped dentro del mapa 3D pueden basarse en la orientación del carro de paseo 112 y la estructura conocida del carro de paseo 112 (por ejemplo, los asientos están orientados hacia adelante a medida que el carro de paseo 112 se mueve a lo largo de la ruta de paseo 108). El mapa 3D se puede usar para reconstruir una posición 3D del huésped y luego determinar con precisión una orientación de la cara, especialmente en relación con las funciones de visualización de escenas conocidas dentro de la ruta de la atracción 108. El mapa 3D también puede determinar dónde puede estar girando la cabeza, tal como para ver las características de visualización de la escena que se espera que el huésped vea según la orientación determinada de la cara. Además, el aprendizaje automático se puede usar para predecir con precisión una posición de la cara según las determinaciones recurrentes que se realizan utilizando datos del sensor. El aprendizaje automático puede usarse además para predecir la orientación de la cara según la orientación de la cara aprendida de un huésped durante un punto específico en la ruta de paseo 108 (por ejemplo, la cara a menudo se coloca hacia una característica de visualización de escena particular).
Como se muestra, el carro de paseo 112 puede detectarse utilizando etiquetas de identificación por radiofrecuencia (RFID) 118 incorporadas en el carro de paseo 112 o un dispositivo portátil para huéspedes, sensores de peso 120 a lo largo de la pista de paseo 116 y/o los marcadores infrarrojos (IR) 119 ubicados en el carro de paseo 112. Las etiquetas RFID 118 pueden comunicarse con un lector electrónico 123 incorporado en diferentes lugares de la atracción 100, como en la pista de la atracción 116, para indicar la presencia de la etiqueta. Por lo tanto, el lector electrónico 123 colocado en la ruta de paseo 108 puede escanear la etiqueta RFID 118 en el carro de paseo 112 a medida que el carro de paseo 112 pasa sobre el lector electrónico 123. Además, las etiquetas RFID 118 pueden colocarse en áreas específicas del carro de paseo 112 y/o ser diferentes tipos de las etiquetas RFID 118. De esta manera, la colocación y/o el tipo de etiqueta RFID 118 se pueden usar para determinar la parte delantera y trasera del carro de paseo 112. Esta información se puede usar para predecir con mayor precisión la posición de un huésped dentro del carro de paseo 112, de modo que se pueda predecir que las caras están orientadas hacia la parte delantera del carro de paseo 112. De manera similar, los marcadores de IR 119 también se pueden colocar en el carro de paseo 112. Los marcadores de IR 119 pueden incluir una superficie reflectante de IR que puede ser ópticamente invisible pero que puede ser detectada por una o más cámaras 114. Las cámaras 114 pueden estar equipadas para detectar la radiación IR reflejada desde el marcador. Además, las etiquetas RFID o marcadores IR pueden colocarse<periódicamente en la pista de paseo 116 o la ruta de paseo>108<a intervalos particulares o puntos específicos de>interés en la pista. Las cámaras 114 que pueden usarse para detectar el carro 112 y/o las posiciones del cuerpo y/o la cabeza del huésped, pueden configurarse para activarse después de que el carro de paseo 112 se acerque al intervalo de visualización de una cámara particular, ahorrando así energía. De manera similar, el seguimiento del carro de paseo 112 en puntos específicos en la pista de paseo 116 se puede utilizar para activar o desactivar las características de visualización de la escena a lo largo de la ruta de paseo 108. A modo de ejemplo, las etiquetas RFID 118 pueden indicar que el carro de paseo 112 está al comienzo de su viaje y, por lo tanto, se pueden desactivar las funciones de visualización de escenas ubicadas hacia el final del viaje. A medida que el carro de paseo 112 se acerca más a un punto de interés en el paseo 100, tal como una distancia predeterminada (por ejemplo, 3 metros) a las funciones de visualización de la escena específicas que pueden determinarse utilizando sensores de proximidad 121 o basándose en el mapa 3D, el controlador de visualización de escena 110 puede activar dichas características en consecuencia. Adicional o alternativamente, las etiquetas RFID 118 o los marcadores de IR 119 pueden colocarse de manera que pueda determinarse la posición del carro de paseo 112 en la pista (por ejemplo, pista recta o giro).
Además, los dispositivos portátiles para huéspedes también pueden incluir las etiquetas RFID 118 o los marcadores IR 119, que se pueden usar para indicar la presencia de huéspedes en el carro de paseo 112 y activar adicionalmente las determinaciones de orientación de la cara. A modo de ejemplo, el lector electrónico 123 para el dispositivo portátil para huéspedes puede colocarse en el asiento del carro de transporte 112 e indicar la presencia del huésped cuando se escanea. Adicional o alternativamente, los marcadores de IR 119 en el dispositivo portátil para huéspedes pueden ser detectados por cámaras usando técnicas descritas previamente.
Los sensores de peso 120 también pueden montarse en la pista de paseo 116 para indicar la presencia del carro de paseo 112 en la pista de paseo 116 según pasar un umbral de peso predeterminado. Después de determinar la posición del carro de paseo 112 usando las técnicas descritas anteriormente (por ejemplo, las etiquetas RFID 118, los marcadores IR 119) para generar el mapa 3D, las cámaras 114 pueden ver el área de interés, tal como la posición y/o ubicación del carro de paseo 112 dentro de la ruta de paseo 108. Por lo tanto, la captura de datos de posición del cuerpo y/o la cabeza de los huéspedes puede limitarse a los huéspedes en el carro de paseo 112. Además, dado que las posiciones de los asientos del carro de paseo 112 pueden ser conocidas por el operador del paseo 122, las cámaras 114 pueden configurarse para estrechar el intervalo de visualización para enfocarse en un área particular alrededor de los asientos. Por lo tanto, la posición del huésped puede determinarse por la posición del carro de paseo 112 y otros mecanismos de sensor como se describe en la presente memoria, para determinar con precisión la orientación de la cara. Además, la orientación de la cara se puede usar para determinar la dirección de visualización dentro de la ruta de paseo 108.
Como se muestra, la cámara 114 o una serie de cámaras 114 pueden instalarse a lo largo de la ruta de paseo 108 y a lo largo de la atracción del parque de diversiones 100 para determinar la orientación del cuerpo y/o la cabeza de uno o más huéspedes. Aunque en esta invención se muestra y analiza una matriz de cámaras 114 para detectar la orientación del huésped, se puede usar una sola cámara 114. Además, en algunas realizaciones, la única cámara 114 puede usarse para determinar el posicionamiento y la orientación del carro de paseo 112 usados para generar el mapa 3D además de o como alternativa a las técnicas descritas anteriormente.
Las cámaras 114 pueden configurarse a una distancia predeterminada de las características de visualización de la escena, tal como de las figuras animadas 102, los efectos de iluminación 104 y las pantallas 106. Dependiendo de la característica de visualización de la escena, la distancia predeterminada puede ser una distancia que puede permitir capturar una cabeza de huésped y al menos la mitad superior del cuerpo, tal como para permitir la determinación precisa de la orientación de la cabeza (por ejemplo, frente de la cabeza, parte posterior de la cabeza, mirando hacia la característica de visualización de la escena). Por ejemplo, las cámaras 114 pueden ver una circunferencia de 3 metros alrededor de la figura animada 102. De esta manera, cualquier huésped en el carro de paseo 112 cerca de la figura animada 102 puede detectarse fácilmente. De manera adicional o alternativa, las cámaras 114 pueden integrarse en la función de visualización de escenas, tal como el cuerpo de la figura animada 102. La integración puede colocarse para permitir que se perciba una vista clara de uno o más huéspedes, ya sea que los huéspedes estén estacionados frente a o hayan pasado la figura animada 102 mientras están en el carro de paseo 112. Por ejemplo, la integración de las cámaras 114 en los ojos de la figura animada 102 puede permitir la detección de huéspedes frente a ella. Además, o alternativamente, la distancia predeterminada puede no ser uniforme para todas las características de visualización de la escena, dependiendo del efecto deseado en el huésped. A modo de ejemplo, los efectos de iluminación 104 a lo largo de la ruta de paseo 108 pueden encenderse antes de que el carro de paseo 112 y/o los huéspedes se coloquen frente a él. Por lo tanto, la una o más cámaras 114 pueden determinar la presencia del huésped a una distancia mayor que para la figura animada 102. Además, las cámaras 114 pueden colocarse de una manera que pueda permitir excluir una vista que puede no incluir al huésped de interés. Por ejemplo, y como se representa, el operador del paseo 122 puede operar el paseo, de modo que los huéspedes que esperan en una cola 107 para el paseo 100 reciben una señal para entrar en el carro de paseo 112. Dado que el operador de atracciones 122 y los huéspedes en la cola 107 no están en la atracción 100 o en el carro de paseo 112, la orientación de su cara con respecto a la escena del espectáculo puede no ser de interés y, por lo tanto, excluirse del intervalo de visualización de las cámaras 114.
Las cámaras 114 también se pueden usar para capturar datos utilizados como entradas a uno o más procedimientos del sistema de orientación facial como se proporciona en esta invención. En un ejemplo, los datos de las cámaras 114 pueden ser utilizados por el controlador de visualización de escena 110 para detectar un cuerpo humano. Es decir, adicional o alternativamente a la generación de un mapa 3D del carro de paseo 112, la presencia de la imagen capturada se puede usar para determinar la presencia y el posicionamiento de cualquier huésped en el carro de paseo 112, y determinar adicionalmente la orientación de la cara. El seguimiento esquelético se utiliza, al menos en parte, para determinar aún más la posición del cuerpo y/o la cara del huésped en el carro de paseo 112. El seguimiento del esqueleto puede incluir el uso de imágenes en tiempo real o capturadas de los huéspedes en el carro de paseo 112 por las cámaras 114, y la comparación de las imágenes con modelos esqueléticos reconocidos para indicar una detección de esqueleto humano. Por ejemplo, el modelo esquelético puede incluir el posicionamiento relativo de articulaciones, huesos y extremidades esenciales de un esqueleto humano. Las articulaciones ubicadas más juntas en el modelo esquelético pueden indicar que el cuerpo y/o la cara están girados hacia la dirección particular. Además, el modelo esquelético se puede usar para predecir la orientación de la cara del huésped en el futuro según las posiciones actuales de la cara y el cuerpo. Por ejemplo, si el modelo esquelético indica que una orientación de la cara está orientada hacia adelante, pero el cuerpo se gira ligeramente a la derecha según la posición de la articulación del cuerpo y la cara (por ejemplo, las articulaciones de los hombros más juntas hacia el extremo derecho del cuerpo esquelético), se puede predecir que la orientación de la cara también girará a la derecha. Además, los datos del carro de paseo 112 que indican características de visualización de la escena particulares en puntos a lo largo de la ruta del paseo 108 pueden usarse junto con el seguimiento esquelético para hacer predicciones futuras de rotación de la cara (por ejemplo, la cara probablemente se volverá hacia una característica de visualización de escena conocida). Por lo tanto, la comparación de las imágenes capturadas de los huéspedes y el modelo esquelético se puede usar para la detección de huéspedes y la orientación del cuerpo/cara. En algunas realizaciones, se puede definir un intervalo de rotación de la cara según la orientación del carro de paseo 112 y/o la orientación del cuerpo. Por ejemplo, un huésped típico puede girar su cabeza una rotación máxima de la cabeza (por ejemplo, 90 grados) en cualquier dirección con respecto a una orientación de base conocida. Suponiendo que el usuario está mirando hacia adelante en el carro de paseo 112, la orientación del carro de paseo 112 puede usarse como la orientación de base conocida para definir el intervalo de rotación de la cara. Adicional o alternativamente, si se conoce la orientación del cuerpo del huésped, esto también se puede utilizar como la orientación de base conocida para definir el intervalo de orientación de la cara. A modo de ejemplo, cuando se utiliza la orientación del carro de paseo 112 como la orientación base conocida y la orientación del carro de paseo 112 es de 45 grados, el intervalo de rotación de la cara del huésped puede definirse como la orientación base conocida más o menos la rotación máxima de la cabeza. Aquí, el intervalo de rotación de la cara del huésped sería de 45 grados más o menos 90 grados, lo que resultaría en un intervalo de -45 a 135 grados. Se pueden realizar cálculos similares utilizando la orientación corporal del huésped como la orientación base conocida.
En algunas realizaciones, paseos de ritmo rápido 100 pueden usar un análisis menos granular de la orientación de la cara y pueden usar el seguimiento esquelético y los datos del carro de paseo 112 para determinar la orientación de la cara. A modo de ejemplo, la determinación de la orientación del carro de paseo 112 utilizando las técnicas descritas anteriormente (por ejemplo, la parte delantera y trasera conocida del carro de paseo 112, la ruta de paseo 108, la pista de paseo 116 y las funciones de visualización de escenas 110 en la ruta de paseo 108) puede indicar un posicionamiento corporal probable de un huésped según la orientación del carro de paseo 112 y cualquier función de visualización de escenas a lo largo de la ruta de paseo 108 que el huésped pueda ver. Por lo tanto, los datos del carro de paseo 112 pueden indicar la posición general del huésped dentro del carro de paseo 112 y la posición relativa a una función de visualización de escenas que puede ubicarse a lo largo de la ruta de paseo 108. Además, un modelo esquelético de seguimiento esquelético puede proporcionar una orientación precisa del cuerpo y la cara del huésped. La colocación de las articulaciones más cerca entre sí hacia un extremo del modelo esquelético puede indicar que el huésped gira en la misma dirección que la característica de visualización de la escena a lo largo de la ruta de paseo 108. Por lo tanto, los datos del carro de paseo 112 junto con el seguimiento esquelético se pueden usar para las determinaciones de la orientación de la cara.
Por otro lado, los paseos de ritmo más lento 100 pueden usar un análisis relativamente más granular de la orientación de la cara, como para incluir un análisis de características faciales. Sin embargo, una imagen esquelética proporcionada por el seguimiento esquelético puede no indicar rasgos faciales precisos. Por lo tanto, los datos de imágenes esqueléticas pueden procesarse adicionalmente para identificar caras utilizando reconocimiento facial y/o formas corporales utilizando reconocimiento corporal.
En algunas realizaciones, tales como para viajes de ritmo más lento 100, la detección de imágenes faciales puede considerar múltiples características faciales en su conjunto para determinar que una cara ha sido detectada con precisión. Las características consideradas pueden ser puntos de interés facial y su intersección (por ejemplo, dos ojos alineados a lo largo de una línea horizontal en estrecha proximidad a una nariz a lo largo de una línea vertical, detectados en o cerca de un punto entre cada ojo). Además, las cámaras 114 se pueden usar para la detección de cuerpo completo o la detección de la parte superior del cuerpo dependiendo del intervalo de visualización de las cámaras 114, de modo que las características corporales se pueden usar para identificar con precisión una orientación del huésped (por ejemplo, el huésped mirando hacia adelante). Por ejemplo, las características de detección corporal pueden considerar características corporales y su intersección, tales como cara, brazos y piernas. La detección corporal puede indicar además la orientación del cuerpo de un huésped y predecir la orientación de la cara del huésped y/o la orientación futura de la cara. A modo de ejemplo, si se detecta que la cara de un huésped está orientada hacia adelante, pero se detecta que el cuerpo está ligeramente girado a la derecha, se puede predecir que la orientación de la cara también girará a la derecha. Adicional o alternativamente, los datos del carro de paseo 112 que indican la posición del carro de paseo 112 en la ruta de paseo 108 y la posición relativa a una característica de visualización de la escena, pueden usarse junto con la detección de imágenes corporales y/o faciales para predecir la orientación futura de una rotación de la cara. Además, las cámaras 114 pueden usarse para el reconocimiento térmico para detectar el calor corporal, que puede usarse para predecir con mayor precisión la presencia y orientación de un huésped. Además, las cámaras 114 también pueden incluir capacidades de infrarrojos (IR), de modo que la cámara puede proporcionar visión nocturna, detectando así a los huéspedes tanto de día como de noche. Las capacidades de IR también se pueden usar para que los fabricantes de IR 119 detecten el carro de paseo 112, como se ha analizado anteriormente.
Algunos de los diferentes tipos de sensores, tales como las etiquetas RFID 118, los marcadores IR 119 y/o la entrada de las cámaras 114 utilizados para detectar el posicionamiento del carro de paseo 112 dentro del paseo 100 para generar el mapa 3D, pueden utilizarse junto con la entrada adicional de la cámara 114 utilizada para determinar el cuerpo y/o la cara de un huésped, tal como mediante seguimiento esquelético. Por lo tanto, según la detección de un carro de paseo 112 presente en una posición particular dentro del paseo 100, las cámaras 114 pueden inicializarse para el seguimiento esquelético, la detección corporal y/o la detección facial para determinar la orientación facial. En ciertas realizaciones, después de determinar la orientación de la cara de un huésped, las características de visualización de la escena se pueden inicializar para proporcionar entretenimiento al huésped que se enfrenta a la característica dentro de un intervalo predeterminado. Es decir, si la distancia detectada es inferior a un umbral y/o si el huésped se encuentra dentro de un campo de visión hipotético de una función de visualización de la escena, y se determina que el huésped está frente a la función, se pueden activar animaciones o efectos.
Como se mencionó anteriormente, después de determinar el posicionamiento del carro de paseo 112 junto con el cuerpo del huésped y/o el posicionamiento de la cabeza utilizado para determinar la orientación de la cara de un huésped (por ejemplo, la cara se gira hacia la derecha en relación con el cuerpo), los algoritmos del sistema de orientación de la cara pueden modificarse según el aprendizaje automático. Específicamente, los algoritmos de determinación de orientación facial pueden cambiarse en respuesta a determinaciones en curso o periódicas. A modo de ejemplo, si se determina que una orientación facial de un huésped está posicionada hacia una función de<visualización de escenas en un punto particular en la ruta de paseo>108<, entonces el controlador de visualización de>escena 110 puede aprender a través del aprendizaje automático a predecir una orientación facial en la misma posición. De manera similar, si se determina que una orientación de la cara está orientada hacia adelante en puntos particulares en la ruta de paseo 108, entonces el controlador de visualización de escena 110 puede hacer predicciones similares utilizando el aprendizaje automático. Además, el aprendizaje automático se puede usar para predecir las rotaciones de las caras a medida que se determina que las caras giran en puntos particulares de la ruta de paseo 108. Por lo tanto, el aprendizaje automático puede usarse para identificar un patrón de orientaciones faciales y futuras rotaciones para que el controlador de visualización de escena 110 haga determinaciones y predicciones precisas de la orientación facial. Según ciertos aspectos discutidos en esta invención, los enfoques de aprendizaje automático que pueden usarse para hacer predicciones relacionadas con la detección y orientación facial, como el giro esperado de una cara, pueden usarse además para acomodar una visualización de animación o efecto de escena realizado. Según las determinaciones de orientación facial que utilizan mecanismos de detección (por ejemplo, los marcadores de IR 119 para detectar el carro de paseo 112, el seguimiento esquelético y/o el reconocimiento facial para detectar una cara), el aprendizaje automático puede actualizar o modificar los algoritmos de orientación facial según los datos actualizados, mediante la realización de detecciones y cambios de configuración, o mediante otros enfoques adecuados.
Como se mencionó anteriormente, la combinación de datos de sensor detectados indicativos de la orientación del carro de paseo 112 y/o el posicionamiento del huésped dentro del mapa 3D del paseo 100, puede enviarse a un controlador de visualización de escena 110 del sistema de orientación facial. El sistema de orientación de la cara puede usar los datos del sensor para determinar una orientación de la cara y posteriormente determinar cualquier cambio para mostrar las características de la escena. Para ilustrar, la Figura 2 muestra un diagrama de bloques de un sistema de orientación facial 150 con un controlador de visualización de escena 110 utilizado para controlar las funciones de visualización de escenas 160, que puede incluir la pantalla 106, el efecto de iluminación 104 y la figura animada 102. El controlador de visualización de escena 110 (por ejemplo, controlador electrónico) puede incluir una memoria 156, un procesador 154, un circuito de comunicación 158 y un dispositivo de entrada 152. En ciertas realizaciones, la memoria 156 está configurada para almacenar instrucciones, datos y/o información, tal como una base de datos de imágenes, animaciones o efectos para las características de visualización de la escena. Adicional o alternativamente, la memoria 156 puede incluir un algoritmo definido por el usuario para generar un mapa 3D del carro de paseo dentro de la atracción y un algoritmo para determinar la orientación de la cara. Cabe señalar que, aunque los ejemplos proporcionados en esta invención pueden representar y describir explícitamente las características de visualización de la escena como limitadas a la pantalla 106, el efecto de iluminación 104 y/o la figura animada 102, los enfoques descritos pueden incluir el uso de la orientación de la cara para controlar otras características o efectos de visualización de la escena en la ruta del paseo 108, como cambiar las rutas de la pista del paseo 116, las figuras que rocían agua, etc.
Como se analiza con más detalle a continuación, en ciertas realizaciones, el procesador 154 está configurado para recibir señales de entrada del dispositivo de entrada 152 relacionadas con la detección de la posición del carro de paseo 112 y/o la orientación del huésped a partir de uno o más sensores descritos anteriormente, que luego se pueden usar para determinar la orientación de la cara utilizando las técnicas descritas en esta invención. Posteriormente, se puede proporcionar una imagen, efecto o animación de la base de datos según la orientación facial determinada y la posición del huésped dentro del paseo según la posición del carro de paseo 112. De esta manera, el controlador de visualización de escena 110 puede determinar la orientación de la cara y controlar adicionalmente las funciones de visualización de escenas en consecuencia cuando un huésped está dentro de un intervalo predeterminado de una función de visualización de escenas particular y/o cuando se determina que la cara del huésped está orientada hacia la función de visualización de escenas particular. Los datos del sensor pueden ser proporcionados al dispositivo de entrada 152 por la o las cámaras 114, el o los sensores de peso 120, los marcadores IR 119, las etiquetas RFID 118 y/o el o los sensores de proximidad 121, como se describió anteriormente. Debe entenderse que el sistema ilustrado pretende ser meramente ejemplar, y que se pueden omitir ciertas características y componentes y se pueden agregar varias otras características y componentes para facilitar el rendimiento, según las realizaciones descritas.
Según los datos de sensor recibidos en el dispositivo de entrada 152, el controlador de visualización de escena 110 puede facilitar el control de las funciones de visualización de escenas 160 usando el procesador 154 para seleccionar imágenes que se mostrarán, animaciones que se implementarán y efectos especiales que pueden almacenarse en una base de datos de la memoria 156. La base de datos puede incluir, por ejemplo, una lista de imágenes disponibles, como imágenes relacionadas con el tema del paseo. A modo de ejemplo, el carro 100 de la Figura 1 representa un tema de circo y, por lo tanto, las imágenes de circo pueden visualizarse en la pantalla 106 cuando una cara de huésped está orientada hacia la pantalla 106. La base de datos también puede incluir animaciones que se realizarán mediante la figura animada 102 (por ejemplo, payaso). Continuando con el ejemplo del tema del circo, las animaciones pueden incluir, pero no se limitan a, hacer malabares, reír y saludar, decir un saludo, etc. Además, las opciones de efecto de iluminación 104 pueden incluir iluminación de color, iluminación estroboscópica, iluminación de sombra y/o iluminación para crear imágenes relacionadas con el circo que se muestran a lo largo de la ruta de paseo 108 (por ejemplo, pared de túnel en la ruta de paseo 108).
En la realización representada, el procesador 154 del controlador de visualización de escena 110 puede ejecutar instrucciones almacenadas en la memoria 156 para realizar operaciones, tales como generar el mapa 3D, determinar la orientación de la cara según los datos del sensor recibidos en el dispositivo de entrada 152 y seleccionar o cambiar las funciones de visualización de escenas 160 (por ejemplo, hacer que la figura animada 102 haga malabarismos cuando una cara detectada está orientada hacia la figura animada 102). Como tal, en algunas realizaciones, el procesador 154 puede ser uno o más microprocesadores de propósito general, uno o más procesadores específicos de la aplicación (ASIC), una o más matrices lógicas programables en campo (FPGA) o cualquier combinación de los mismos. Además, la memoria 156 puede ser un medio tangible, no transitorio, legible por ordenador que almacena instrucciones ejecutables y datos de sensor a procesar por el procesador 154. Por lo tanto, en algunas realizaciones, la memoria 156 puede incluir memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), memoria no volátil regrabable, memoria flash, discos duros, discos ópticos y similares.
Además, el controlador de visualización de escena 110 puede permitir que los circuitos de comunicación 158 interactúen con varios otros dispositivos electrónicos, tales como el sistema de monitoreo 111. El sistema de monitoreo 111 puede usar el mapa 3D generado y/o las determinaciones de orientación de cara para un análisis adicional (por ejemplo, para actualizar el algoritmo de mapa 3D). De manera adicional o alternativa, el controlador de visualización de escena puede permitir que los circuitos de comunicación 158 interactúen con los componentes de las funciones de visualización de escenas 160. Por ejemplo, los circuitos de comunicación 158 pueden permitir que el controlador de visualización de escena 110 se acople comunicativamente a una red, tal como una red de área personal (PAN), una red de área local (LAN) y/o una red de área amplia (WAN). Por consiguiente, en algunas realizaciones, el controlador de visualización de escena 110 puede procesar datos del dispositivo de entrada 152, determinar la orientación de la cara y la posición de los huéspedes dentro del mapa 3D, determinar los cambios (por ejemplo, animaciones o efectos) que se implementarán y comunicar los cambios a las funciones de visualización de escenas 160 a través de los circuitos de comunicación 158. Por ejemplo, después de procesar las entradas de datos del sensor desde el dispositivo de entrada 152, el procesador 154 puede determinar una señal de control que permita que los circuitos de comunicación 158 transmitan de forma inalámbrica los datos de control a las características de visualización de escenas 160 para permitir la activación de los cambios. En otras realizaciones, los circuitos de comunicación 158 pueden conectarse a través de una conexión por cable a las características de visualización de las escenas 160.
En algunas realizaciones, una vez que la señal de control se envía desde el controlador de visualización de escena 110 a las funciones de visualización de escenas 160, las funciones de visualización de escenas 160 pueden ejecutar el cambio correspondiente, tal como una animación implementada por la figura animada 102, una imagen que se mostrará en la pantalla 106, o producir un efecto visual con los efectos de iluminación 104. Además, aunque no se muestran explícitamente, los componentes utilizados para implementar cambios en la pantalla 106, el efecto de iluminación 104 y/o la figura animada 102, pueden incluir un procesador respectivo, una memoria respectiva, un dispositivo de comunicación respectivo y uno o más accionadores.
La Figura 3 es un diagrama de bloques 200 de una realización del uso del sistema de orientación facial 150 utilizado para detectar la orientación facial utilizando el seguimiento esquelético y el reconocimiento facial, que posteriormente se utiliza para controlar la figura animada 102, según aspectos de la presente descripción. La realización representada puede incluir que la figura animada 102 cambie o interactúe con los huéspedes cuando los huéspedes se enfrentan o la miran. Como se muestra, las cámaras 114 están colocadas para ver tanto el carro de paseo 112 como los huéspedes que pueden estar dentro de un intervalo o distancia particular 202 de la figura animada 102 (por ejemplo, según lo estimado por un sensor de proximidad 121 o el mapa 3D) en la escena del espectáculo que puede desencadenar la animación de la figura animada 102 cuando los huéspedes están frente a la figura animada 102. Los datos detectados 203 proporcionados por las cámaras 114 y/o sensores, tales como la etiqueta RFID representada 118, pueden ser comunicados al controlador de visualización de escena 110. Según la lectura de RFID por el lector electrónico 123, la una o más cámaras 114 pueden inicializarse o encenderse para detectar la orientación del carro de paseo 112 y la orientación de la cara. Como se analizó anteriormente, se puede usar una matriz de sensores de presencia del carro de paseo 112 colocados estratégicamente (por ejemplo, las etiquetas RFID 118) a lo largo del paseo 100 para activar las cámaras 114 en secuencia o en puntos de seguimiento específicos a lo largo del paseo 100 para conservar la energía.
En la presente realización, los datos detectados 203 pueden enviarse al controlador de visualización de escena 110 para indicar que la etiqueta de RFID 118 asociada con el carro de paseo 112 pasa el lector electrónico 123, que puede indicar la ubicación esperada del carro de paseo 112 en la pista de paseo 116. Esta determinación puede indicar la posición del carro de paseo 112 en la pista de paseo 116, tal como el carro de paseo 112 se coloca ligeramente a la izquierda según una disposición conocida de la pista de paseo 116. La determinación puede basarse en múltiples lectores electrónicos 123 que se colocan a lo largo de la pista de paseo 116 de modo que cada lector electrónico 123 indique un punto respectivo en la pista de paseo 116. A modo de ejemplo, un lector electrónico particular 123 puede indicar un punto medio en la pista de paseo 116, y el punto medio puede incluir pistas de paseo 116 que giran, lo que indica que el carro de paseo 112 en las pistas de giro 116 también puede estar girando. Además, la posición del carro de paseo 112 dentro del paseo 100 y las pistas de paseo 116 puede indicar la posición actual o esperada junto a las características de visualización de escenas 160, como la figura animada 102. El posicionamiento del carro de paseo 112 puede proporcionar un contexto para determinar la dirección a la que pueden estar orientados los huéspedes. Por ejemplo, el carro de paseo 112 está orientado hacia adelante o en línea con la dirección del paseo y, por lo tanto, es probable que los huéspedes estén orientados hacia adelante. Adicional o alternativamente, la posición del carro de paseo 112 puede determinarse generando el mapa 3D utilizando imágenes capturadas por la cámara 114 y/o un diseño conocido del paseo 100 (por ejemplo, la ruta del paseo 108, las pistas del paseo 116, las características de visualización de escenas160, etc.)
Una vez que se ha determinado el posicionamiento del carro de paseo 112 y se activan las cámaras 114, las cámaras 114 pueden enfocarse en la vista del carro de paseo 112 para detectar la posición del cuerpo y/o la cabeza del huésped y determinar su orientación facial. Usando diferentes técnicas de reconocimiento, tales como, pero sin limitarse a, el seguimiento esquelético y/o el reconocimiento facial, como se discutió anteriormente, el controlador de visualización de escena puede determinar la orientación de la cara. Como se muestra, varios huéspedes pueden estar en el carro de paseo 112 y las cámaras 114 pueden observar a cada huésped de forma simultánea o individual. Por consiguiente, el controlador de visualización de escena 110 puede detectar y rastrear la presencia de los múltiples huéspedes utilizando el seguimiento esquelético para detectar características del cuerpo esquelético, tales como una cabeza y/o cuerpo esquelético. En algunas realizaciones, la lectura esquelética 204 enviada al controlador de visualización de escena 110 puede desencadenar posteriormente la detección de rostros. Las técnicas de reconocimiento facial pueden utilizar las lecturas de seguimiento esquelético para centrarse en la imagen esquelética y encontrar brazos, pecho, ojos, nariz, etc. para generar una imagen facial 206. De esta manera, el controlador de visualización de escena puede usar la orientación del carro de paseo 112 dentro del paseo 100 junto con las técnicas de orientación del cuerpo/cara, como se describió anteriormente, para determinar y generar una imagen de orientación de la cara 208. Adicional o alternativamente, la imagen de orientación de la cara 208 puede incluir imágenes adicionales indicativas de giros o posicionamiento de la cara predichos. Además, el controlador de visualización de escena 110 puede usar aprendizaje automático para actualizar sus determinaciones y predicciones de detección de orientación facial en huéspedes en la posición particular dentro de la atracción 100 según las posiciones corporales y faciales recurrentes y sus determinaciones de orientación facial resultantes.
Además, la determinación de la orientación de la cara para uno o más huéspedes en el carro de paseo 112 se puede usar para inicializar o cambiar las características de visualización de las escenas 160, como la figura animada 102 y el efecto de iluminación 104 en la realización representada. Como se muestra, un primer huésped 210 y un segundo huésped 212 pueden estar posicionados más cerca de la figura animada 102. Con base en los ajustes predefinidos del controlador de visualización de escena 110 (por ejemplo, los ajustes definidos por el diseñador o el operador), se puede instruir a la figura animada 102 para que reaccione ante los huéspedes que están dentro de una distancia particular 202 (por ejemplo, 3 metros) y orientados hacia su dirección. Aquí, aunque las caras tanto del primer huésped 210 como del segundo huésped 212 están giradas para enfrentarse a la figura animada 102, el primer huésped está dentro de la distancia particular 202 para que la figura animada 102 interactúe con el primer huésped 210 mientras que el segundo huésped 212 está fuera de intervalo. Específicamente, el primer huésped 210 está a una distancia de 3 metros 203A de la figura animada 102, que está dentro de la distancia particular 202 de 3 metros. Sin embargo, el segundo huésped 212 está a una distancia de 26 metros 203B de la figura animada 102 y, por lo tanto, no dentro de la distancia particular 202. Además, un tercer huésped 214 está a una distancia de 2 metros 203C, que está dentro de la distancia particular de 3 metros 202 de los efectos de iluminación 104 que rodean una función de carpa de circo. Aunque el tercer huésped 214 está dentro de la distancia particular 202, se determina que la cara del huésped está orientada a la izquierda y lejos de los efectos de iluminación 104. Por lo tanto, las características de visualización de escena pueden activarse en respuesta a un huésped que se determina que está dentro de la distancia particular 202 y frente a la característica de visualización de las escenas. Usando las técnicas de orientación facial descritas en esta invención, las características de visualización de las escenas, tales como los efectos de iluminación 104, pueden conservar energía y continuar apagándose en respuesta a que no se determine que ningún huésped esté frente a la característica de visualización de la escena dentro de la distancia particular 202.
Además, en algunos casos puede haber un carro de paseo vacío (por ejemplo, no hay huéspedes en el carro de paseo) o un carro de paseo con menos de un número máximo de huéspedes. Como se ilustra en la realización actual, un carro de paseo posterior 218 que está vacío sigue al carro de paseo 112 a medida que los carros continúan moviéndose hacia adelante dentro del paseo 100. El carro posterior 218 también puede incluir las etiquetas RFID 118, que se pueden usar para indicar la presencia del carro de paseo posterior 218. En algunas realizaciones, la detección del carro de paseo posterior 218 puede hacer que las cámaras 114 generen un mapa 3D del carro de paseo 112 e inicien adicionalmente el seguimiento del esqueleto. Sin embargo, el seguimiento del esqueleto generaría resultados que indican que no se detectan esqueletos humanos. Dado que no se detectan huéspedes, las características de visualización de la escena, como la figura animada 102 y los efectos de iluminación 104 pueden permanecer apagados, lo que ahorra energía.
La Figura 4 es un diagrama de flujo de procedimientos para un procedimiento 250 para generar determinaciones de orientación de caras usando el controlador de visualización de escena 110 del sistema de orientación de caras 150 de las Figuras 2 y 3. Cabe señalar que el procedimiento 250 puede realizarse como un procedimiento automatizado por un sistema, tal como el sistema de orientación facial 150 que incluye el controlador de visualización de escena 110 y/o las funciones de visualización de escenas 160. Aunque se muestra en una secuencia particular, debe observarse que las operaciones descritas con respecto al procedimiento 250 pueden realizarse en órdenes diferentes a los mostrados y descritos y, de hecho, tales permutaciones del procedimiento 250 están abarcadas por la presente descripción. Además, se pueden omitir ciertas etapas o partes del procedimiento 250 y se pueden añadir otras etapas. El procedimiento 250 puede llevarse a cabo en respuesta a los huéspedes en un paseo.
En algunas realizaciones, el controlador de visualización de escena puede recibir una indicación (bloque 252) de que el carro de paseo 112 está presente en una posición de interés. La posición de interés puede ser un intervalo particular delante, detrás o adyacente a las características de visualización de escenas 160, tal como la figura animada 102. De manera adicional o alternativa, la posición puede basarse en los datos de la ruta de paseo 108. La memoria 156 de la Figura 2 puede almacenar los datos de la ruta de paseo 108 que incluyen información sobre la posición del carro de paseo 112 a lo largo de la ruta de paseo 108 según el tiempo y/u otros factores, que pueden usarse para determinar si el carro de paseo 112 está presente en la posición de interés. En una realización, los lectores electrónicos 123 asociados con el carro de paseo 112 se pueden escanear a medida que el carro de paseo 112 atraviesa la ruta de paseo 108. Las señales RFID observadas a lo largo de la ruta de paseo 108 pueden proporcionar una indicación de la ubicación del carro de paseo 112. Además, en algunas realizaciones, se puede usar una cantidad de tiempo transcurrido y/u otros factores para identificar la ubicación del carro de paseo 112, lo que permite que el controlador de visualización de escena 110 determine cuándo el carro de paseo 112 ha alcanzado la posición de interés. En algunas realizaciones, la entrada de datos del sensor (por ejemplo, a través de las cámaras 114, el sensor de peso 120, los marcadores de IR 119 y/o las etiquetas de RFID 118), o similares, puede usarse para identificar la posición del carro de paseo 112 y, por lo tanto, si el carro de paseo 112 está en la posición de interés.
Además, el controlador de visualización de escena 110 puede usar la entrada de datos del sensor para determinar (bloque 254) la posición del carro de paseo 112 dentro del paseo 100 (por ejemplo, la ruta de paseo 108 o la pista de paseo 116) generando un mapa 3D de la posición del carro de paseo 112 usando técnicas descritas anteriormente. Como se describió anteriormente, la generación de mapas 3D puede basarse en la posición y orientación conocidas de la pista de paseo 116, y las características conocidas dentro del paseo 100 (por ejemplo, la pista de paseo 116 gira hacia una función de visualización de escenas en un punto medio del paseo). Por ejemplo, el mapa 3D puede generar la orientación del carro de paseo 112, tal como el grado de giro o inclinación, según el posicionamiento de la pista de paseo 116. Además, los datos de posición del huésped dentro del mapa 3D pueden basarse en la orientación del carro de paseo 112 y el carro de paseo 112 conocido (por ejemplo, los asientos están orientados hacia adelante a medida que el carro de paseo 112 se mueve a lo largo de la ruta de paseo 108). Por lo tanto, la posición del carro de paseo 112 también puede ser indicativa de una posición de huésped dentro del paseo 100.
Después de recibir la indicación de que el carro de paseo 112 está posicionado en el área de interés y determinar la posición del carro de paseo 112, el controlador de visualización de escena 110 puede inicializar (bloque 256) los sensores para detectar uno o más huéspedes en el carro de paseo 112. Por ejemplo, el controlador de visualización de escena 110 puede emitir una o más señales para activar las cámaras 114 utilizadas para el seguimiento esquelético, el reconocimiento facial y/o el reconocimiento corporal para comenzar a detectar la posición de la cara del huésped en el carro de paseo 112. Por ejemplo, la presencia del huésped puede detectarse mediante un patrón discernible (por ejemplo, color o diseño sólido continuo) en la parte posterior del asiento del carro de paseo 112 en una imagen capturada por las cámaras 114. En respuesta a un huésped en el asiento, es posible que el patrón no sea visible (por ejemplo, una ruptura en el color o diseño continuo debido a que el huésped cubre parte del patrón), lo que indica la presencia del huésped. Por otro lado, cuando el asiento es visible y el patrón es detectable, entonces el controlador de visualización de escena 110 puede determinar que un huésped no está presente en el carro de paseo 112. Esto indica que no hay nadie en el asiento. Además, el seguimiento esquelético se puede usar para determinar la presencia del huésped, de modo que cuando se determina una intersección de articulaciones, huesos y extremidades esenciales de un esqueleto humano, un huésped puede estar presente en el carro de paseo 112. Por otro lado, si el seguimiento esquelético no determina una intersección de las articulaciones del esqueleto, es posible que un huésped no esté presente.
El controlador de visualización de escena 110 puede determinar si la entrada (bloque de decisión 258) recibida de las cámaras 114 es indicativa de un huésped presente en el carro de paseo 112 dentro del intervalo de visualización. Además de la presencia del huésped determinada utilizando las cámaras 114 para el reconocimiento de patrones en un asiento o reconocimiento esquelético, las etiquetas RFID 118 en los dispositivos portátiles para huéspedes pueden escanearse cuando un huésped está sentado en el carro de paseo 112 para indicar la presencia del huésped.
Si el controlador de visualización de escena 110 recibe una indicación de vacante de huésped (por ejemplo, las cámaras 114 capturan una imagen de carro vacío cuando se ejecuta el reconocimiento esquelético), no se necesita más detección de orientación facial, al menos para un asiento particular dentro del carro de paseo. Por consiguiente, el controlador de visualización de escena 110 puede hacer que (bloque 260) los sensores de detección de huéspedes dejen de detectar y/o procesar huéspedes en partes del carro de paseo 112 donde se indica una vacante.
Sin embargo, si la señal indica que los huéspedes están presentes en los asientos del carro de paseo 112, entonces el controlador de visualización de escena 110 puede continuar realizando un reconocimiento o seguimiento de seguimiento esquelético para detectar (bloque 262) el cuerpo y/o la cabeza del huésped. Por ejemplo, el seguimiento esquelético puede considerar el posicionamiento relativo de articulaciones, huesos y extremidades esenciales de un esqueleto humano para generar un modelo esquelético. Como se discutió anteriormente, las articulaciones ubicadas más juntas en el modelo esquelético pueden indicar que el cuerpo y/o la cabeza están girados hacia la dirección particular. Además, los datos del carro de paseo 112 que pueden tener en cuenta puntos particulares en la pista de paseo 116 y mostrar características de visualización de escenas a lo largo de la ruta de paseo 108, pueden usarse junto con el seguimiento esquelético para determinar la orientación de la cara y hacer futuras predicciones de rotación de la cara.
Adicional o alternativamente al seguimiento esquelético utilizado para generar una imagen esquelética de un huésped, el reconocimiento facial y/o corporal puede ejecutarse opcionalmente (como lo indica una línea discontinua) para detectar (bloque 264) los rasgos faciales del huésped, como para los viajes que utilizan un análisis más granular de la orientación de la cara. Como se describió anteriormente, el reconocimiento facial puede incluir considerar puntos de interés facial y su intersección (por ejemplo, dos ojos alineados a lo largo de una línea horizontal muy cerca de una nariz a lo largo de una línea vertical, detectados en o cerca de un punto entre cada ojo). De manera similar, la detección corporal puede considerar las características corporales y su intersección, como la cara, los brazos y las piernas o la parte superior del cuerpo. Tanto el reconocimiento facial como el corporal pueden permitir determinaciones faciales y/o corporales más precisas, que pueden utilizarse para la orientación facial y futuras determinaciones de rotación. A modo de ejemplo, un paseo de pie de ritmo lento con los huéspedes de pie en el carro de paseo 112 puede utilizar técnicas de reconocimiento corporal y facial.
Por ejemplo, en algunas realizaciones, los algoritmos de imagen esquelética pueden indicar la orientación corporal de un huésped dentro del carro de paseo 112 observando la cercanía relativa de las articulaciones esqueléticas. Esta información puede proporcionar una indicación de la orientación probable del cuerpo y, por lo tanto, de la cara. A modo de ejemplo, las articulaciones de rodilla cercanas y giradas hacia un lado particular (por ejemplo, el lado izquierdo) del carro de paseo 112 pueden indicar que el cuerpo y la cabeza del huésped se giran en esta orientación (por ejemplo, hacia la izquierda).
Del mismo modo, los algoritmos de reconocimiento facial pueden indicar la orientación de la cara según la cercanía de los rasgos faciales detectados. Por ejemplo, cuando se detectan rasgos faciales (por ejemplo, ojos) hacia un lado de la cara, esto puede indicar que la cara está girada en una dirección correspondiente a ese lado de la cara (por ejemplo, los ojos detectados hacia el lado izquierdo de la cara pueden indicar que el huésped está mirando hacia la izquierda).
Al utilizar tanto el seguimiento esquelético como el reconocimiento facial y/o corporal junto con la presencia y el posicionamiento del carro de paseo 112 previamente determinados dentro del paseo 100, el controlador de visualización de escena 110 puede determinar (bloque 266) la orientación de la cara del huésped. Específicamente, la orientación del carro de paseo se utiliza como una orientación de referencia para el cuerpo de un huésped, que luego se puede combinar con los datos esqueléticos y/o faciales y corporales para encontrar la orientación precisa de la cara.
Además, en algunas realizaciones, el aprendizaje automático se puede usar para determinar (bloque 267) en qué dirección se puede girar la cara según las determinaciones de orientación de la cara recurrentes realizadas para los huéspedes en la posición particular dentro de la atracción 100. A modo de ejemplo, si se determina que una orientación de la cara de un huésped está posicionada a la izquierda (por ejemplo, hacia una función de visualización de escenas) en un punto particular en la ruta de paseo 108, entonces el controlador de visualización de escena 110 puede aprender a través del aprendizaje automático a predecir una orientación de la cara como la misma orientación para esa posición en la ruta de paseo 108. Además, los algoritmos de orientación facial del controlador de visualización de escena 110 pueden actualizarse utilizando aprendizaje automático para el seguimiento esquelético previamente determinado y los datos de reconocimiento facial y/o corporal y las indicaciones confirmadas de las orientaciones faciales reales de los huéspedes asociadas con el seguimiento esquelético previamente determinado y los datos de reconocimiento facial y/o corporal. Los algoritmos de orientación de la cara pueden actualizarse para predecir o determinar orientaciones de la cara más precisas y dónde puede girar la orientación de la cara teniendo en cuenta el posicionamiento del huésped dentro del paseo 100.
A continuación, la determinación de la orientación de la cara se puede usar para controlar las características de visualización de escenas 160 a lo largo de la ruta de paseo 108. El controlador de visualización de escena 110 puede determinar si (bloque de decisión 268) la orientación de la cara del huésped está dentro de una distancia particular de las funciones de visualización de escenas 160. En otras palabras, el controlador de visualización de escena 110 puede determinar que la cara del huésped está orientada dentro de la distancia particular de la función de visualización de escenas cuando tanto la cara del huésped está dentro de la distancia particular de la función de visualización de escenas como se determina que la cara del huésped está orientada en un intervalo de visualización de la función de visualización de escenas.
Si la orientación de la cara está dentro de la distancia particular (por ejemplo, dentro de los 3 metros de circunferencia de la figura animada 102) y la cara del usuario está orientada en el intervalo de funciones de visualización de escenas, a continuación la función de visualización de escena puede activarse (bloque 270) o actualizarse para reflejar un cambio, como se describió anteriormente. A modo de ejemplo, la orientación de la cara de un huésped puede estar orientada hacia la figura animada 102 que está dentro de un intervalo particular del huésped, y el controlador de visualización de escena 110 puede enviar una señal de control de animación a la figura animada 102. La señal de control de animación puede ser procesada por un procesador de la figura animada 102 y hacer que la figura animada 102 cambie, tal como sonriendo u ondeando, usando accionadores, como se describió anteriormente.
Sin embargo, si la orientación de la cara del huésped no está dentro de la distancia particular de las características de visualización de escenas 160 o no está orientada en un intervalo de visualización de las características de visualización de escenas 160, a continuación la característica de visualización de escena no se activa. Esto proporciona una experiencia más personalizada que puede reducir el uso de energía y/o el desgaste en las características de visualización de escenas.
En algunas situaciones, el huésped puede orientarse hacia la función de escena del espectáculo después de una detección inicial de que la orientación del huésped no está dentro de la distancia predeterminada de la función de escena del espectáculo. Por consiguiente, se pueden realizar determinaciones de orientación adicionales. En tal caso, el controlador de visualización de escena 110 puede determinar si (bloque de decisión 272) el carro de paseo 112 todavía está presente en una posición de interés a medida que se mueve a lo largo de la ruta de paseo 108. Continuando con el ejemplo de la figura animada 102, si la figura animada 102 ya no está dentro de la distancia particular 202 desde el huésped que mira hacia la figura animada 102, entonces el controlador de visualización de escena 110 puede hacer (bloque 260) que los sensores (por ejemplo, las cámaras 114) dejen de detectar huéspedes en el carro de paseo 112.
Sin embargo, si el carro de paseo 112 continúa posicionado en un punto de interés, entonces el controlador de visualización de escena 110 puede recibir (bloque 252) indicación de que el carro de paseo 112 está presente en el punto de interés y tomar pasos posteriores para determinar el posicionamiento del carro de paseo 112, inicializar sensores para detectar huéspedes en el carro de paseo 112, etc.
Como se puede apreciar, las técnicas actuales, que se refieren a la detección de la orientación facial basada en datos contextuales relacionados con un paseo y/o el cuerpo del huésped, pueden proporcionar beneficios significativos. Por un lado, un análisis menos granular de la orientación facial puede proporcionar mayores eficiencias en el procesamiento de la orientación, lo que puede ser especialmente útil en paseos de ritmo rápido. Además, la activación de las características de visualización de escenas según la orientación facial detectada puede proporcionar una mayor eficiencia de utilización de la energía, puede reducir el desgaste de las características de visualización de escenas y/o puede proporcionar una experiencia de paseo más personalizada.
Si bien solo se han ilustrado y descrito ciertas características de la descripción en esta invención, a los expertos en la técnica se les ocurrirán muchas modificaciones y cambios. El alcance de la invención se define mediante las reivindicaciones adjuntas.
Claims (15)
1. Un sistema de orientación facial (150) de una atracción (100), que comprende:
uno o más sensores (114, 118, 119, 120); y
un controlador (110) configurado para:
recibir (252) datos del carro de paseo de los uno o más sensores, los datos del carro de paseo indican una presencia y posición del carro de paseo (112) en la atracción;
determinar la orientación del carro de paseo según los datos del carro de paseo;
recibir datos de posición de un huésped (210, 212) del uno o más sensores, los datos de posición indicativos de una posición de un cuerpo, una cara o una combinación de los mismos, del huésped;
determinar (262, 264, 266, 267) la orientación de la cara, la rotación de la cara o una combinación de las mismas, del huésped basándose, al menos en parte, en la orientación del carro de paseo y los datos de posición; y transmitir (270) datos indicativos de la orientación de la cara determinada, la rotación de la cara o una combinación de las mismas a un controlador aguas abajo para su posterior control según la orientación de la cara determinada, la rotación de la cara o la combinación de las mismas.
2. El sistema de orientación facial según la reivindicación 1, donde los datos de posición comprenden una imagen esquelética determinada por el seguimiento esquelético.
3. El sistema de orientación facial según la reivindicación 2, donde determinar la imagen esquelética mediante seguimiento esquelético comprende determinar una posición de las articulaciones, huesos y extremidades esenciales del huésped para generar la imagen esquelética.
4. El sistema de orientación facial según la reivindicación 2, donde la orientación facial, la rotación facial o una combinación de las mismas se predice según la orientación del carro de paseo, la imagen esquelética, las características de visualización de escenas dentro de un intervalo de visualización o una combinación de las mismas.
5. El sistema de orientación facial según la reivindicación 2, donde el controlador está configurado para ignorar los datos del carro de paseo o los datos de posición facial en respuesta a los uno o más sensores que detectan una ausencia del huésped en el carro de paseo.
6. El sistema de orientación facial según cualquiera de las reivindicaciones anteriores, donde los uno o más sensores comprenden una o más cámaras (114).
7. El sistema de orientación facial según la reivindicación 1, que comprende el controlador aguas abajo que comprende un controlador de visualización de escena (110) que controla una o más características de escena basándose en la orientación de cara determinada, la rotación de cara o la combinación de las mismas, donde el controlador de visualización de escena, el controlador o una combinación del controlador de visualización de escena y el controlador están configurados para:
determinar (268) si el huésped está dentro de una distancia particular de una o más características de visualización de escenas de la atracción;
en respuesta a la determinación de que el huésped está dentro de la distancia particular, determinar un cambio en una o más características de visualización de escenas según la orientación de la cara; y
transmitir una señal de control para activar (270) un cambio en una o más características de visualización de escenas.
8. El sistema de orientación facial según la reivindicación 7, donde una o más características de visualización de escenas comprenden una figura animada (102), una pantalla (106), un efecto de luz (104) o una combinación de los mismos.
9. Un procedimiento (250) que comprende:
recibir (252) datos del carro de paseo de uno o más sensores indicativos de la presencia y posición de un carro de paseo (112) en una atracción;
determinar una orientación del carro de paseo según los datos del carro de paseo;
recibir datos de posición de un huésped (210, 212) de uno o más sensores, los datos de posición indicativos de una posición de un cuerpo, una cara o una combinación de los mismos, del huésped;
determinar (262, 264, 266, 267) la orientación de la cara, la rotación de la cara o una combinación de las mismas, del huésped basándose, al menos en parte, en los datos de orientación y posición del carro de paseo; y
transmitir (270) datos indicativos de la orientación de la cara determinada, la rotación de la cara o una combinación de las mismas a un controlador aguas abajo para su posterior control según la orientación de la cara determinada, la rotación de la cara o la combinación de las mismas.
10. El procedimiento según la reivindicación 9, donde uno o más sensores incluyen etiquetas de identificación por radiofrecuencia (RFID) (118), sensores de proximidad (121), marcadores infrarrojos (IR) (119), sensores de peso (120), cámaras o una combinación de los mismos y donde las etiquetas RFID, los marcadores IR o una combinación de los mismos, se colocan en una ruta de paseo de la atracción en uno o más puntos de interés para rastrear o predecir la posición del carro de paseo dentro de la ruta de paseo.
11. Un medio tangible, no transitorio y legible por máquina que comprende instrucciones legibles por máquina que, cuando son ejecutadas por uno o más procesadores de la máquina, hacen que la máquina pueda:
recibir (252) datos del carro de paseo de uno o más sensores (114, 118, 119, 120) indicativos de la presencia y posición de un carro de paseo (112) en una atracción;
determinar una orientación del carro de paseo según los datos del carro de paseo;
recibir datos de posición de un huésped (210, 212) del uno o más sensores, los datos de posición indicativos de una posición de un cuerpo, una cara o una combinación de los mismos, del huésped;
determinar (262, 264, 266, 267) la rotación de la cara del huésped basándose al menos en parte en la orientación del carro de paseo y los datos de posición; y
transmitir (270) datos indicativos de la orientación de la cara determinada, la rotación de la cara o una combinación de las mismas a un controlador aguas abajo para su posterior control según la orientación de la cara determinada, la rotación de la cara o la combinación de las mismas.
12. El medio legible por máquina según la reivindicación 11, donde la rotación facial determinada del huésped se basa en:
un análisis relativamente menos granular que comprende un análisis de reconocimiento facial para una porción de ritmo rápido del paseo; y
un análisis relativamente más granular que utiliza la orientación del carro de paseo, los datos de posición del huésped, o ambos como una orientación base conocida para una porción de ritmo lento del paseo.
13. El medio legible por máquina según la reivindicación 11, donde se genera un mapa 3D del huésped en el paseo según los datos del carro de paseo, los datos de posición del huésped y los datos de posición del carro de paseo, donde el mapa 3D indica la orientación facial determinada del huésped con respecto a mostrar las características de visualización de escenas del paseo.
14. El medio legible por máquina según la reivindicación 13, donde el mapa 3D se utiliza para determinar con precisión las características faciales, la posición de la cara, el giro de la cara o una combinación de los mismos, y donde la orientación de la cara determinada utiliza el aprendizaje automático para predecir con precisión la posición de la cara según las determinaciones de orientación de la cara recurrentes realizadas para partes específicas de la atracción dentro del mapa 3D.
15. El medio legible por máquina según la reivindicación 11, donde se utiliza un mapa 3D para determinar la orientación del carro de paseo según una posición conocida de la ruta de paseo y una orientación conocida de la ruta de paseo dentro de la atracción.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US16/277,049 US10825196B2 (en) | 2019-02-15 | 2019-02-15 | Object orientation detection system |
| PCT/US2020/018157 WO2020168107A1 (en) | 2019-02-15 | 2020-02-13 | Object orientation detection system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2986706T3 true ES2986706T3 (es) | 2024-11-12 |
Family
ID=69784591
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES20710712T Active ES2986706T3 (es) | 2019-02-15 | 2020-02-13 | Sistema de detección de orientación de objetos |
Country Status (10)
| Country | Link |
|---|---|
| US (4) | US10825196B2 (es) |
| EP (3) | EP4699677A2 (es) |
| JP (2) | JP7554756B2 (es) |
| KR (2) | KR102885719B1 (es) |
| CN (2) | CN113474062B (es) |
| CA (1) | CA3128238A1 (es) |
| ES (1) | ES2986706T3 (es) |
| MY (1) | MY208805A (es) |
| SG (1) | SG11202107888QA (es) |
| WO (1) | WO2020168107A1 (es) |
Families Citing this family (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP7175239B2 (ja) | 2018-06-22 | 2022-11-18 | 東京エレクトロン株式会社 | 制御方法、プラズマ処理装置、プログラム及び記憶媒体 |
| US11188740B2 (en) * | 2019-12-18 | 2021-11-30 | Qualcomm Incorporated | Two-pass omni-directional object detection |
| US11806881B1 (en) * | 2020-06-09 | 2023-11-07 | Multimedia Led, Inc. | Artificial intelligence system for automatic tracking and behavior control of animatronic characters |
| JP7602341B2 (ja) * | 2020-09-23 | 2024-12-18 | グローリー株式会社 | 画像処理装置、画像処理システム、画像処理方法およびプログラム |
| US11759722B2 (en) | 2020-10-02 | 2023-09-19 | Universal City Studios Llc | System and method for repeatable switching between an animated figure and a free motion figure |
| US11701595B2 (en) * | 2020-11-12 | 2023-07-18 | Universal City Studios Llc | Reaction controlled systems and methods |
| US12133134B2 (en) * | 2020-12-01 | 2024-10-29 | Universal City Studios Llc | Systems and methods for controlling an operation of an attraction system |
| CN115082978A (zh) * | 2021-03-10 | 2022-09-20 | 佳能株式会社 | 面部姿态的检测装置、方法、图像处理系统及存储介质 |
| CN115077922B (zh) * | 2021-03-15 | 2024-02-02 | 北汽福田汽车股份有限公司 | 车辆驾驶辅助系统的标定方法、装置、介质及设备 |
| WO2022216973A1 (en) * | 2021-04-08 | 2022-10-13 | Universal City Studios Llc | Guest measurement systems and methods |
| KR20230167113A (ko) | 2021-04-08 | 2023-12-07 | 유니버셜 시티 스튜디오스 엘엘씨 | 방문객 측정 시스템 및 방법 |
| WO2023091757A1 (en) * | 2021-11-22 | 2023-05-25 | Universal City Studios Llc | Conveyor systems with animated elements |
| JP2025515793A (ja) * | 2022-05-11 | 2025-05-20 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | 来園客固有の人工知能エンティティシステム及び方法 |
| US12505587B2 (en) * | 2022-08-15 | 2025-12-23 | Universal City Studios Llc | Show effect system for amusement park attraction system |
| US12533596B2 (en) * | 2022-12-07 | 2026-01-27 | Universal City Studios Llc | System and method for an on-board animated figure in a ride environment |
| GB2635332B (en) * | 2023-11-07 | 2026-03-18 | Nokia Technologies Oy | Viewing direction |
| US20250259587A1 (en) * | 2024-02-09 | 2025-08-14 | Universal City Studios Llc | Techniques for display color correction |
Family Cites Families (50)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH10309381A (ja) | 1997-05-13 | 1998-11-24 | Yoshimasa Tanaka | 移動体用遊戯装置 |
| JP2006158758A (ja) * | 2004-12-09 | 2006-06-22 | Seiko Epson Corp | 走行型遊具および走行型遊具システム |
| US7788215B2 (en) * | 2005-11-29 | 2010-08-31 | Universal City Studios Llp | Amusement ride with rider-selected integrated audio |
| US8352147B2 (en) * | 2007-11-26 | 2013-01-08 | Equos Research Co., Ltd. | Vehicle control device |
| US9839856B2 (en) * | 2008-03-11 | 2017-12-12 | Disney Enterprises, Inc. | Method and system for providing interactivity based on sensor measurements |
| US8025581B2 (en) * | 2008-05-09 | 2011-09-27 | Disney Enterprises, Inc. | Interactive interface mounting assembly for amusement and theme park rides |
| US8858351B2 (en) * | 2008-05-27 | 2014-10-14 | Disney Enterprises, Inc. | Operating show or ride elements in response to visual object recognition and tracking |
| US9038543B2 (en) | 2010-01-21 | 2015-05-26 | Maurer Soehne Gmbh & Co. Kg | Amusement ride comprising a facial expression recognition system |
| CN102622606B (zh) | 2010-02-03 | 2013-07-31 | 北京航空航天大学 | 基于测地模型的人体骨骼提取和朝向判定方法 |
| KR20120057033A (ko) | 2010-11-26 | 2012-06-05 | 한국전자통신연구원 | Iptv 제어를 위한 원거리 시선 추적 장치 및 방법 |
| EP2706384A4 (en) * | 2011-06-17 | 2015-04-08 | Honda Motor Co Ltd | PASSENGER DETECTION DEVICE |
| EP2564765B1 (en) * | 2011-09-02 | 2017-12-13 | Volvo Car Corporation | System and method for improving a performance estimation of an operator of a vehicle |
| US10013053B2 (en) | 2012-01-04 | 2018-07-03 | Tobii Ab | System for gaze interaction |
| US10025381B2 (en) | 2012-01-04 | 2018-07-17 | Tobii Ab | System for gaze interaction |
| EP2674913B1 (en) | 2012-06-14 | 2014-07-23 | Softkinetic Software | Three-dimensional object modelling fitting & tracking. |
| WO2014061195A1 (ja) * | 2012-10-19 | 2014-04-24 | 日本電気株式会社 | 乗車人数計数システム、乗車人数計数方法および乗車人数計数プログラム |
| JP2015140146A (ja) * | 2014-01-30 | 2015-08-03 | トヨタ自動車株式会社 | 車両制御装置、及び、車両制御システム |
| US9600999B2 (en) | 2014-05-21 | 2017-03-21 | Universal City Studios Llc | Amusement park element tracking system |
| EP3041591B1 (de) | 2014-08-11 | 2016-11-09 | Mack Rides GmbH & Co. KG | Verfahren zum betreiben einer vorrichtung, insbesondere eines fahrgeschäftes, eines transportmittels, eines fitnessgerätes oder dergleichen |
| US9690375B2 (en) | 2014-08-18 | 2017-06-27 | Universal City Studios Llc | Systems and methods for generating augmented and virtual reality images |
| US20160107578A1 (en) * | 2014-10-15 | 2016-04-21 | Continental Automotive Systems, Inc. | Method of selecting mirrors for adjustment |
| WO2016075674A2 (en) * | 2014-11-16 | 2016-05-19 | Guy Finfter | System and method for providing an alternate reality ride experience |
| JP2016148776A (ja) | 2015-02-12 | 2016-08-18 | 株式会社リコー | 画像表示制御装置、画像表示システム、画像表示制御プログラム |
| JP6573193B2 (ja) | 2015-07-03 | 2019-09-11 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、および判定プログラム |
| US9610510B2 (en) | 2015-07-21 | 2017-04-04 | Disney Enterprises, Inc. | Sensing and managing vehicle behavior based on occupant awareness |
| CN106487713A (zh) * | 2015-08-26 | 2017-03-08 | 深圳市中兴微电子技术有限公司 | 一种服务质量复用方法及装置 |
| JP6919567B2 (ja) * | 2015-09-29 | 2021-08-18 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
| US9751021B2 (en) * | 2015-10-22 | 2017-09-05 | Universal City Studios Llc | Water ride flotation device dispenser |
| CN105354986B (zh) * | 2015-11-12 | 2017-12-01 | 熊强 | 汽车司机驾驶状态监测系统及方法 |
| US9889860B2 (en) * | 2015-12-15 | 2018-02-13 | Universal City Studios Llc | Multi-passenger ride vehicle |
| KR20170091216A (ko) | 2016-01-29 | 2017-08-09 | 한국전자통신연구원 | 배경 조명과 기준점 조명을 이용한 비착용형 원거리 시선추적 시스템 |
| CN108701345B (zh) * | 2016-02-18 | 2022-07-12 | 三菱电机株式会社 | 搭乘者检测装置、搭乘者检测系统及搭乘者检测方法 |
| DE102016104337A1 (de) | 2016-03-09 | 2017-09-14 | Vr Coaster Gmbh & Co. Kg | Positionsbestimmung und Ausrichtung eines Virtual Reality Headsets und Fahrgeschäft mit einem Virtual Reality Headset |
| JP2017199302A (ja) * | 2016-04-28 | 2017-11-02 | パナソニックIpマネジメント株式会社 | 判定装置、判定方法、判定プログラム及び記録媒体 |
| GB201613138D0 (en) * | 2016-07-29 | 2016-09-14 | Unifai Holdings Ltd | Computer vision systems |
| US10089543B2 (en) * | 2016-07-29 | 2018-10-02 | Honda Motor Co., Ltd. | System and method for detecting distraction and a downward vertical head pose in a vehicle |
| CN106377228B (zh) * | 2016-09-21 | 2019-07-09 | 中国人民解放军国防科学技术大学 | 基于Kinect的无人机操作员状态监视与分层控制方法 |
| JP6621033B2 (ja) * | 2016-11-08 | 2019-12-18 | パナソニックIpマネジメント株式会社 | 年齢確認システム、及びそれを備えた買物支援システム |
| US10449462B2 (en) | 2016-11-21 | 2019-10-22 | Universal City Studios Llc | Amusement park attraction control management system and method |
| CN106529496B (zh) * | 2016-11-24 | 2019-04-12 | 广西大学 | 一种机车乘务员实时视频疲劳检测的方法 |
| GB2557912A (en) * | 2016-12-15 | 2018-07-04 | Figment Productions Ltd | A system for providing a virtual reality experience |
| CN107085703A (zh) * | 2017-03-07 | 2017-08-22 | 中山大学 | 融合脸部检测与跟踪的汽车乘员计数方法 |
| DE112017007011B4 (de) * | 2017-03-10 | 2021-11-04 | Mitsubishi Electric Corporation | Gesichtsrichtungsschätzvorrichtung und Gesichtsrichtungsschätzverfahren |
| JP6982767B2 (ja) * | 2017-03-31 | 2021-12-17 | パナソニックIpマネジメント株式会社 | 検知装置、学習装置、検知方法、学習方法、およびプログラム |
| US10258893B2 (en) * | 2017-04-25 | 2019-04-16 | Universal City Studios Llc | Annular motion simulation amusement park attraction |
| US10922566B2 (en) * | 2017-05-09 | 2021-02-16 | Affectiva, Inc. | Cognitive state evaluation for vehicle navigation |
| JP2019040465A (ja) * | 2017-08-25 | 2019-03-14 | トヨタ自動車株式会社 | 行動認識装置,学習装置,並びに方法およびプログラム |
| US10953850B1 (en) * | 2018-04-05 | 2021-03-23 | Ambarella International Lp | Seatbelt detection using computer vision |
| US20190329790A1 (en) * | 2018-04-25 | 2019-10-31 | Uber Technologies, Inc. | Systems and Methods for Using Machine Learning to Determine Passenger Ride Experience |
| EP3902697A4 (en) * | 2018-12-28 | 2022-03-09 | Guardian Optical Technologies Ltd. | SYSTEMS, DEVICES AND PROCEDURES FOR VEHICLE ASSISTANCE AFTER ACCIDENT |
-
2019
- 2019-02-15 US US16/277,049 patent/US10825196B2/en active Active
-
2020
- 2020-02-13 SG SG11202107888QA patent/SG11202107888QA/en unknown
- 2020-02-13 EP EP26151613.2A patent/EP4699677A2/en active Pending
- 2020-02-13 MY MYPI2021003981A patent/MY208805A/en unknown
- 2020-02-13 WO PCT/US2020/018157 patent/WO2020168107A1/en not_active Ceased
- 2020-02-13 EP EP24172865.8A patent/EP4385597B1/en active Active
- 2020-02-13 ES ES20710712T patent/ES2986706T3/es active Active
- 2020-02-13 CN CN202080014219.0A patent/CN113474062B/zh active Active
- 2020-02-13 CA CA3128238A patent/CA3128238A1/en active Pending
- 2020-02-13 KR KR1020217029585A patent/KR102885719B1/ko active Active
- 2020-02-13 EP EP20710712.9A patent/EP3924076B1/en active Active
- 2020-02-13 CN CN202411377414.6A patent/CN119367779A/zh active Pending
- 2020-02-13 KR KR1020257037496A patent/KR20250163419A/ko active Pending
- 2020-02-13 JP JP2021546747A patent/JP7554756B2/ja active Active
- 2020-10-27 US US17/081,817 patent/US11741628B2/en active Active
-
2023
- 2023-08-28 US US18/457,119 patent/US12254651B2/en active Active
-
2024
- 2024-09-09 JP JP2024154678A patent/JP2025003960A/ja active Pending
-
2025
- 2025-03-17 US US19/081,907 patent/US20250278855A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| US11741628B2 (en) | 2023-08-29 |
| KR20210130180A (ko) | 2021-10-29 |
| US20200265604A1 (en) | 2020-08-20 |
| JP7554756B2 (ja) | 2024-09-20 |
| EP4385597B1 (en) | 2026-01-14 |
| KR102885719B1 (ko) | 2025-11-12 |
| CN119367779A (zh) | 2025-01-28 |
| EP3924076B1 (en) | 2024-05-15 |
| JP2022520075A (ja) | 2022-03-28 |
| MY208805A (en) | 2025-05-29 |
| KR20250163419A (ko) | 2025-11-20 |
| EP4699677A2 (en) | 2026-02-25 |
| WO2020168107A1 (en) | 2020-08-20 |
| EP3924076A1 (en) | 2021-12-22 |
| US20250278855A1 (en) | 2025-09-04 |
| EP4385597A2 (en) | 2024-06-19 |
| SG11202107888QA (en) | 2021-08-30 |
| CN113474062B (zh) | 2024-12-27 |
| US12254651B2 (en) | 2025-03-18 |
| EP4385597A3 (en) | 2024-08-28 |
| US20210042957A1 (en) | 2021-02-11 |
| CN113474062A (zh) | 2021-10-01 |
| CA3128238A1 (en) | 2020-08-20 |
| US10825196B2 (en) | 2020-11-03 |
| JP2025003960A (ja) | 2025-01-14 |
| US20230410358A1 (en) | 2023-12-21 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| ES2986706T3 (es) | Sistema de detección de orientación de objetos | |
| ES2965708T3 (es) | Sistema de seguimiento óptico para la automatización de elementos de parques de atracciones | |
| ES2951475T3 (es) | Sistemas y métodos para características virtuales en capas en un entorno de parque de atracciones | |
| ES2845565T3 (es) | Sistema y método para rastrear una varita pasiva y accionar un efecto con base en una ruta de varita detectada | |
| ES2969509T3 (es) | Interactividad mejorada en un entorno de parque de diversiones utilizando elementos de seguimiento pasivo | |
| ES2983907T3 (es) | Sistema de rastreo y control de vehículos de paseo usando elementos de rastreo pasivo | |
| ES2933948T3 (es) | Sistemas y métodos para la gestión de trayectorias de realidad virtual y realidad aumentada | |
| ES3052852T3 (en) | Reaction controlled systems and methods | |
| HK40121629A (zh) | 乘坐设施的面部取向系统、乘坐系统、方法和可读介质 | |
| HK40061654A (en) | A face orientation system of a ride, a ride system, a method and a readable medium | |
| HK40061654B (zh) | 乘坐设施的面部取向系统、乘坐系统、方法和可读介质 | |
| ES3049084T3 (en) | Systems and methods for providing an image for an attraction system | |
| KR20100026334A (ko) | 모델 주위를 비행하는 비행체의 비행 시스템과 비행 제어방법 및 그 비행시스템의 관제시스템 | |
| CN119343709A (zh) | 顾客测量系统和方法 | |
| HK40025169A (en) | Systems and methods for virtual reality and augmented reality path management |