ES2920148T3 - Sistemas y métodos de cabezas de personajes animadas - Google Patents

Sistemas y métodos de cabezas de personajes animadas Download PDF

Info

Publication number
ES2920148T3
ES2920148T3 ES17822820T ES17822820T ES2920148T3 ES 2920148 T3 ES2920148 T3 ES 2920148T3 ES 17822820 T ES17822820 T ES 17822820T ES 17822820 T ES17822820 T ES 17822820T ES 2920148 T3 ES2920148 T3 ES 2920148T3
Authority
ES
Spain
Prior art keywords
animation
animated character
artist
character head
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17822820T
Other languages
English (en)
Inventor
Anisha Vyas
Caitlin Amanda Correll
Sean David Mccracken
William V Mcgehee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Application granted granted Critical
Publication of ES2920148T3 publication Critical patent/ES2920148T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J7/00Auxiliary apparatus for artistes
    • A63J7/005Disguises for one or more persons for life-like imitations of creatures, e.g. animals, giants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Toys (AREA)

Abstract

Un sistema incluye un cabezal de personaje animado que tiene uno o más procesadores configurados para recibir una entrada, para hacer una selección de animación basada en la entrada y proporcionar un primer control basado en la selección de animación. El cabezal de personaje animado también incluye una pantalla configurada para proporcionar una indicación de la selección de animación para la visualización por parte de un artista que opera el cabezal de personaje animado. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas y métodos de cabezas de personajes animadas
Antecedentes
La presente divulgación hace referencia en general al campo de los parques de atracciones. Más concretamente, las formas de realización de la presente divulgación hacen referencia a sistemas y métodos utilizados para proporcionar experiencias en parques de atracciones.
Los parques de atracciones y otros lugares de entretenimiento contienen, entre otras muchas atracciones, personajes animados que interactúan con los visitantes del parque. Por ejemplo, los personajes animados pueden pasear por el parque de atracciones, ofrecer entretenimiento y hablar o saludar a los visitantes del parque de atracciones, entre otras acciones adecuadas. Algunos personajes animados pueden incluir un artista con un traje con una cabeza animada que cubra la cara del artista. Sin embargo, puede ser difícil para el artista hacer funcionar la cabeza animada para proporcionar una interacción realista con los visitantes que asisten a los parques de atracciones.
El documento US 2010/144239 A1 describe un método para hacer funcionar un dispositivo de salida accionado proporcionado en una cabeza articulada, un accesorio móvil u otro objeto que lleva puesto un artista. El método incluye proporcionar un sistema de control para llevarlo puesto, incluyendo el sistema de control un controlador para el dispositivo de salida, un módulo de control, un receptor inalámbrico y la memoria. El método incluye el almacenamiento de un conjunto de órdenes de control del espectáculo para el dispositivo de salida en la memoria y la recepción de una señal de control del espectáculo con el receptor inalámbrico desde un controlador junto al camino. El método incluye el funcionamiento del módulo de control para procesar la señal de control del espectáculo, para recuperar las órdenes de control del espectáculo y para indicar al controlador que accione el dispositivo de salida en base a las órdenes. Las órdenes se seleccionan en base a un identificador de personaje almacenado en la memoria asociada al dispositivo de salida, como por ejemplo en una caja de conexiones de la cabeza del personaje, y esta memoria almacena datos de ajuste o configuración para el dispositivo de salida.
Compendio
La invención proporciona un sistema de acuerdo con la reivindicación 1 que comprende una cabeza de personaje animada para llevarla puesta un artista que tiene uno o más procesadores configurados para recibir una entrada, para hacer una selección de la animación en base a la entrada, y para proporcionar un primer control en base a la selección de la animación. La cabeza de personaje animada también incluye una pantalla en el interior de la cabeza del personaje configurada para proporcionar una indicación de la selección de la animación para la visualización por parte de un artista que maneja la cabeza de personaje animada.
La invención de acuerdo con la reivindicación 11 proporciona un método de funcionamiento de una cabeza de personaje animada para llevarla puesta un artista que incluye las etapas de proporcionar, utilizando uno o más procesadores, una o más selecciones de animación disponibles en una pantalla dentro de una cabeza de personaje animada; recibir una selección, por medio de uno o más procesadores, de una primera animación de la una o más selecciones de animación disponibles en base a un movimiento de los ojos de un artista que opera la cabeza de personaje animada, un gesto facial del artista que maneja la cabeza de personaje animada, una orden vocal del artista que maneja la cabeza de personaje animada o una combinación de los mismos; y proporcionar, utilizando el uno o más procesadores, una señal de control para ejecutar la primera animación en la cabeza de personaje animada.
Breve descripción de los dibujos
Estas y otras características, aspectos y ventajas de la presente divulgación se entenderán mejor cuando la siguiente descripción detallada se lea con referencia a los dibujos adjuntos en los que caracteres similares representan partes similares en todos los dibujos, en donde:
La FIG. 1 es un diagrama de bloques de una cabeza de personaje animada y de un sistema de control de la estación base, de acuerdo con una forma de realización;
La FIG. 2 es un diagrama de bloques de los componentes internos de la cabeza de personaje animada de la FIG. 1, según se observan desde el punto de vista de un artista, de acuerdo con una forma de realización;
La FIG. 3 es un diagrama de flujo de un método para la producción de una animación de la cabeza de personaje animada de la FIG. 1, de acuerdo con una forma de realización; y
La FIG. 4 es una vista lateral en sección transversal de la cabeza de personaje animada de la FIG. 1, de acuerdo con una forma de realización.
Descripción detallada
La presente divulgación hace referencia a los parques de atracciones. Más concretamente, la presente divulgación hace referencia a sistemas y métodos relacionados con el control de las cabezas y/o las caras de personajes animadas, cada una de los cuales se puede denominar en lo sucesivo en la presente memoria como una "cabeza de personaje animada".
En la presente memoria se proporcionan sistemas de cabezas de personajes animadas que incorporan una o más características para proporcionar gestos más realistas, lo que puede mejorar la experiencia de un visitante de un parque de atracciones. Desde el parpadeo de los ojos hasta los gestos (por ejemplo, los gestos faciales, como por ejemplo los gestos de sonrisa), así como el movimiento de la boca sincronizado con el habla (por ejemplo, el habla pregrabada), la cabeza de personaje animada que se describe en la presente memoria permite a un personaje interactuar con los visitantes y/o reaccionar ante ellos. La cabeza de personaje animada la puede llevar puesta un artista y puede ser capaz de mostrar diversas expresiones realistas compuestas por varias combinaciones de movimientos y/o características, como por ejemplo parpadeos, colocación de las cejas, movimientos de la mandíbula y formas con los labios, por ejemplo. Estos movimientos y/o características se pueden combinar para formar una gran biblioteca de animaciones (por ejemplo, una base de datos o un menú de selección) almacenada y accesible desde un controlador que el artista puede utilizar para interactuar con los visitantes, proporcionando una experiencia interactiva exclusiva.
En ciertas formas de realización, múltiples movimientos y/o características seleccionadas de la biblioteca de animaciones pueden crear un perfil de gestos completo (por ejemplo, un perfil de movimiento y/o de gestos completo, como por ejemplo la cabeza de personaje animada actuando al completo y apareciendo como si estuviera diciendo una frase). En otras formas de realización, los perfiles de gestos completos se pueden almacenar en la biblioteca de animaciones. La selección por parte del artista de estos movimientos, características y/o perfiles de gestos (por ejemplo, la selección de la animación) se puede realizar por medio de seguimiento ocular, visión artificial, órdenes vocales, un sistema de control de la estación base (por ejemplo, un sistema de control remoto), un dispositivo de entrada tradicional (por ejemplo, un interruptor, un botón, sensores de gestos, controles de pie o un dispositivo de entrada para llevar puesto, como por ejemplo una entrada mio, una entrada de anillo o guantes de gestos o cualquier combinación de los mismos.
En algunas formas de realización, se puede utilizar un tipo de entrada (por ejemplo, el seguimiento ocular) para hacer un tipo de selección (por ejemplo, parpadeos o un tipo de selección del habla, como por ejemplo un saludo) y se puede utilizar otro tipo de entrada (por ejemplo, un dispositivo de entrada tradicional) para hacer otro tipo de selección (por ejemplo, formas con los labios u otro tipo de selección del habla, como por ejemplo otras frases). En base a la selección de movimientos, características, y/o perfiles de gestos, la cabeza de personaje animada se "animará" sincronizando la actuación mecánica (por ejemplo, parpadeos, movimiento de la mandíbula, formas con los labios o similares) con el audio y/o la iluminación interna de la cabeza de personaje animada.
Según se describe con más detalle a continuación, algunas formas de realización pueden permitir que el artista que lleva puesta la cabeza de personaje animada la controle sin necesidad de utilizar un controlador de estación base. Además, ciertas formas de realización pueden permitir que el artista conozca el estado del sistema (por ejemplo, la selección de la animación actual, la selección de la próxima animación, el fallo de un componente y/o la animación que se está reproduciendo) de la cabeza de personaje animada, por ejemplo, por medio la visualización del estado del sistema dentro de la cabeza de personaje animada (por ejemplo, en un dispositivo de visualización, como por ejemplo una interfaz de realidad aumentada). Algunas formas de realización pueden incluir un diseño modular que haga que la cabeza de personaje animada sea una unidad independiente (por ejemplo, con un controlador integrado con un procesador y un dispositivo de memoria).
En ciertas formas de realización, la cabeza de personaje animada se puede configurar para almacenar datos relacionados con las animaciones en una biblioteca de animaciones que incluya movimientos, características y/o perfiles de gestos almacenados en un dispositivo de memoria integrado y/o reproducir la animación (por ejemplo, la animación seleccionada) en la estructura física (por ejemplo, la cara) de la cabeza de personaje animada (por ejemplo, por medio de un controlador que proporciona señales de control a diversos actuadores, altavoces, fuentes de luz o similares). El artista puede entonces seleccionar múltiples animaciones para ser ejecutadas en la cara de la cabeza de personaje animada. La lista de animaciones se puede almacenar en una biblioteca de animaciones en un controlador para hacer que la cabeza de personaje animada ejecute las animaciones en una secuencia o de forma colectiva al mismo tiempo (por ejemplo, primero parpadear, luego hacer parpadear una luz, luego decir "hola" y finalmente sonreír).
En otras formas de realización, una animación seleccionada (por ejemplo, cuando se selecciona por parte del artista o por el controlador de la estación base) se puede mostrar dentro de la cabeza de personaje animada para permitir al artista ver y/o confirmar una selección de la próxima animación mostrada como información de retorno (por ejemplo, por medio de una entrada de confirmación para dar instrucciones al controlador para llevar a cabo la selección de la animación). En ciertas formas de realización, se pueden proporcionar cámaras externas (por ejemplo, separadas físicamente de la cabeza de personaje animada) para obtener imágenes (por ejemplo, imágenes fijas o en movimiento, como por ejemplo vídeo) de la animación que se está reproduciendo (por ejemplo, los movimientos o características actuales de la cabeza de personaje animada), que se pueden transmitir a la cabeza de personaje animada (por ejemplo, por medio de dispositivos de comunicación inalámbricos, como por ejemplo transceptores) para su visualización por medio del dispositivo de visualización para proporcionar información de retorno y permitir al artista visualizar la animación que se está reproduciendo. En algunas formas de realización, la animación seleccionada (por ejemplo, un texto, una imagen, un gráfico indicativo de la animación seleccionada por parte del artista o en un controlador de la estación base) se puede mostrar dentro de la cabeza de personaje animada para permitir al artista ver y/o confirmar una selección de la próxima animación (por ejemplo, por medio de una entrada de confirmación para dar instrucciones al controlador para llevar a cabo la selección de animación). En ciertas formas de realización, uno o más componentes de la cabeza de personaje animada (por ejemplo, el dispositivo de entrada, el dispositivo de visualización, el actuador, el sensor, el controlador y/u otros componentes) y/o las acciones del artista para realizar la selección de la animación pueden ser visualmente indetectables para los visitantes.
Teniendo en cuenta lo anterior, la FIG. 1 es un diagrama de bloques de una forma de realización de un sistema que tiene una cabeza de personaje animada 10, que un artista puede llevar puesta. En ciertas formas de realización, el sistema puede incluir un sistema de control de estación base 30 (por ejemplo, un sistema de control remoto). Se debe entender que el sistema ilustrado meramente pretende servir de ejemplo, y que ciertas características y componentes se pueden omitir y se pueden añadir diversas otras características y componentes para facilitar la ejecución, de acuerdo con las formas de realización descritas.
Según se muestra, la cabeza de personaje animada 10 incluye un controlador 20 (por ejemplo, un controlador electrónico) con una memoria 22 y un procesador 24. En ciertas formas de realización, la memoria 22 se configura para almacenar instrucciones, datos y/o información, como por ejemplo una biblioteca de animaciones (por ejemplo, una base de datos o un menú de selección de animaciones disponibles). Según se describe con más detalle a continuación, en ciertas formas de realización, el procesador 24 se configura para recibir entradas (por ejemplo, señales de uno o más sensores 50), para seleccionar una animación de la biblioteca de animaciones (por ejemplo, una animación seleccionada) en base a las entradas recibidas y/o para proporcionar señales de control a una pantalla 14, un altavoz 16, un actuador 18 y/o una fuente de luz 26 en base a las entradas recibidas y/o de acuerdo con la animación seleccionada. De esta manera, la cabeza de personaje animada 10 puede permitir al artista controlar los gestos y acciones de la cabeza de personaje animada 10.
Para facilitar el control de la cabeza de personaje animada 10, la cabeza de personaje animada 10 puede incluir uno o más sensores 50 configurados para supervisar al artista y/o recibir entradas del artista. Por ejemplo, según se describe en detalle a continuación, los sensores 50 pueden incluir sensores de seguimiento ocular que se pueden configurar para supervisar el movimiento de los ojos del artista, sensores de visión artificial que se pueden configurar para controlar el movimiento de la cara del artista, sensores de audio que se pueden configurar para recibir entradas de habla u otras entradas audibles del artista, sensores de entrada física que se pueden configurar para recibir una entrada física o manual del artista o similares y/o cualquier combinación de los mismos. Las entradas se pueden procesar mediante el procesador 24 para seleccionar una animación de la biblioteca de animaciones almacenada en la memoria 22.
Los actuadores 18 pueden ser cualquier tipo de actuadores adecuados, como por ejemplo actuadores electromecánicos (por ejemplo, actuadores lineales, actuadores rotativos, etc.). Los actuadores 18 se pueden situar en el interior de la cabeza de personaje animada 10 y se pueden configurar para ajustar ciertas características o partes de la cabeza de personaje animada 10 (por ejemplo, los ojos, las cejas, las mejillas, la boca, los labios, las orejas, las características de luz o similares). Por ejemplo, un actuador rotativo se puede colocar en el interior de la cabeza de personaje animada 10 a lo largo de los umbrales exteriores de los labios de la cabeza de personaje animada 10 para hacer que la cara de la cabeza de personaje animada 10 sonría en respuesta a una señal de control (por ejemplo, del procesador 24). Como ejemplo adicional, la cabeza de personaje animada 10 puede contener un actuador lineal eléctrico que accione la posición de las cejas (por ejemplo, para fruncir el ceño) de la cabeza de personaje animada 10 en respuesta a una señal de control (por ejemplo, desde el procesador 24). Según se muestra, la cabeza de personaje animada 10 puede incluir que la fuente de luz 26, y la duración, el brillo, el color y/o la polaridad de la luz emitida por la fuente de luz 26 se puedan controlar en base a una señal de control (por ejemplo, desde el procesador 24). En algunas formas de realización, la fuente de luz 26 se puede configurar para proyectar luz sobre una pantalla u otra superficie de la cabeza de personaje animada 10, de forma que se muestre una imagen fija, una imagen en movimiento (por ejemplo, un vídeo) u otra representación visible de características faciales o gestos en la cabeza de personaje animada 10. En algunas formas de realización, los actuadores 18 y/o la fuente de luz 26 pueden permitir que la cabeza de personaje animada 10 proporcione cualquiera de una variedad de características o gestos faciales proyectados, características o gestos faciales animatrónicos, o combinaciones de los mismos.
En algunas formas de realización, el sistema se puede configurar para mostrar una indicación de las animaciones disponibles (por ejemplo, una lista de animaciones almacenadas en la biblioteca de la memoria 22), así como una indicación de los movimientos, características y/o animaciones seleccionadas en la pantalla 14 (por ejemplo, una pantalla de texto, imágenes, gráficos o similares) para su visualización por parte del artista que lleva puesta la cabeza de personaje animada 10. Al mostrar la selección de la animación en el interior de la cabeza de personaje animada 10, el artista puede tener una indicación visual, una señal de retorno y/o una confirmación de las selecciones, mejorando de este modo la calidad del espectáculo al permitir al artista estar más preparado, por ejemplo. Por ejemplo, durante la actuación, la pantalla 14 puede proporcionar una lista de animaciones disponibles y el uno o más sensores 50 pueden obtener una entrada del artista (por ejemplo, un sensor de seguimiento ocular puede permitir que el artista suministre a la entrada ciertos movimientos de los ojos) para permitir que el artista se desplace a través de la lista de animaciones disponibles y/o seleccione una animación de la lista de animaciones disponibles. En algunas formas de realización, se puede proporcionar en la pantalla 14 una lista preestablecida de múltiples animaciones a realizar a lo largo del tiempo o una serie de múltiples animaciones seleccionadas por parte del artista a realizar a lo largo del tiempo. En algunas formas de realización, las múltiples animaciones proporcionadas en la pantalla 14 se pueden cambiar, modificar, conmutar, retrasar o eliminar por parte del artista por medio de diversas entradas de uno o más sensores 50, permitiendo de este modo actualizaciones eficientes por parte del artista durante las interacciones con los visitantes. En algunas formas de realización, el procesador 24 se puede configurar para dar instrucciones a la pantalla 14 para que proporcione una lista de animaciones realizadas previamente para facilitar la visualización y la selección de futuras animaciones por parte del artista.
La pantalla 14 se puede utilizar para proporcionar otras informaciones diversas. Por ejemplo, en algunas formas de realización, se puede proporcionar una cámara externa 46 (por ejemplo, separada físicamente de la cabeza de personaje animada 10) para obtener imágenes (por ejemplo, imágenes fijas o en movimiento, como por ejemplo vídeo) de la animación que se está reproduciendo (por ejemplo, los movimientos o características actuales de la cabeza de personaje animada 10), que se pueden transmitir a la cabeza de personaje animada 10 (por ejemplo, por medio de dispositivos de comunicación inalámbricos, como por ejemplo transceptores) para su visualización por medio de la pantalla 14 para proporcionar información de retorno y permitir al artista visualizar la animación que se está reproduciendo y/o el entorno circundante.
En ciertas formas de realización, la cabeza de personaje animada 10 puede incluir uno o más sensores de estado 74 configurados para supervisar el estado de un componente y/o el estado del sistema (por ejemplo, para determinar si una animación realizada no se corresponde con la animación seleccionada), y se puede proporcionar una indicación del estado por medio de la pantalla 14. Por ejemplo, se puede asociar un sensor de estado 74 con cada actuador 18 y se puede configurar para detectar una posición y/o movimiento del actuador 18, que puede ser indicativo de si el actuador 18 está funcionando correctamente (por ejemplo, moviéndose de una manera esperada en base a la animación seleccionada). En ciertas formas de realización, el sistema se puede configurar para proporcionar al artista una indicación de fallo de componente, una selección de la animación actual, una selección de la próxima animación, una animación que se está reproduciendo actualmente o similares por medio de la pantalla 14.
El procesador 24 puede ejecutar instrucciones almacenadas en la memoria 22 para realizar operaciones, como por ejemplo determinar el perfil de gestos completo (por ejemplo, las animaciones) que se ejecutarán en la cara de la cabeza de personaje animada 10. De este modo, en algunas formas de realización, el controlador 20 puede incluir uno o más microprocesadores de propósito general, uno o más procesadores de aplicación específica (ASIC), una o más matrices lógicas programables en campo (FPGA) o cualquier combinación de los mismos. Además, la memoria 22 puede ser un medio tangible, no transitorio y legible por ordenador que almacene instrucciones ejecutables por el procesador 24 y datos para ser procesados por éste. Por lo tanto, en algunas formas de realización, la memoria 22 puede incluir memoria de acceso aleatorio (RAM), memoria de sólo lectura (ROM), memoria no volátil reescribible, memoria flash, discos duros, discos ópticos y similares.
En ciertas formas de realización, un operador puede utilizar el dispositivo de entrada 38 (por ejemplo, un sistema de entrada tangible, como por ejemplo un dispositivo informático, un ordenador, una tableta, un teléfono inteligente o similar) para proporcionar una entrada y/o seleccionar animaciones. El operador es una persona distinta del artista que lleva puesta la cabeza de personaje animada 10, y el operador puede caminar y/o estar cerca del artista mientras éste lleva puesta la cabeza de personaje animada 10. En estos casos, las selecciones del operador se pueden transmitir de forma inalámbrica o a través de una conexión por cable a la cabeza de personaje animada 10 por medio del dispositivo de comunicación 32. En algunas formas de realización, el artista puede ser notificado de la selección del operador (por ejemplo, por medio del dispositivo de visualización 14). En algunas formas de realización, la cabeza de personaje animada 10 puede permitir al artista vetar, retrasar y/o modificar la selección (por ejemplo, por medio de las entradas de uno o más sensores 50). En algunas formas de realización, el artista puede aceptar o aprobar la selección de la animación del operador (por ejemplo, pulsar "marcha", confirmar por medio de entradas a los uno o más sensores 50) para reproducir la animación. En algunas formas de realización, las selecciones pueden ser proporcionadas, aceptadas, vetadas, retrasadas y/o modificadas por el sensor de seguimiento ocular, el sensor de órdenes vocales, el sensor de visión artificial y/o el sensor de entrada física (por ejemplo, a un dispositivo de entrada tradicional) o cualquiera de una variedad de otros sensores 50 o entradas, según se describe en detalle a continuación. Por ejemplo, la selección de la animación realizada en base a la entrada del operador en la estación base 30 se puede mostrar en la pantalla 14 para su visualización por parte del artista, y el artista puede entonces vetar o aceptar (por ejemplo, iniciar) la selección de la animación realizando ciertos movimientos oculares o ciertos movimientos faciales. En algunas formas de realización, el operador es notificado (por ejemplo, por medio del dispositivo de visualización 34) de la acción del artista (por ejemplo, la aceptación, el veto, el retraso o la modificación) y/o el operador recibe información sobre el estado del sistema (por ejemplo, una indicación de fallo de un componente, la selección de la animación actual, la selección de la próxima animación o similares) desde la cabeza de personaje animada 10 por medio del dispositivo de comunicación 12 (por ejemplo, el transceptor).
En ciertas formas de realización, el sistema de control de la estación base 30 se puede utilizar para controlar los diversos componentes de la cabeza de personaje animada 10 y se debe entender que cualquiera de las características, funciones y/o técnicas descritas en la presente memoria se pueden distribuir entre la cabeza de personaje animada 10 y el sistema de control de la estación base 30 de cualquier manera adecuada. En la forma de realización representada, el controlador 40 del sistema de control de la estación base 30 contiene el procesador 44 que puede ejecutar instrucciones almacenadas en la memoria 42 para realizar operaciones, como por ejemplo la selección de una animación (por ejemplo, parpadear, sonreír, hablar, etc.) para ejecutar en la cara de la cabeza de personaje animada 10. De este modo, en algunas formas de realización, el controlador 40 puede incluir uno o más microprocesadores de propósito general, uno o más procesadores de aplicación específica (ASIC), una o más matrices lógicas programables en campo (FPGA) o cualquier combinación de los mismos. Además, la memoria 42 puede ser un medio tangible, no transitorio, legible por ordenador, que almacene instrucciones ejecutables por el procesador 44 y datos para ser procesados por éste. Por lo tanto, en algunas formas de realización, la memoria 42 puede incluir memoria de acceso aleatorio (RAM), memoria de sólo lectura (ROM), memoria no volátil reescribible, memoria flash, discos duros, discos ópticos y similares.
Además, el dispositivo de comunicación 32 puede permitir que el controlador 40 se conecte con otros dispositivos electrónicos diversos, como por ejemplo los componentes ilustrados en la cabeza de personaje animada 10. Por ejemplo, el dispositivo de comunicación 32 puede permitir que el controlador 40 se acople con capacidad de comunicación a una red, como por ejemplo una red de área personal (PAN), una red de área local (LAN) y/o una red de área amplia (WAN). Por consiguiente, en algunas formas de realización, el controlador 40 puede procesar los datos del dispositivo de entrada 38 y comunicarlos a la cabeza de personaje animada 10 por medio del dispositivo de comunicación 32. Por ejemplo, el operador puede pulsar un conjunto de botones (por ejemplo, botones virtuales) en el dispositivo de entrada 38, que transmiten de forma inalámbrica los datos por medio del dispositivo de comunicación 32 a la cabeza de personaje animada 10 para permitir que la cara de la cabeza de personaje animada 10 emita una secuencia de animaciones (de tal manera que la cabeza de personaje animada 10 pueda parpadear, sonreír, etc.). En otras configuraciones, el dispositivo de comunicación 32 se puede conectar de forma inalámbrica o por cable a la cabeza de personaje animada 10.
Además, el dispositivo de entrada 38 del sistema de control de la estación base 30 puede permitir al operador interactuar con el controlador 40, por ejemplo, para introducir instrucciones (por ejemplo, órdenes de control) para ejecutar animaciones en la cara de la cabeza de personaje animada 10. Por lo tanto, en algunas formas de realización, el dispositivo de entrada 38 puede incluir botones, teclados, ratones, almohadillas de desplazamiento y similares. De forma adicional o como alternativa, la pantalla 34 puede incluir componentes táctiles que permitan entradas de usuario al controlador 40 por parte del operador, por lo que las animaciones se pueden seleccionar mediante la detección de la ocurrencia y/o la posición de un objeto que toque la pantalla de visualización de la pantalla 34 (por ejemplo, la superficie de la pantalla 34). Además de permitir las entradas del usuario, la pantalla 34 puede presentar representaciones visuales de información, como por ejemplo la secuencia completa de las animaciones ejecutadas por la cabeza de personaje animada 10, la biblioteca de animaciones, el estado del sistema de la cabeza de personaje animada 10 (por ejemplo, si algún componente de la cabeza de personaje animada 10 está funcionando mal), y/o una imagen externa en directo de la cabeza de personaje animada 10.
Además, el dispositivo de comunicación 12 puede permitir que el controlador 20 se conecte con otros dispositivos electrónicos diversos, como por ejemplo los componentes del sistema de control de la estación base 30. Por ejemplo, el dispositivo de comunicación 12 puede permitir que el controlador 20 se acople con capacidad de comunicación a una red, como por ejemplo una red de área personal (PAN), una red de área local (LAN) y/o una red de área amplia (WAN). En otras formas de realización, el controlador 20 se puede acoplar con capacidad de comunicación por medio de una conexión por cable (por ejemplo, una línea terrestre) a los diversos componentes de la cabeza de personaje animada 10 y/o al sistema de control de la estación base 30. Por consiguiente, en algunas formas de realización, el controlador 20 puede procesar los datos recibidos mediante el dispositivo de comunicación 12 desde el dispositivo de entrada 38 del sistema de control de la estación base 30 transmitidos a la cabeza de personaje animada 10 por medio del dispositivo de comunicación 32. Por ejemplo, el operador del sistema de control de la estación base 30 puede pulsar un conjunto de botones en un dispositivo de entrada 38 que transmite datos de forma inalámbrica por medio del dispositivo de comunicación 32 al dispositivo de comunicación 12 de la cabeza de personaje animada 10 para permitir que la cara de la cabeza de personaje animada 10 emita una prueba de movimiento completa, de tal manera que la cabeza de personaje animada 10 pueda ejecutar múltiples animaciones (por ejemplo, tales como parpadear, sonreír, etc.).
En ciertas formas de realización, los componentes mencionados anteriormente del sistema de control de la estación base 30 pueden complementar los componentes de la cabeza de personaje animada 10. De este modo, el operador del sistema de control de la estación base 30 se puede comunicar con el artista (por ejemplo, la persona que lleva puesta la cabeza de personaje animada 10) para determinar el mejor perfil de gestos completo a ejecutar en la cara de la cabeza de personaje animada 10. En otras formas de realización, las entradas del artista en el interior de la cabeza de personaje animada 10 pueden anular las entradas del operador del sistema de control de la estación base 30. En algunas formas de realización, las entradas del operador del sistema de control de la estación base 30 pueden anular las entradas del artista en la cabeza de personaje animada 10.
La FIG. 2 es un diagrama de bloques de los componentes internos de una forma de realización de la cabeza de personaje animada 10, según se observa desde el punto de vista de un artista, cuando el artista lleva puesta la cabeza de personaje animada 10. El interior de la cabeza de personaje animada 10 puede contener la pantalla 14 (por ejemplo, una pantalla que puede formar parte de unas gafas de realidad aumentada) que se configura para mostrar información para su visualización por parte del artista. Por ejemplo, la pantalla 14 puede proporcionar una indicación de una biblioteca de animaciones 60, donde la biblioteca de animaciones 60 puede incluir, por ejemplo, una lista de animaciones disponibles, como por ejemplo una primera opción de animación 61 (por ejemplo, sonrisa), una segunda opción de animación 62 (por ejemplo, saludo), una tercera opción de animación 63 (por ejemplo, risa), una cuarta opción de animación 64 (por ejemplo, adiós), etc. En ciertas formas de realización, las opciones de animación se pueden almacenar en la memoria 22. La cabeza de personaje animada 10 también puede incluir uno o más sensores 50, como por ejemplo un sensor de seguimiento ocular 52, un sensor de visión artificial 54, un sensor de audio 56, un sensor de entrada física 58 o cualquier combinación de los mismos. El uno o más sensores 50 pueden facilitar la selección de las animaciones, por ejemplo, permitiendo al artista desplazarse y/o seleccionar una animación de la lista de animaciones disponibles 60.
Además, la visualización de la información de retorno 80 puede permitir al artista saber qué animación de la biblioteca de animaciones se está ejecutando actualmente (por ejemplo, una animación actual) y/o qué animación de la biblioteca de animaciones se ejecutará en el futuro (por ejemplo, una próxima animación). En algunas formas de realización, una imagen externa 68 de la cabeza de personaje animada 10 (por ejemplo, obtenida por la cámara externa 46 mostrada en la FIG. 1) se puede mostrar para dar al artista una representación visual de las animaciones que están siendo ejecutadas en la cara de la cabeza de personaje animada 10 y/o una representación visual de las acciones (por ejemplo, expresiones) de los visitantes del parque de atracciones que interactúan con la cabeza de personaje animada 10. Además, la visualización del estado del sistema 70 puede indicar el estado actual (por ejemplo, bueno o malo) de los componentes de la cabeza de personaje animada 10 (por ejemplo, en base a las señales generadas por el sensor de estado 74 mostrado en la FIG. 1).
En ciertas formas de realización, el uno o más sensores 50 pueden incluir un sensor que supervise la actividad ocular. De este modo, el uno o más sensores 50 pueden incluir un sensor de seguimiento ocular 52 que se puede utilizar para supervisar y/o recibir entradas de la actividad ocular de un artista para hacer selecciones de animación de la lista de animaciones disponibles 60. Por ejemplo, la cabeza de personaje animada 10 puede incluir uno o más sensores de seguimiento ocular 52 configurados para rastrear visualmente el movimiento de los ojos del artista, concretamente, mediante el seguimiento del movimiento de las pupilas del artista. El sensor de seguimiento ocular 52 puede enviar una señal al controlador 20 indicativa del movimiento de los ojos del artista para generar una primera señal que es utilizada por el controlador 20 para desplazarse y/o seleccionar una animación de la lista de animaciones disponibles 60, que puede incluir cualquiera de las animaciones almacenadas en la biblioteca de animaciones (por ejemplo, en la memoria 22). Por ejemplo, cuando un artista enfoca su ojo en la segunda opción de animación 62, el sensor de seguimiento ocular 52 puede identificar esta actividad ocular (por ejemplo, enfocar la segunda opción de animación 62) y enviar al controlador 20 una señal indicativa de esta actividad ocular (por ejemplo, una señal eléctrica) que es procesada por el controlador 20 para elegir esta selección de animación de la lista de animaciones disponibles 60. En ciertas formas de realización, el controlador 20 se puede configurar para recibir señales de entrada del sensor de seguimiento ocular 52 y realizar una selección de animación que haga que los ojos de la cabeza de personaje animada 10 imiten el movimiento de los ojos del artista. Por ejemplo, si el artista parpadea, el controlador 20 puede identificar la señal del sensor de seguimiento ocular 52 y elegir una selección de animación que haga (por ejemplo, por medio de señales de control a los actuadores 18 apropiados) que los ojos de la cabeza de personaje animada 10 parpadeen, y si el artista mira en una dirección (por ejemplo, hacia arriba, hacia abajo, hacia la izquierda o hacia la derecha), el controlador 20 puede hacer una selección de animación que haga que los ojos de la cabeza de personaje animada 10 miren en la misma dirección.
De forma adicional o como alternativa, en ciertas formas de realización, el uno o más sensores 50 pueden incluir sensores de visión artificial 54, como por ejemplo sensores de toma de imágenes y/o cámaras, configurados para rastrear visualmente los gestos o movimientos de la cara del artista (por ejemplo, gestos faciales). Dichos gestos faciales se pueden codificar y almacenar en la memoria del controlador. El sensor de visión artificial 54 puede enviar una señal al controlador 20 indicativa de la cara del artista para generar una primera señal que es utilizada por el controlador 20 para elegir la selección de animación de la biblioteca de animaciones, que se puede almacenar en la memoria 22. Por ejemplo, cuando un artista hace una "forma de o" con su boca, el sensor de visión artificial 54 puede identificar este gesto facial y enviar al controlador 20 una señal indicativa de este gesto facial (por ejemplo, una señal eléctrica) que es procesada por el controlador 20 para elegir la selección de animación de la biblioteca de animaciones. Por ejemplo, al hacer una "forma de o" con su boca, un artista puede enviar al controlador 20 una señal indicativa de la "forma de o" de la boca del artista que haga que la cabeza de personaje animada 10 realice tanto la primera opción de animación 61 como la segunda opción de animación 62 (por ejemplo, haciendo de este modo que la cabeza de personaje animada 10 sonría y diga "hola").
De forma adicional o como alternativa, en ciertas formas de realización, el controlador 20 se puede configurar para recibir señales de entrada de los sensores de visión artificial 54 que hacen que ciertas características faciales de la cabeza de personaje animada 10 imiten las características faciales del artista. Por ejemplo, si el artista sonríe, los uno o más sensores de visión artificial 54 pueden generar señales indicativas de la sonrisa del artista, y las señales se pueden procesar por el controlador 20 para realizar las selecciones de animación apropiadas, que hagan que (por ejemplo, por medio de señales de control a los actuadores 18 apropiados) la cabeza de personaje animada 10 sonría. En algunas formas de realización, los uno o más sensores de visión artificial 54 se pueden configurar para obtener imágenes (por ejemplo, imágenes fijas o en movimiento, como por ejemplo vídeo) de la cara del artista, que se pueden mostrar como información de retorno 80, lo que puede facilitar el entrenamiento del artista para permitirle aprender de forma eficaz cómo provocar la selección de animación deseada. En algunas formas de realización, dentro de la cabeza de personaje animada 10, la visualización de la imagen de la cara del artista se puede proporcionar de forma simultánea como información de retorno 80 con la visualización de la imagen de la animación que se está ejecutando actualmente para facilitar el entrenamiento del artista.
De forma adicional o como alternativa, en ciertas formas de realización, la orden vocal se puede utilizar para hacer selecciones de animación y el uno o más sensores 50 pueden incluir un sensor de audio 56 o cualquier sensor que identifique el sonido (por ejemplo, sensores de identificación de sonido o sensor de reconocimiento de voz). El sensor de audio 56 se puede configurar para detectar la voz o el habla del artista. La voz o el habla del artista (por ejemplo, ciertas señales vocales) pueden enviar señales al controlador 20 por medio del sensor de audio 56 que pueden ser procesadas y utilizadas por el controlador 20 para hacer las selecciones de animación (por ejemplo, mostrada como la animación actual una vez que se está realizando) de la biblioteca de animaciones en base, al menos en parte, a esas señales. En ciertas formas de realización, el sensor de audio 56 y/o el controlador 20 se pueden configurar para identificar diversos fonemas específicos en el discurso del artista. En ciertas formas de realización, el controlador 20 puede hacer una selección de animación que haga (por ejemplo, por medio de señales de control a los actuadores 18 apropiados) que la boca de la cabeza de personaje animada 10 imite o coincida con el discurso del artista. Los sonidos emitidos por la cabeza de personaje animada 10 pueden ser producidos por el altavoz 16 (mostrado en la FIG. 1) de la cabeza de personaje animada 10. En ciertas formas de realización, el controlador 20 se puede configurar para realizar una selección de animación que haga que la boca de la cabeza de personaje animada 10 se corresponda con la cadencia y/o los fonemas del discurso del artista, y/o que haga que la boca de la cabeza de personaje animada 10 se sincronice con los labios (por ejemplo, que mueva la boca en sincronización con el discurso del artista). Dicha sincronización de los labios se puede lograr con el sensor de audio 56, el sensor de seguimiento de gestos 54 o cualquier combinación de los mismos.
De forma adicional o como alternativa, en ciertas formas de realización, el o los sensores 50 pueden incluir un sensor de entrada física 58 operado por el cuerpo del artista. El sensor de entrada física 58 puede ser un interruptor, un botón, sensores de movimiento, controles de pie o cualquier dispositivo de entrada para llevar puesto adecuado, como por ejemplo una entrada mio, una entrada de anillo o guantes de gestos. Las entradas físicas pueden ser utilizadas por el controlador 20 para hacer selecciones de animación de la biblioteca de animaciones. Más concretamente, las entradas físicas del artista a los sensores de entrada física 58 pueden enviar señales al controlador 20 que pueden ser procesadas y utilizadas por el controlador 20 para ejecutar selecciones de animación (por ejemplo, mostrada como la animación actual una vez que se está realizando) de la biblioteca de animaciones.
Los sensores 50 mencionados anteriormente (por ejemplo, el sensor de seguimiento ocular 52, el sensor de seguimiento de gestos 54, el sensor de audio 56 y el sensor de entrada física 58) se pueden utilizar en cualquier combinación por el artista de la cabeza de personaje animada 10. Por ejemplo, la cabeza de personaje animada 10 puede tener sólo un sensor de seguimiento ocular 52 y un sensor de entrada física 58. En tal caso, la selección de la animación de la biblioteca de animaciones se basará en las entradas en estos sensores 50 (por ejemplo, en función de la actividad de la pupila y de un botón en la palma de la mano del artista). Para profundizar en este ejemplo, el artista puede enfocar su visión en la tercera opción de animación 63. Una vez que la tercera opción de animación 63 es resaltada en respuesta al sensor de seguimiento ocular 52 que detecta el enfoque del artista en la tercera opción de animación 63, el artista puede entonces presionar el botón (por ejemplo, con un dedo) para enviar una señal al controlador 20 que hace que la cabeza de personaje animada 10 ejecute la tercera opción de animación 63.
Algunos sistemas existentes pueden utilizar interruptores activados utilizando las manos y los dedos de los artistas para facilitar la actuación con personajes animados; sin embargo, dichos gestos pueden ser muy visibles para el público. Las formas de realización descritas pueden utilizar gestos no obvios, invisibles y/o no vistos del artista, como por ejemplo los gestos de la cara y/o los ojos del artista, para navegar y/o seleccionar de la biblioteca (por ejemplo, la base de datos o el menú de selección), eliminando y/o reduciendo de este modo el uso de otros gestos o gestos extraños que pueden desviar la atención de la actuación, por ejemplo.
En ciertas formas de realización, la cabeza de personaje animada puede incluir un diseño de tres partes. Por ejemplo, la cabeza de personaje animada puede contener una parte de cara frontal, una parte de cabeza trasera y una disposición de gafas 82 (por ejemplo, gafas de realidad aumentada), donde cada una de las tres partes se acopla a la otra. La disposición de gafas puede contener la pantalla 14 configurada para mostrar la biblioteca de animaciones 60, la imagen externa 68, el estado del sistema 70 y/o la información de retorno 80, como por ejemplo la animación actual. Además, los sensores 50, como por ejemplo los sensores de seguimiento ocular 52, los sensores de seguimiento de gestos 54 y/o los sensores de audio 56, se pueden colocar en o sobre la disposición de gafas 82. Como otro ejemplo, la cabeza de personaje animada puede contener una disposición de tres capas, donde la capa interna puede ser un molde de cara que se ajusta a la cara de un artista con orificios para los ojos, la capa intermedia puede contener la pantalla 14 de los diversos componentes ilustrados en la FIG. 2, y la capa más externa puede contener la cara del personaje animada configurada para recibir entradas de los sensores 50 y producir un perfil de gestos por medio de los actuadores 18, según se describió en detalle anteriormente.
Las formas de realización descritas y los sensores 50 mencionados anteriormente se pueden complementar para incluir tecnología integrada de realidad aumentada y/o de visión artificial (por ejemplo, integrada en la cabeza de personaje animada 10). El grupo de sensores 50, los sensores de estado 74, las cámaras 68 y los componentes de procesamiento (por ejemplo, los procesadores 24, 44) configurados para supervisar los diversos componentes (por ejemplo, los componentes mecánicos, como por ejemplo los actuadores 18 y/o las fuentes de luz 26) de la cabeza de personaje animada 10 se conectan al controlador integrado 20, de tal manera que los fallos de los componentes se pueden detectar y mostrar como estado del sistema 70, así como informar de forma audible y/o visual al artista y/o al operador del sistema de control de la estación base 30. Por lo tanto, el sistema puede ser capaz de detectar los fallos de los componentes y/o responder de manera que no perjudique al artista o tenga un impacto negativo en la actuación. Por ejemplo, si un actuador 18 en particular no funciona correctamente, las selecciones de animación que dependen del actuador 18 en particular se pueden eliminar de la lista de animaciones disponibles 60 y/o se pueden hacer inaccesibles de otra manera, por ejemplo. En algunas formas de realización, esta información de retorno (por ejemplo, el estado de los componentes, como por ejemplo los fallos de los componentes) puede ser transmitida al artista por medio de la pantalla 14, así como de forma inalámbrica a los técnicos de mantenimiento.
Según se mencionó anteriormente, la cabeza de personaje animada 10 incluye la pantalla 14, como por ejemplo una interfaz de realidad aumentada (por ejemplo, unas gafas), una pantalla montada en la cabeza, un sistema de proyección óptico o algo similar para permitir la visualización de información diversa por parte del artista. En otras formas de realización, la cabeza de personaje animada 10 se puede configurar para supervisar el estado del sistema 70 (por ejemplo, detectar fallos de los componentes utilizando uno o más sensores de estado 74, como por ejemplo si una animación realizada no se corresponde con la animación seleccionada) y/o para mostrar el estado del sistema (por ejemplo, una indicación de fallo de los componentes, la selección de la animación actual, la selección de la próxima animación, la animación que se está reproduciendo actualmente o similares) al artista, como por ejemplo en la pantalla 14 o en la interfaz de realidad aumentada. Además, el estado del sistema 70 puede contener una indicación de si la funcionalidad general de la cabeza de personaje animada 10 está bien o no. Por ejemplo, si un componente de la cabeza de personaje animada 10 (por ejemplo, un actuador 18) falla, el estado del sistema 70 puede mostrar "malo" como indicación. Se debe entender que un operador puede utilizar la estación de base 30 para proporcionar entradas y/o interactuar con la cabeza de personaje animada 10, de la manera que se ha descrito anteriormente con respecto a la FIG. 1.
La FIG. 3 es un diagrama de flujo de un método 90 para la salida de una animación por medio de la cabeza de personaje animada 10. El método 90 incluye diversas etapas representadas por bloques. Se debe tener en cuenta que el método 90 se puede realizar como un procedimiento automatizado por un sistema, como por ejemplo el sistema que tiene la cabeza de personaje animada 10 y/o el sistema de control de la estación base 30. Aunque el diagrama de flujo ilustra las etapas en una determinada secuencia, se debe entender que las etapas se pueden realizar en cualquier orden adecuado y ciertas etapas se pueden llevar a cabo de forma simultánea, cuando sea apropiado. Además, se pueden omitir algunas etapas o partes del método 90 y añadirse otras. El método 90 se puede llevar a cabo en respuesta a la entrada del artista (por ejemplo, por medio de uno o más sensores 50), en respuesta a la entrada del operador (por ejemplo, por medio del dispositivo de entrada 38), o similares.
Según se ilustra, el método 90 incluye la provisión de una o más opciones de animación disponibles en la pantalla 14 dentro de la cabeza de personaje animada 10 (bloque 92), la recepción de una entrada (bloque 94), la selección de una animación de la biblioteca de animaciones (bloque 96) y la provisión de una salida (bloque 98).
Con más detalle, el método 90 proporciona una o más opciones de animación disponibles en la pantalla 14 dentro de la cabeza de personaje animada 10 (bloque 92). Como se ha descrito en detalle anteriormente, en la pantalla en el interior de la cabeza de personaje animada 10, puede haber la lista de opciones de animación disponibles 60 (por ejemplo, sonreír, fruncir el ceño, reír, hablar, etc.) de la biblioteca de animaciones (por ejemplo, almacenada en la memoria 22) que puede ser ejecutada por la cabeza de personaje animada 10. La visualización de las opciones de animación disponibles se puede organizar como una lista que muestre todas las opciones de animación disponibles (por ejemplo, una primera animación, como por ejemplo una sonrisa, una segunda animación, como por ejemplo un saludo, una tercera animación, como por ejemplo una risa, etc.), un menú con categorías (por ejemplo, una primera categoría como por ejemplo los gestos de la boca, una segunda categoría como por ejemplo los gestos de los ojos, una tercera categoría como por ejemplo los sonidos, etc.), una red web que muestre las opciones de animación, o cualquier otra manera adecuada de mostrar las opciones de animación y/o facilitar la revisión y/o selección de las opciones de animación. La eficiencia y la velocidad con la que un artista selecciona las animaciones para ejecutarlas en la cara de la cabeza de personaje animada 10 puede mejorar la eficacia general de la cabeza de personaje animada 10.
El método 90 recibe una entrada (bloque 94) para seleccionar una animación de la biblioteca de animaciones. La entrada puede ser la actividad de los ojos (por ejemplo, el movimiento de la pupila) del artista en el interior de la cabeza de personaje animada, los gestos faciales del artista (por ejemplo, una mueca en "forma de o"), el sonido (por ejemplo, órdenes verbales, etc.) del artista, entradas físicas (por ejemplo, pulsar botones ocultos en las manos del artista), entradas de un operador del sistema de control de la estación base 30 y/o cualesquiera entradas adecuadas. Según se ha descrito anteriormente, cualquier sensor 50 de la cabeza de personaje animada 10 o cualquier dispositivo de entrada 38 del sistema de control de la estación base 30 se puede utilizar para proporcionar la entrada. Por ejemplo, se puede utilizar un sensor de seguimiento ocular para detectar y/o supervisar la actividad ocular, un sensor de seguimiento de gestos para detectar y/o supervisar los gestos faciales, un sensor de audio para detectar y/o supervisar el sonido, un sensor de mano para detectar y/o supervisar una entrada física y/o un dispositivo de pantalla táctil inalámbrica para recibir entradas del operador. Los sensores 50 y/o los dispositivos de entrada 38 pueden generar señales que se proporcionan a un procesador (por ejemplo, el procesador 24, 44) para facilitar la selección de una animación de la biblioteca de animaciones (por ejemplo, almacenada en una memoria, como por ejemplo la memoria 22, 42).
En ciertas formas de realización, cualquiera de los sensores mencionados anteriormente se puede utilizar junto con otros para complementarse. Por ejemplo, el sensor de seguimiento ocular 52 se puede utilizar para identificar la actividad de la pupila para desplazarse por la lista de animaciones disponibles 60 de la biblioteca de animaciones y el sensor de audio 56 puede hacer una elección sobre qué animación ejecutar cuando un artista pronuncia la palabra "seleccionar". En otras formas de realización, se puede implementar un esquema de prioridad de los sensores de modo que una entrada a un sensor 50 pueda anular la entrada a otro sensor 50. Por ejemplo, una entrada al sensor de seguimiento ocular 52 por parte del artista puede anular una entrada de un operador que controle el sistema de control de la estación base 30.
La entrada (por ejemplo, las señales de los sensores 50 y/o el dispositivo de entrada 38) se procesa en un controlador (por ejemplo, el controlador 20, 40) para seleccionar una animación de la biblioteca de animaciones (bloque 96).
Una vez seleccionada, la animación es ejecutada como una salida (bloque 98) por la cabeza de personaje animada 10. La salida proporcionada (bloque 98) puede ser en forma de animaciones ejecutadas en la estructura física (por ejemplo, la cara) de la cabeza de personaje animada 10. Por ejemplo, la salida proporcionada por la cabeza de personaje animada 10 puede ser un ceño fruncido, una sonrisa, un asentimiento, un parpadeo, sonidos, una emisión de luces y similares, y puede ser efectuada proporcionando una señal de control a los actuadores 18 y/o a la fuente de luz 26 (por ejemplo, para causar una proyección de luz o una animación en base a gráficos) de acuerdo con la animación seleccionada, por ejemplo. En algunas formas de realización, la fuente de luz 26 se puede configurar para proyectar luz sobre una pantalla u otra superficie de la cabeza de personaje animada 10, de forma que se muestre una imagen fija, una imagen en movimiento (por ejemplo, un vídeo), u otra representación visible de características faciales o gestos en la cabeza de personaje animada 10. En algunas formas de realización, los actuadores 18 y/o la fuente de luz 26 pueden permitir que la cabeza de personaje animada 10 proporcione cualquiera de una variedad de características o gestos faciales proyectados, características o gestos faciales animatrónicos, o combinaciones de los mismos. Se debe entender que un operador puede utilizar la estación de base 30 para proporcionar entradas y/o interactuar con la cabeza de personaje animada 10, de la manera que se ha descrito anteriormente con respecto a la FIG. 1.
La FIG. 4 es una vista lateral en sección transversal de una forma de realización de la cabeza de personaje animada 10. Según se muestra, la cabeza de personaje animada 10 incluye una abertura 100 configurada para recibir y/o rodear la cabeza de un artista, y una superficie exterior 102 (por ejemplo, la cara) que es visible para un visitante. La superficie exterior 102 puede soportar diversas características, como por ejemplo una ceja 104 y un bigote 108, que pueden ser accionados a través de los respectivos actuadores 18 en base a una señal de control (por ejemplo, recibida desde el procesador 24). En ciertas formas de realización, las pantallas 112 se pueden colocar alrededor de la cabeza de personaje animada 10 para permitir la visualización de ciertos gestos y/o características, como por ejemplo un ojo 106 y una boca 110, por medio de la proyección de luz en las pantallas 112. Según se ha descrito anteriormente, las fuentes de luz 26 se pueden proporcionar para proyectar luz sobre las pantallas 112 para visualizar dichos gestos y/o características en respuesta a la recepción de una señal de control (por ejemplo, recibida desde el procesador 24). Según se muestra, la cabeza de personaje animada 10 puede incluir la pantalla 14 y uno o más sensores 50. Por ejemplo, la pantalla 14 puede proporcionar información al artista, y el sensor de seguimiento ocular 52 puede estar cerca de la pantalla 14 para rastrear el movimiento ocular del artista.
Si bien en la presente memoria se han ilustrado y descrito sólo algunas características de la presente divulgación, los expertos en la técnica podrán realizar muchas modificaciones y cambios.
El alcance de la invención se define mediante las reivindicaciones adjuntas.

Claims (16)

REIVINDICACIONES
1. Un sistema, que comprende:
una cabeza de personaje animada (10) para llevarla puesta un artista, que comprende:
uno o más procesadores (24) configurados para recibir una entrada, para realizar una selección de la animación en base a la entrada, y para proporcionar una primera señal de control en base a la selección de la animación; y una pantalla (14) en el interior de la cabeza de personaje animada (10) configurada para proporcionar una indicación de la selección de la animación para su visualización por parte de un artista que maneje la cabeza de personaje animada (10).
2. El sistema de la reivindicación 1, en donde la entrada comprende una primera señal indicativa del movimiento de los ojos de un artista que opera la cabeza de personaje animada (10), una segunda señal indicativa de los gestos faciales del artista que maneja la cabeza de personaje animada, o una combinación de las mismas.
3. El sistema de la reivindicación 1 o de la reivindicación 2, en donde la cabeza de personaje animada (10) comprende un sensor (50) configurado para generar la entrada.
4. El sistema de la reivindicación 3, en donde el sensor (50) comprende un sensor de seguimiento ocular configurado para supervisar el movimiento de un ojo del artista y generar la entrada en base al movimiento del ojo del artista.
5. El sistema de la reivindicación 3, en donde el sensor (50) comprende un sensor de seguimiento de gestos configurado para supervisar los gestos faciales del artista y generar la entrada en base a los gestos faciales del artista.
6. El sistema de la reivindicación 1, en donde la cabeza de personaje animada (10) comprende una memoria (22) que almacena una biblioteca de animaciones, y el uno o más procesadores (24) se configuran para realizar la selección de la animación seleccionando una animación de la biblioteca de animaciones en base a la entrada.
7. El sistema de la reivindicación 1, en donde la primera señal de control se configura para hacer que un altavoz (16) emita un audio preprogramado en base a la selección de la animación.
8. El sistema de la reivindicación 1, en donde la primera señal de control se proporciona a un actuador para provocar el movimiento de un componente de la cabeza de personaje animada (10), y el uno o más procesadores (24) se configuran para recibir una señal de estado indicativa de un estado del actuador desde un sensor de estado (74) asociado al actuador y para proporcionar una indicación del estado en la pantalla (14).
9. El sistema de la reivindicación 1, en donde el sistema comprende un sistema de control de la estación base que está separado físicamente de la cabeza de personaje animada (10), y el sistema de control de la estación base comprende un dispositivo de entrada (38) que se configura para generar la entrada y proporcionar la entrada a los uno o más procesadores (24).
10. El sistema de la reivindicación 9, en donde uno o más procesadores (24) se configuran para recibir una entrada de confirmación del artista para confirmar la selección de la animación, y para proporcionar la primera señal de control después de recibir la entrada de confirmación.
11. Un método de funcionamiento de una cabeza de personaje animada (10) para ser llevada puesta por un artista, caracterizado por:
proporcionar, utilizando uno o más procesadores (24), una o más selecciones de animación disponibles en una pantalla (14) dentro de una cabeza de personaje animada (10);
recibir una selección, por medio de uno o más procesadores (24), de una primera animación de la una o más selecciones de animación disponibles, en base a un movimiento ocular de un artista que maneja la cabeza de personaje animada (10), un gesto facial del artista que maneja la cabeza de personaje animada (10), una orden vocal del artista que maneja la cabeza de personaje animada (10) o una combinación de las mismas; y proporcionar, utilizando uno o más procesadores (24), una señal de control para ejecutar la primera animación con la cabeza de personaje animada (10).
12. El método de la reivindicación 11, en donde proporcionar la señal de control para ejecutar la primera animación comprende proporcionar la señal de control a uno o más actuadores (18) que se configuran para ajustar físicamente una característica de la cabeza de personaje animada (10).
13. El método de la reivindicación 12, que comprende recibir una señal de estado indicativa de un estado de un primer actuador de los uno o más actuadores (18) desde un sensor de estado asociado con el primer actuador, y dar instrucciones a la pantalla (14) para que proporcione una indicación del estado del primer actuador utilizando el uno o más procesadores (24).
14. El método de la reivindicación 11, en donde proporcionar la señal de control para ejecutar la primera animación comprende proporcionar la señal de control a uno o más altavoces (16) de la cabeza de personaje animada (10) para proporcionar una salida audible.
15. El método de la reivindicación 11, que comprende la selección de una segunda animación de la una o más selecciones de animación disponibles utilizando el uno o más procesadores (24), en donde la primera animación se selecciona en base al movimiento de los ojos del artista y la segunda animación se selecciona en base a la orden vocal del artista.
16. El método de la reivindicación 11, en donde la selección de una o más animaciones disponibles se establece por parte de un operador en un sistema de control de la estación base que está separado físicamente de la cabeza de personaje animada (10).
ES17822820T 2016-11-30 2017-11-28 Sistemas y métodos de cabezas de personajes animadas Active ES2920148T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662428200P 2016-11-30 2016-11-30
US15/486,814 US10775880B2 (en) 2016-11-30 2017-04-13 Animated character head systems and methods
PCT/US2017/063513 WO2018102313A2 (en) 2016-11-30 2017-11-28 Animated character head systems and methods

Publications (1)

Publication Number Publication Date
ES2920148T3 true ES2920148T3 (es) 2022-08-01

Family

ID=62192734

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17822820T Active ES2920148T3 (es) 2016-11-30 2017-11-28 Sistemas y métodos de cabezas de personajes animadas

Country Status (10)

Country Link
US (1) US10775880B2 (es)
EP (1) EP3548156B1 (es)
JP (1) JP7071360B2 (es)
KR (1) KR102400398B1 (es)
CN (1) CN110022954B (es)
CA (1) CA3044108C (es)
ES (1) ES2920148T3 (es)
MY (1) MY195593A (es)
RU (1) RU2749000C2 (es)
WO (1) WO2018102313A2 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10845975B2 (en) 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
US10679397B1 (en) * 2018-12-13 2020-06-09 Universal City Studios Llc Object tracking animated figure systems and methods
JP7329457B2 (ja) * 2018-12-14 2023-08-18 株式会社ポケモン 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
JP6667878B1 (ja) 2018-12-14 2020-03-18 株式会社ポケモン 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
WO2021067881A1 (en) * 2019-10-04 2021-04-08 Warner Bros. Entertainment Inc. Hardware for entertainment content in vehicles
JP7083380B2 (ja) * 2020-09-28 2022-06-10 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7203161B1 (ja) 2021-07-26 2023-01-12 株式会社ポケモン プログラム、情報処理装置及び情報処理方法
US20230030442A1 (en) * 2021-07-31 2023-02-02 Sony Interactive Entertainment Inc. Telepresence robot

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4660033A (en) 1985-07-29 1987-04-21 Brandt Gordon C Animation system for walk-around costumes
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6500041B1 (en) * 1999-10-25 2002-12-31 Walter L. Crome, Jr. Animated headsets
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
CN2598084Y (zh) 2003-01-28 2004-01-07 金耀 背包式充气气模
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2006149805A (ja) * 2004-11-30 2006-06-15 Asahi Kasei Corp Nam音対応玩具装置、nam音対応玩具システム
JP2006255147A (ja) * 2005-03-17 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> キャラクター操作システム及びプログラム並びに方法
ATE522330T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung
GB0702150D0 (en) * 2007-02-05 2007-03-14 Amegoworld Ltd A Communication Network and Devices
US7997991B2 (en) 2007-09-19 2011-08-16 On-Art Corp. Costume suit of large size animal
JP2010134057A (ja) * 2008-12-02 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
US8371893B2 (en) * 2008-12-04 2013-02-12 Disney Enterprises, Inc. Method and system for articulated character head actuation and control
US8647167B2 (en) * 2009-08-20 2014-02-11 Valerie J. Heilbron Lighted display devices for producing static or animated visual displays, including animated facial features
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US8874444B2 (en) 2012-02-28 2014-10-28 Disney Enterprises, Inc. Simulated conversation by pre-recorded audio navigator
US8801488B2 (en) 2012-10-15 2014-08-12 Disney Enterprises, Inc. Chin strap sensor for triggering control of walk-around characters
CN202929567U (zh) 2012-11-19 2013-05-08 深圳市数虎图像科技有限公司 虚拟角色动画表演系统
AU2014204252B2 (en) * 2013-01-03 2017-12-14 Meta View, Inc. Extramissive spatial imaging digital eye glass for virtual or augmediated vision
JP6094305B2 (ja) * 2013-03-26 2017-03-15 セイコーエプソン株式会社 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US9483115B2 (en) * 2013-05-31 2016-11-01 Disney Enterprises, Inc. Triggering control of audio for walk-around characters
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9272228B2 (en) * 2014-07-01 2016-03-01 Disney Enterprises, Inc. Full-duplex, wireless control system for interactive costumed characters
US10739817B2 (en) * 2014-08-06 2020-08-11 Gregory A. Piccionelli Flexible display screen systems and methods
EP3216023A4 (en) * 2014-11-07 2018-07-18 Eye Labs, LLC Visual stabilization system for head-mounted displays
US10121063B2 (en) * 2015-01-12 2018-11-06 BMT Business Meets Technology Holding AG Wink gesture based control system
US10810797B2 (en) * 2015-05-22 2020-10-20 Otoy, Inc Augmenting AR/VR displays with image projections
CN105022479A (zh) 2015-06-30 2015-11-04 广东欧珀移动通信有限公司 交互场景的角色控制方法、系统及设备
CN104941220B (zh) 2015-07-01 2016-08-31 朱增伟 可变化表情的大头舞面具
US20170018289A1 (en) * 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
SE1650402A1 (en) * 2016-03-29 2017-09-30 Furhat Robotics Ab Customization of robot
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
US9959678B2 (en) * 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
KR102577571B1 (ko) * 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법

Also Published As

Publication number Publication date
WO2018102313A2 (en) 2018-06-07
CN110022954B (zh) 2021-05-25
CA3044108C (en) 2024-06-04
JP2020500599A (ja) 2020-01-16
RU2019120179A3 (es) 2021-04-22
KR20190091300A (ko) 2019-08-05
EP3548156B1 (en) 2022-04-27
US20180147728A1 (en) 2018-05-31
KR102400398B1 (ko) 2022-05-19
CA3044108A1 (en) 2018-06-07
WO2018102313A3 (en) 2018-09-27
RU2749000C2 (ru) 2021-06-02
MY195593A (en) 2023-02-02
US10775880B2 (en) 2020-09-15
JP7071360B2 (ja) 2022-05-18
RU2019120179A (ru) 2021-01-11
EP3548156A2 (en) 2019-10-09
CN110022954A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
ES2920148T3 (es) Sistemas y métodos de cabezas de personajes animadas
ES2929207T3 (es) Sistemas y métodos de cabeza de personaje animado interactivo
CN107710284B (zh) 用于在虚拟图像生成系统中更有效地显示文本的技术
JP2018124666A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10238968B2 (en) Information processing method, apparatus, and system for executing the information processing method
JP2006212717A (ja) ロボット装置
JP6201028B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US20180189555A1 (en) Method executed on computer for communicating via virtual space, program for executing the method on computer, and computer apparatus therefor
JP2019136797A (ja) コミュニケーション装置およびその制御プログラム
JP2023511107A (ja) 中立アバタ
Mollahosseini et al. Expressionbot: An emotive lifelike robotic face for face-to-face communication
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
EP3599065A1 (en) Communication robot and control program therefor
JP2019030638A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018109937A (ja) 情報処理方法、装置、情報処理システム、および当該情報処理方法をコンピュータに実行させるプログラム
JP2018092592A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP6225242B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6392832B2 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018109944A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム