CN110022954A - 动画角色头部系统和方法 - Google Patents

动画角色头部系统和方法 Download PDF

Info

Publication number
CN110022954A
CN110022954A CN201780074165.5A CN201780074165A CN110022954A CN 110022954 A CN110022954 A CN 110022954A CN 201780074165 A CN201780074165 A CN 201780074165A CN 110022954 A CN110022954 A CN 110022954A
Authority
CN
China
Prior art keywords
animation
cartoon role
performing artist
head
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780074165.5A
Other languages
English (en)
Other versions
CN110022954B (zh
Inventor
A.维亚斯
C.A.科雷尔
S.D.麦克拉肯
W.V.麦吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal City Studios LLC
Original Assignee
Universal City Studios LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal City Studios LLC filed Critical Universal City Studios LLC
Publication of CN110022954A publication Critical patent/CN110022954A/zh
Application granted granted Critical
Publication of CN110022954B publication Critical patent/CN110022954B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J7/00Auxiliary apparatus for artistes
    • A63J7/005Disguises for one or more persons for life-like imitations of creatures, e.g. animals, giants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Toys (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

一种系统,包括具有被配置为接收输入以基于所述输入进行动画选择,并基于所述动画选择提供第一控制的一个或多个处理器的动画角色头部。动画角色头部还包括显示器,其被配置为提供动画选择的指示,以便操作动画角色头部的表演者可见。

Description

动画角色头部系统和方法
相关申请的交叉引用
本申请要求2016年11月30日提交的标题为“Animated Character Head Systems andMethods”的美国临时申请No.62/428,200的优先权和权益,其全部内容通过引用结合于此用于所有目的。
背景技术
本公开大体上涉及游乐园的领域。更具体地,本公开的实施例涉及用于提供游乐园体验的系统和方法。
游乐园和其他等娱乐场地包含与公园的客人进行互动的动画角色以及许多其他具有吸引力的事物。例如,动画角色可以在游乐园周围走动,提供娱乐,并且对游乐园客人说话或挥手以及做其他合适的动作。某些动画角色可能包括穿着服装的具有覆盖表演者脸部的动画头部的表演者。然而,表演者可能难以操作动画头部以提供与参加游乐园的客人的逼真互动。
发明内容
在范围方面与原始要求保护的主题相当的某些实施例被总结如下。这些实施例不旨在限制本公开的范围,更确切地说,这些实施例仅旨在提供某些公开的实施例的简要概述。实际上,本公开可以包括可以与下面阐述的实施例相似或不同的各种形式。
根据一个实施例,一种系统包括具有被配置为接收输入以基于所述输入进行动画选择,并提供基于所述动画选择的第一控制的一个或多个处理器的动画角色头部。动画角色头部还包括显示器,该显示器被配置为提供动画选择的指示,以便操作动画角色头部的表演者可见。
根据一个实施例,一种系统包括具有被配置为接收输入以基于所述输入进行动画选择,并提供基于所述动画选择的控制信号的一个或多个处理器的动画角色头部。该输入包括指示操作动画角色头部的表演者的眼睛移动的第一信号,指示操作动画角色头部的表演者的面部姿势的第二信号,或其组合。
根据一个实施例,一种方法包括以下步骤:使用一个或多个处理器,在动画角色头部内的显示器上提供一个或多个可用动画选择;基于操作动画角色头部的表演者的眼睛移动,操作动画角色头部的表演者的面部姿势,操作动画角色头部的表演者的声音命令,或其组合,来经由一个或多个处理器接收一个或多个可用动画选择的第一动画的选择;以及使用一个或多个处理器提供控制信号以在动画角色头部上执行第一动画。
附图说明
当参考附图阅读以下详细描述时,本公开的这些和其他特征、方面和优点将变得更好理解,在这些附图中遍及各附图以相同的字符表示相同的部分,其中:
图1是根据实施例的动画角色头部和基站控制系统的框图;
图2是根据实施例的从表演者的视角看的图1的动画角色头部的内部组件的框图;
图3是根据实施例的用于输出用于图1的动画角色头部的动画的方法的流程图;以及
图4是根据实施例的图1的动画角色头部的横截面侧视图。
具体实施方式
本公开涉及游乐园。更具体地,本公开涉及与控制动画角色的头部和/或脸部(其每个在下文中可以被称为“动画角色头部”)相关的系统和方法。
本文提供了结合一个或多个特征以提供更逼真的姿势(这可以增强参加游乐园的客人的体验)的动画角色头部系统。从眨眼到姿势(例如,面部姿势,例如微笑姿势)以及与语音(例如,预先录制的语音)同步的嘴移动,本文公开的动画角色头部使得角色能够与客人交互和/或对客人做出反应。动画角色头部可以由表演者穿戴并且可以能够显示由移动和/或特征的各种组合组成的各种逼真表情,诸如例如眨眼,眼眉定位,颌运动和嘴唇形状。这些移动和/或特征可以组合以形成存储在控制器中并且可以从控制器访问的大动画库(例如,数据库或选择菜单),其可以由表演者用来与客人交互,从而提供独特的交互式体验。
在某些实施例中,从动画库中选择的多个移动和/或特征可以创建一个完整的运动轮廓(例如,一个完整的运动和/或显示轮廓,诸如动画角色头部完全致动和出现,就好像它正在说一句话)。在进一步的实施例中,完整的运动轮廓可以存储在动画库中。这些移动、特征和/或运动轮廓的选择(例如,动画选择)可以通过表演者的眼睛跟踪,机器视觉,声音命令,基站控制系统(例如,远程控制系统),传统输入设备(例如,开关,按钮,运动传感器,脚踏控制或可穿戴输入设备,诸如肌肉输入,环形输入或姿势手套)或其任何组合来完成。
在一些实施例中,一种类型的输入(例如,眼睛跟踪)可被用来进行一种类型的选择(例如,眨眼或一种类型的语音选择,诸如问候语),以及另一种类型的输入(例如,传统输入设备)可以被用来进行另一种类型的选择(例如,唇形或其他类型的语音选择,例如其他短语)。基于移动、特征和/或运动轮廓的选择,动画角色头部将通过同步机械致动(例如,眨眼,颌移动,唇形等)与动画角色头部内部的音频和/或照明“动画化”。
如下面更详细讨论的,某些实施例可以使动画角色头部由穿着动画角色头部的表演者来控制,而不使用基站控制器。此外,某些实施例可以使表演者能够知道动画角色头部的系统状态(例如,当前动画选择,即将到来的动画选择,组件故障和/或当前正在播放的动画),诸如通过在动画角色头部内(例如,在显示设备(诸如增强现实界面)上)显示系统状态。某些实施例可以包括模块化设计,其使动画角色头部成为独立单元(例如,具有带有处理器和存储器设备的板载控制器)。
在某些实施例中,动画角色头部可以被配置为存储与动画库中的动画有关的数据,其包括存储在板载存储器设备中的移动、特征和/或运动轮廓和/或动画角色头部的物理结构(例如,脸部)上的回放动画(例如,所选动画)(例如,经由向各种致动器,扬声器,光源等提供控制信号的控制器)。然后,表演者可以选择要在动画角色头部的脸部上执行的多个动画。动画列表可以存储在控制器中的动画库中,以使动画角色头部按顺序执行动画或者同时共同执行动画(例如,首先眨眼,然后闪光,然后说,“你好”,并且最后微笑)。
在进一步的实施例中,所选择的动画(例如,通过表演者或在基站控制器选择的)可以在动画角色头部内显示,以使表演者能够查看和/或确认显示为反馈信息的即将到来的动画选择(例如,通过确认输入以指令控制器执行动画选择)。在某些实施例中,可以提供(例如,与动画角色头部物理分离的)外部相机以获得当前正在播放的动画的图像(例如,静止或移动的图像,诸如视频)(例如,动画角色头部的当前移动或特征),其可以被中继到动画角色头部(例如,经由无线通信设备,诸如收发器),以用于经由显示设备显示以提供反馈并使表演者能够看到当前正在播放的动画。在一些实施例中,可以在动画角色头部内显示所选动画(例如,指示由表演者或在基站控制器处选择的动画的文本,图像,图形)以使表演者能够查看和/或确认即将到来的动画选择(例如,通过确认输入来指令控制器执行动画选择)。在某些实施例中,动画角色头部的一个或多个组件(例如,输入设备,显示设备,致动器,传感器,控制器和/或其他组件)和/或表演者进行动画选择的动作可以对客人来说在视觉上不可检测。
考虑到前述内容,图1是具有动画角色头部10的系统的实施例的框图,该动画角色头部10可以由表演者穿戴。在某些实施例中,该系统可以包括基站控制系统30(例如,远程控制系统)。应当理解,所图示的系统仅仅意图是示例性的,并且可以省略某些特征和组件,并且根据所公开的实施例可以添加各种其他特征和组件以便于表演。
如所示,动画角色头部10包括具有存储器22和处理器24的控制器20(例如,电子控制器)。在某些实施例中,存储器22被配置为存储指令,数据和/或信息,诸如动画库(例如,数据库或可用动画的选择菜单)。如下面更详细讨论的,在某些实施例中,处理器24被配置为接收输入(例如,来自一个或多个传感器50的信号),以基于接收到的输入从动画库选择动画(例如,所选动画),和/或基于所接收的输入和/或根据所选择的动画向显示器14,扬声器16,致动器18和/或光源26提供控制信号。以这种方式,动画角色头部10可以使表演者能够控制动画角色头部10的姿势和动作。
为了便于动画角色头部10的控制,动画角色头部10可包括一个或多个传感器50,其被配置为监视所述表演者和/或从所述表演者接收输入。例如,如下面详细讨论的,传感器50可以包括眼睛跟踪传感器,其可以被配置为监视表演者的眼睛移动,机器视觉传感器,其可以被配置为监视表演者的脸部的移动,音频传感器,其可以被配置为接收来自表演者的语音输入或其他可听输入,物理输入传感器,其可以被配置为接收来自表演者的物理或手动输入等,和/或其任何组合。 输入可以由处理器24处理,以从存储在存储器22中的动画库中选择动画。
致动器18可以是任何合适的致动器,诸如机电致动器(例如,线性致动器,旋转致动器等)。致动器18可以位于动画角色头部10内部并且被配置为调整动画角色头部10的某些特征或部分(例如,眼睛,眉毛,脸颊,嘴,嘴唇,耳朵,光特征等)。例如,旋转致动器可以沿着动画角色头部10的嘴唇的外尖端定位在动画角色头部10内部,以使动画角色头部10的脸部响应于(例如,来自处理器24的)控制信号而微笑。作为另一示例,动画角色头部10可包含电线性致动器,其响应于(例如,来自处理器24的)控制信号驱动动画角色头部10的眉毛的位置(例如,以皱眉)。如所示,动画角色头部10可以包括光源26,并且可以基于(例如,来自处理器24的)控制信号来控制从光源26发射的光的持续时间,亮度,颜色和/或极性。在一些实施例中,光源26可以被配置为将光投射到动画角色头部10的屏幕或其他表面上,例如以显示静止图像,移动的图像(例如,视频)或动画角色头部10上的面部特征或姿势的其他可见表示。在一些实施例中,致动器18和/或光源26可以使动画角色头部10能够提供各种投射的面部特征或姿势,电子动画面部特征或姿势或其组合中的任何一种。
在一些实施例中,系统可以被配置成显示可用动画的指示(例如,存储在存储器22中的库中的动画的列表),以及所选择的移动,特征,和/或者在显示器14上的动画(例如,文本,图像,图形等的显示)的指示,以便穿戴动画角色头部10的表演者可见。通过在动画角色头部10内显示动画选择,表演者可以具有视觉指示,反馈信号和/或选择的确认,从而例如通过允许表演者更多地准备来改善表演质量。例如,在操作中,显示器14可以提供可用动画列表,并且一个或多个传感器50可以从表演者获得输入(例如,眼睛跟踪传感器可以使表演者能够为输入提供某些眼睛移动)以使表演者能够滚动可用动画列表和/或从可用列表中选择动画。在一些实施例中,可以在显示器14上提供将随时间执行的多个动画的预设列表或者由表演者选择的将随时间执行的一系列多个动画。在一些实施例中,显示器14上提供的多个动画可以由表演者通过对一个或多个传感器50的各种输入来改变,修改,切换,延迟或删除,从而使得表演者能够在与客人的交互期间进行有效的更新。在一些实施例中,处理器24可以被配置为指令显示器14提供先前执行的动画的列表以便于可视化并且便于表演者选择未来的动画。
显示器14可以被用来提供各种其它信息。例如,在一些实施例中,可以提供(例如,与动画角色头部10物理分离的)外部相机46以获得当前正在播放的动画的图像(例如,静止或移动的图像,诸如视频)(例如,当前动画角色头部10的移动或特征),其可以被中继到动画角色头部10(例如,经由无线通信设备,诸如收发器)以经由显示器14显示以提供反馈并使表演者能够看到目前正在播放动画和/或周围环境。
在某些实施例中,动画角色头部10可包括被配置为监视组件状态和/或系统状态(例如,以确定执行的动画是否不对应于所选择的动画)的一个或多个状态传感器74,并且可以通过显示器14提供状态的指示。例如,状态传感器74可以与每个致动器18相关联并且被配置为检测致动器18的位置和/或移动,这可以指示致动器18是否适当地运行(例如,基于所选动画以预期的方式移动)。在某些实施例中,系统可以被配置为通过显示器14向表演者提供组件故障,当前动画选择,即将到来的动画选择,当前正在播放的动画等的指示。
处理器24可以执行存储在存储器22中执行操作的指令以实行操作,诸如确定完整的运动轮廓(例如,动画)以在动画角色头部10的脸部上执行。这样,在一些实施例中,控制器20可以包括一个或多个通用微处理器,一个或多个专用处理器(ASIC),一个或多个现场可编程逻辑阵列(FPGA)或其任何组合。另外,存储器22可以是有形的,非暂时性的计算机可读介质,其存储可由处理器24执行的指令和要由处理器24处理的数据。因此,在一些实施例中,存储器22可以包括随机存取存储器(RAM),只读存储器(ROM),可重写非易失性存储器,闪存,硬盘驱动器,光盘等。
在某些实施例中,一个处理者(handler)可以利用输入设备38(例如,有形的输入系统,诸如计算设备,计算机,平板电脑,智能电话等等),以提供输入和/或选择动画。处理者是穿戴动画角色头部10的表演者之外的人,并且当表演者穿戴动画角色头部10时,处理者可以与表演者一起走动和/或靠近表演者。在这种情况下,处理者的选择可以经由通信设备32无线地或通过有线连接传输到动画角色头部10。在一些实施例中,可以向表演者通知处理者的选择(例如,经由显示设备14)。在一些实施例中,动画角色头部10可以使表演者能够否决,延迟和/或修改选择(例如,通过对一个或多个传感器50的输入)。在一些实施例中,表演者可接受或批准处理者的动画选择(例如,按压“开始”,指示通过对一个或多个传感器50的输入的批准)以播放动画。在一些实施例中,可以由眼睛跟踪传感器,声音命令传感器,机器视觉传感器和/或物理输入传感器(例如,到传统的输入设备)或任何各种其他传感器50或输入来提供,接受,否决,延迟和/或修改选择,如下面详细讨论的。例如,基于处理者在基站30处的输入而做出的动画选择可以被显示在显示器14上以便表演者看到,然后表演者可以通过进行某些眼睛移动或某些面部移动来否决或接受(例如,发起)动画选择。在一些实施例中,(例如,经由显示设备34)将表演者的动作(例如,接受,否决,延迟或修改)通知处理者和/或处理者经由通信设备12(例如,收发器)从动画角色头部10接收系统状态信息(例如,组件故障的指示,当前动画选择,即将到来的动画选择等)。
在某些实施例中,基站控制系统30可以被用于控制动画角色头部10的各种组件,并且应当理解,本文中公开的任何特征、功能、和/或技术都可以以任何合适的方式分布在动画角色头部10和基站控制系统30之间。在所描绘的实施例中,基站控制系统30的控制器40包含处理器44,处理器44可以执行存储在存储器42中的指令以实行操作(诸如选择动画(例如,眨眼,微笑,说话等))以在动画角色头部10的面部上执行。这样,在一些实施例中,控制器40可以包括一个或多个通用微处理器,一个或多个专用处理器(ASIC),一个或多个现场可编程逻辑阵列(FPGA)或其任何组合。另外,存储器42可以是有形的,非暂时性的计算机可读介质,其存储可由处理器44执行的指令和要由处理器44处理的数据。因此,在一些实施例中,存储器42可以包括随机存取存储器(RAM),只读存储器(ROM),可重写非易失性存储器,闪存,硬盘驱动器,光盘等。
此外,通信设备32可以使控制器40与各种其它电子设备(诸如在动画角色头部10中所图示的组件)相接合。例如,通信设备32可以使控制器40通信地耦合到网络,诸如个人局域网(PAN),局域网(LAN)和/或广域网(WAN)。因此,在一些实施例中,控制器40可以处理来自输入设备38的数据并且经由通信设备32将其传送到动画角色头部10。例如,处理者可以在输入设备38上推动一组按钮(例如,虚拟按钮),该输入设备38通过通信设备32将数据无线地传输到动画角色头部10,以使动画角色头部10的脸部能够输出一系列动画(例如,使得动画角色头部10可以眨眼,微笑等)。在进一步的配置中,通信设备32可以无线连接或者可以经由有线连接而连接到动画角色头部10。
此外,基站控制系统30的输入设备38可以使处理者与控制器40进行交互,例如,以输入指令(例如,控制指令)来在动画角色头部10的面部上执行动画。因此,在一些实施例中,输入设备38可以包括按钮,键盘,鼠标,触控板等。附加地或替代地,显示器34可以包括触摸组件,其使得用户能够通过处理者向控制器40输入,从而可以通过检测触摸显示器34的屏幕(例如,显示器34的表面)的对象的出现和/或位置来选择动画。除了使用户能够输入之外,显示器34还可以呈现信息的视觉表示,诸如由动画角色头部10执行的完整动画序列,动画库,动画角色头部10的系统状态(例如,动画角色头部10的任何组件是否是故障的),和/或动画角色头部10的外部实况图像。
此外,通信设备12可以使控制器20能够与各种其他电子设备(诸如基站控制系统30的组件)对接。例如,通信设备12可以使控制器20能够通信地耦合到网络,诸如个人局域网(PAN),局域网(LAN)和/或广域网(WAN)。在进一步的实施例中,控制器20可以经由有线(例如,陆线)连接通信地耦合到动画角色头部10和/或基站控制系统30的各种组件。因此,在一些实施例中,控制器20可以处理由通信设备12从基站控制系统30的输入设备38接收的、经由通信设备32传输到动画角色头部10的数据。例如,基站控制系统30的处理者可以推动输入设备38上的一组按钮,其通过通信设备32将数据无线传输到动画角色头部10的通信设备12,以使动画角色头部10的脸部输出完整的运动轮廓,使得动画角色头部10可以执行多个动画(例如,诸如眨眼,微笑等)。
在某些实施例中,基站控制系统30的上述组件可以补充动画角色头部10上的组件。这样,基站控制系统30的处理者可以与表演者(例如,穿戴动画角色头部10的人)通信,以确定在动画角色头部10的脸部上执行的最佳完整运动轮廓。在进一步的实施例中,动画角色头部10内的表演者的输入可以覆盖基站控制系统30的处理者的输入。在一些实施例中,基站控制系统30的处理者的输入可以覆盖动画角色头部10中的表演者的输入。
图2是当表演者穿戴动画角色头部10时,从表演者的视角看动画角色头部10的实施例的内部组件的框图。动画角色头部10的内部可以包含显示器14(例如,屏幕,其可以是增强现实眼镜的一部分),其被配置为显示信息以便表演者可见。例如,显示器14可以提供动画库60的指示,其中动画库60可以包括例如可用动画列表,诸如第一动画选项61(例如,微笑),第二动画选项62(例如,问候),第三动画选项63(例如大笑),第四动画选项64(例如,再见)等。在某些实施例中,动画选项可以被存储在存储器22中。动画角色头部10还可以包括一个或多个传感器50,诸如眼睛跟踪传感器52,机器视觉传感器54,音频传感器56,物理输入传感器58或其任何组合。一个或多个传感器50可以便于选择动画,例如通过使表演者能够滚动可用动画列表60和/或从可用动画列表60中选择动画。
此外,反馈信息80的显示可以让表演者知道当前正在执行来自动画库的什么动画(例如,当前动画)和/或将来将执行来自动画库的什么动画(例如,下一个动画)。在一些实施例中,动画角色头部10的外部图像68(例如,通过图1中所示的外部相机46获得)可以被显示以给予表演者在动画角色头部10的脸部上正在执行什么动画的视觉表示和/或与动画角色头部10交互的游乐园客人的动作(例如,表情)的视觉表示。此外,系统状态70的显示可以指示动画角色头部10的组件的当前状态(例如,好或坏)(例如,基于由图1中所示的状态传感器74生成的信号)。
在某些实施例中,一个或多个传感器50可以包括监视眼活动的传感器。这样,一个或多个传感器50可以包括眼睛跟踪传感器52,其可以用于监视和/或接收表演者的眼睛活动的输入,以从可用动画列表60中进行动画选择。例如,动画角色头部10可以包括一个或多个眼睛跟踪传感器52,其被配置为在视觉上跟踪表演者的眼睛的移动,即,通过跟踪表演者的瞳孔的移动。眼睛跟踪传感器52可以向控制器20发送指示表演者的眼睛移动的信号以生成第一信号,控制器20使用该第一信号来滚动可用动画列表60和/或从可用动画列表60中选择动画,该动画列表60可包括存储在动画库中(例如,在存储器22中)的任何动画。例如,当表演者将他们的注意力集中在第二动画选项62上时,眼睛跟踪传感器52可以识别该眼睛活动(例如,聚焦于第二动画选项62)并且向控制器20发送指示该眼睛活动的信号(例如,电信号),其由控制器20处理以从可用动画列表60选取该动画选择。在某些实施例中,控制器20可以被配置为从眼睛跟踪传感器52接收输入信号并且进行动画选择,该动画选择使得动画角色头部10的眼睛模仿表演者眼睛的移动。例如,如果表演者眨眼,则控制器20可识别来自眼睛跟踪传感器52的信号并选取动画选择,该动画选择使得(例如,通过到适当的致动器18的控制信号)动画角色头部10的眼睛眨眼,并且如果表演者在一个方向上看(例如,向上,向下,向左或向右),则控制器20可以进行动画选择,该动画选择使得动画角色头部10的眼睛看向相同方向。
另外或替代地,在某些实施例中,一个或多个传感器50可包括机器视觉传感器54(诸如成像传感器和/或相机),其被配置为在视觉上跟踪表演者脸部的运动或移动(例如,面部姿势)。此类面部姿势可以被编码并被存储到控制器的存储器中。机器视觉传感器54可以向控制器20发送指示表演者的脸部的信号以生成第一信号,该第一信号由控制器20用于从动画库中选取动画选择,该动画库可以被存储在存储器22中。例如,当表演者用他们的嘴做出“o形”时,机器视觉传感器54可以识别该面部姿势并且向控制器20发送指示该面部姿势的信号(例如,电信号),其由控制器20处理以从动画库中选取动画选择。例如,通过使其嘴形成“o形”,表演者可以向控制器20发送表示表演者的“o形”嘴的信号,其使得动画角色头部10实行第一动画选项61和第二动画选项62两者(例如,从而使动画角色头部10微笑并说“你好”)。
另外或替代地,在某些实施例中,控制器20可以被配置为从所述机器视觉传感器54接收引起动画角色头部10的某些面部特征以模仿表演者的面部特征的输入信号。例如,如果表演者微笑,则一个或多个机器视觉传感器54可以生成指示表演者的微笑的信号,并且该信号可以由控制器20处理以进行适当的动画选择,这使得(例如,通过到适当的致动器18的控制信号)动画角色头部10微笑。在一些实施例中,一个或多个机器视觉传感器54可以被配置为获得表演者脸部的图像(例如,静止或移动的图像,诸如视频),其可以被显示为反馈信息80,这可以便于训练表演者使表演者能够有效地学习如何引起所需的动画选择。在一些实施例中,在动画角色头部10内,可以在执行当前动画的图像的显示的情况下同时提供表演者脸部图像的显示作为反馈信息80以便于训练表演者。
附加地或替代地,在某些实施例中,可以利用声音命令来进行动画选择,并且一个或多个传感器50可以包括音频传感器56或识别声音的任何传感器(例如,声音识别传感器或语音识别传感器)。音频传感器56可以被配置为检测表演者的声音或语音。表演者的声音或语音(例如,某些声音提示)可以经由音频传感器56向控制器20发送信号,其可以由控制器20处理和利用以至少部分基于那些信号来从动画库进行动画选择(例如,一旦被执行就显示为当前动画)。在某些实施例中,音频传感器56和/或控制器20可以被配置为识别表演者的语音中的各种特定音素。在某些实施例中,控制器20可以进行动画选择,该动画选择引起(例如,通过到适当的致动器18的控制信号)动画角色头部10的嘴以模仿或匹配表演者的语音。由动画角色头部10输出的声音可以由动画角色头部10中的扬声器16产生(在图1中示出)。在某些实施例中,控制器20可以被配置为进行动画选择,该动画选择使得动画角色头部10的嘴对应于表演者的语音的节奏和/或音素,和/或使得动画角色头部10的嘴与嘴唇同步(例如,与表演者的语音同步地移动嘴)。可以利用音频传感器56,运动跟踪传感器54或其任何组合来实现这种唇部同步。
另外或替代地,在某些实施例中,一个或多个传感器50可以包括由表演者的身体操作的物理输入传感器58。物理输入传感器58可以是开关,按钮,运动传感器,脚踏控制器或任何合适的可穿戴输入设备,例如肌肉输入,环形输入或姿势手套。控制器20可以利用物理输入来从动画库中进行动画选择。更具体地,从表演者到物理输入传感器58的物理输入可以向控制器20发送信号,该信号可以由控制器20处理和利用以执行来自动画库的动画选择(例如,一旦被执行就显示为当前动画)。
前述的传感器50(例如,眼睛跟踪传感器52,运动跟踪传感器54,音频传感器56以及物理输入传感器58)可被以任何组合由动画角色头部10的表演者使用。例如,动画角色头部10可以仅具有眼睛跟踪传感器52和物理输入传感器58。在这种情况下,从动画库中选择动画将基于对这些传感器50的输入(例如,基于瞳孔的活动和表演者的手掌上的按钮)。为了进一步详细说明该示例,表演者可以将他们的视野聚焦在第三动画选项63上。一旦响应于眼睛跟踪传感器52检测到表演者的注意力在第三动画选项63上而突出显示动画选项63,则表演者可以按压按钮(例如,用手指)以向控制器20发送导致动画角色头部10执行第三动画选项63的信号。
一些现有的系统可以利用使用表演者的手和手指激活的开关,以便于关于动画角色的执行;然而,这样的姿势可能对观众高度可见。所公开的实施例可以利用表演者的非显而易见的,不可见的和/或看不见的运动,例如表演者的脸部和/或眼睛的运动来从库(例如,数据库或选择菜单)导航和/或选择,因此,例如,消除和/或减少可能减损表演的其他姿势或体外姿势的使用。
在某些实施例中,动画角色头部可包括三部分的设计。例如,动画角色头部可以包含前脸部分,后头部分和眼镜布置82(例如,增强现实眼镜),其中三个部分中的每一个彼此耦合。眼镜布置可以包含显示器14,其被配置为示出动画库60,外部图像68,系统状态70和/或反馈信息80,例如当前动画。此外,诸如眼睛跟踪传感器52,运动跟踪传感器54和/或音频传感器56的传感器50可以定位在眼镜布置82上或周围。作为另一示例,动画角色头部可以包含三层布置,其中内部层可以是脸部模具,其适合于具有用于眼睛的孔的表演者的面部,中间层可以包含图2中所图示的各种组件的显示器14,以及最外层可以包含动画角色的脸部,该动画角色被配置为接收来自传感器50的输入并通过致动器18产生运动轮廓,如上面详细讨论的。
公开的实施例和上述的传感器50可以被补充以包括集成增强现实和/或机器视觉技术(例如,集成到动画角色头部10)。传感器阵列50,状态传感器74,相机68和被配置成监视动画角色头部10的各种组件(例如,机械组件,诸如致动器18和/或光源26)的处理组件(例如,处理器24、44)被连接到板载控制器20,使得组件故障可以被检测到并被显示为系统状态70,以及被可听地和/或可视地报告给表演者和/或基站控制系统30的处理者。因此,系统可能能够以不会损害表演者或对表演产生负面影响的方式检测组件故障和/或响应。例如,如果特定致动器18未适当地运行,则可以例如从可用动画列表60中移除依赖于特定致动器18的动画选择和/或以其他方式使其不可访问。在一些实施例中,该反馈信息(例如,组件状态,诸如组件故障)可以经由显示器14中继到表演者,以及无线地传递给维护技术人员。
如上面所提到的,动画角色头部10包括显示器14,诸如增强现实界面(例如,玻璃),头戴式显示器,投影光学系统等等以使各种信息对表演者可见。在进一步的实施例中,动画角色头部10可以被配置为监视系统状态70(例如,使用一个或多个状态传感器74检测组件故障,诸如,如果执行的动画不对应于所选择的动画)和/或例如在显示器14或增强现实界面上向表演者显示系统状态(例如,组件故障,当前动画选择,即将到来的动画选择,当前正在播放的动画等的指示)。此外,系统状态70可以包含动画角色头部10的整体功能是否正确的指示。例如,如果动画角色头部10中的组件(例如,致动器18)发生故障,则系统状态70可以显示“坏”作为指示。应当理解,处理者可以利用基站30以上面参考图1所讨论的方式提供输入和/或与动画角色头部10交互。
图3是用于经由动画角色头部10输出动画的方法90的流程图。方法90包括由框表示的各种步骤。应当注意,方法90可以由系统执行为自动化过程,该系统诸如具有动画角色头部10和/或基站控制系统30的系统。尽管流程图以特定顺序图示了步骤,但是应该理解,这些步骤可以以任何合适的顺序执行,并且在适当的情况下,某些步骤可以同时执行。此外,可以省略方法90的某些步骤或部分,并且可以添加其他步骤。可以响应于表演者输入(例如,经由一个或多个传感器50),响应于处理者输入(例如,经由输入设备38)等来执行方法90。
如所图示的,方法90包括在动画角色头部10内的显示器14上提供一个或多个可用的动画选项(框92),接收输入(框94),从动画库选择动画(框96 ),以及提供输出(框98)。
更详细地,该方法90动画角色头部10内的显示器14上提供一个或多个可用的动画选项(框92)。如上面详细讨论的,在动画角色头部10内的显示器上,可以存在来自(例如,存储在存储器22中的)动画库的可用动画选项(例如,微笑,皱眉,大笑,说话等)的列表60,该动画选项可以由动画角色头部10执行。可用动画选项的显示可以被组织为显示所有可用动画选项(例如,第一动画,诸如微笑,第二动画,诸如问候,第三动画,诸如大笑,等等)的列表,具有类别的菜单(例如,第一类别,诸如嘴运动,第二类别,诸如眼睛运动,第三类别,诸如声音,等等),显示动画选项的网络,或者显示动画选项和/或便于检查和/或选择动画选项的任何其他合适的方式。表演者选择要在动画角色头部10的面部上执行的动画的效率和速度可以增强动画角色头部10的整体效果。
方法90接收输入(框94),以从所述动画库选择动画。输入可以是来自动画角色头部内的表演者的眼睛活动(例如,瞳孔运动),表演者的面部姿势(例如,嘴形成“o形”),来自表演者的声音(例如,口头命令等),物理输入(例如,按压隐藏在表演者手中的按钮),来自基站控制系统30的处理者的输入和/或任何合适的输入。如上面详细讨论的,动画角色头部10中的任何合适的传感器50或基站控制系统30的任何合适的输入设备38可用于提供输入。例如,眼睛跟踪传感器可以用于检测和/或监视眼睛活动,运动跟踪传感器可以用于检测和/或监视面部姿势,音频传感器可以用于检测和/或监视声音,手持传感器可以用于检测和/或监视物理输入,和/或无线触摸屏设备可以用于接收来自处理者的输入。传感器50和/或输入设备38可以生成被提供给处理器(例如,处理器24、44)的信号,以便于从动画库中选择动画(例如,存储在存储器(诸如存储器22、42)中)。
在某些实施例中的任何前述的传感器可以彼此结合使用以相互补充。例如,眼睛跟踪传感器52可以用于识别瞳孔活动以滚动来自动画库的可用动画列表60,并且音频传感器56可以在表演者说出词“选择”时选择执行哪个动画。在另外的实施例中,可以实现传感器优先级方案,使得到一个传感器50的输入可以覆盖到另一个传感器50的输入。例如,表演者对眼睛跟踪传感器52的输入可以覆盖来自控制基站控制系统30的处理者的输入。
输入(例如,来自传感器50和/或输入设备38的信号)在控制器(例如,控制器20,40)处被处理,以从所述动画库选择动画(框96)。
一旦选择,该动画就由动画角色头部10执行为输出(框98)。所提供的输出(框98)可以是在动画角色头部10的物理结构(例如,脸部)上执行的动画的形式。例如,动画角色头部10提供的输出可以是皱眉,微笑,点头,眨眼,声音,发光等,并且例如可以根据所选择的动画通过向致动器18和/或光源26提供控制信号(例如,以引起光投射或基于图形的动画)来实现。在一些实施例中,光源26可以被配置为将光投射到动画角色头部10的屏幕或其他表面上,例如以显示静止图像,移动的图像(例如,视频)或动画角色头部10上的面部特征或姿势的其他可见表示。在一些实施例中,致动器18和/或光源26可以使动画角色头部10能够提供各种投射的面部特征或姿势,电子动画面部特征或姿势或其组合中的任何一种。应当理解,处理者可以利用基站30以上面参考图1所讨论的方式提供输入和/或与动画角色头部10交互。
图4是动画角色头部10的实施例的横截面侧视图。如所示,动画角色头部10包括配置成接收和/或围绕表演者头部的开口100,以及客人可见的外表面102(例如,脸部)。外表面102可以支撑各种特征(例如眉毛104和胡须108),其可以基于(例如,从处理器24接收的)控制信号通过相应的致动器18被致动。在某些实施例中,屏幕112可以围绕动画角色头部10定位,以通过光投影到屏幕112上使得能够显示某些姿势和/或特征,例如眼睛106和嘴110。如上所述,可以提供光源26以将光投射到屏幕112上以响应于接收到(例如,从处理器24接收到)控制信号来显示这样的姿势和/或特征。如所示,动画角色头部10可包括显示器14和一个或多个传感器50。例如,显示器14可以向表演者提供信息,并且眼睛跟踪传感器52可以靠近显示器14以跟踪表演者的眼睛移动。
虽然本文中仅已说明和描述了本公开的某些特征,但是本领域技术人员将想到许多修改和改变。此外,应当理解,本文公开的各种实施例的组件可以彼此组合或交换。因此,要理解,所附权利要求旨在覆盖如落入本公开的真实精神内的所有这样的修改和改变。

Claims (20)

1.一种系统,包括:
动画角色头部,其包括:
一个或多个处理器,其被配置为接收输入,基于所述输入进行动画选择,并且基于所述动画选择提供第一控制信号;以及
显示器,其被配置为提供动画选择的指示,以便操作动画角色头部的表演者可见。
2.根据权利要求1所述的系统,其中所述动画角色头部包括被配置为生成所述输入的传感器。
3.根据权利要求2所述的系统,其中,所述传感器包括眼睛跟踪传感器,其被配置为监视所述表演者的眼睛的移动并且基于所述表演者的眼睛的移动来生成所述输入。
4.根据权利要求2所述的系统,其中所述传感器包括运动跟踪传感器,其被配置为监视所述表演者的面部姿势并基于所述表演者的面部姿势生成所述输入。
5.根据权利要求1所述的系统,其中所述动画角色头部包括存储动画库的存储器,并且所述一个或多个处理器被配置为通过基于所述输入从所述动画库中选择动画来进行所述动画选择。
6.根据权利要求1所述的系统,其中,所述第一控制信号被配置为使扬声器基于所述动画选择输出预编程的音频。
7.根据权利要求1所述的系统,其中所述第一控制信号被提供给致动器以引起所述动画角色头部的组件的移动,并且所述一个或多个处理器被配置为从与所述致动器相关联的状态传感器接收指示所述致动器的状态的状态信号,并且在所述显示器上提供所述状态的指示。
8.根据权利要求1所述的系统,其中,所述系统包括与所述动画角色头部物理分离的基站控制系统,并且所述基站控制系统包括输入设备,所述输入设备被配置为生成所述输入并将所述输入提供给所述一个或多个处理器。
9.根据权利要求8所述的系统,其中,所述一个或多个处理器被配置为从所述表演者接收确认输入以确认所述动画选择,并在接收到所述确认输入之后提供所述第一控制信号。
10.一种系统,包括:
动画角色头部,其包括:
一个或多个处理器,其被配置为接收输入,以基于所述输入进行动画选择,并且基于所述动画选择提供控制信号,其中所述输入包括指示操作动画角色头部的表演者的眼睛移动的第一信号,指示操作动画角色头部的表演者的面部姿势的第二信号,或其组合。
11.根据权利要求10所述的系统,其中所述动画角色头部包括存储动画库的存储器,并且所述一个或多个处理器被配置为通过基于所述输入从所述动画库中选择动画来进行所述动画选择。
12.根据权利要求10所述的系统,其中所述动画角色头部包括眼睛跟踪传感器,其被配置成生成指示表演者的眼睛移动的第一信号。
13.根据权利要求10所述的系统,其中所述动画角色头部包括运动跟踪传感器,其被配置为生成指示所述表演者的面部姿势的第二信号。
14.根据权利要求10所述的系统,其中所述动画角色头部包括对所述表演者可见的显示器,并且所述一个或多个处理器被配置为指令所述显示器提供可用动画列表以便所述表演者可见。
15.一种方法,包括:
使用一个或多个处理器,在动画角色头部内的显示器上提供一个或多个可用动画选择;
基于操作动画角色头部的表演者的眼睛移动,操作动画角色头部的表演者的面部姿势,操作动画角色头部的表演者的声音命令,或其组合,来经由一个或多个处理器接收一个或多个可用动画选择的第一动画的选择;以及
使用一个或多个处理器提供控制信号以用动画角色头部执行第一动画。
16.根据权利要求15所述的方法,其中提供所述控制信号以执行所述第一动画包括将所述控制信号提供给一个或多个致动器,其被配置为物理地调整所述动画角色头部的特征。
17.根据权利要求16所述的方法,包括从与所述第一致动器相关联的状态传感器接收指示所述一个或多个致动器的第一致动器的状态的状态信号,以及使用一个或多个处理器指令所述显示器提供所述第一致动器的状态的指示。
18.根据权利要求15所述的方法,其中提供控制信号以执行第一动画包括将控制信号提供给动画角色头部的一个或多个扬声器以提供可听输出。
19.根据权利要求15所述的方法,包括使用所述一个或多个处理器选择所述一个或多个可用动画选择的第二动画,其中基于所述表演者的眼睛移动选择所述第一动画,并且基于所述表演者的声音命令选择所述第二动画。
20.根据权利要求15所述的方法,其中,所述一个或多个可用动画选择由基站控制系统处的处理者建立,所述基站控制系统与所述动画角色头部物理地分离。
CN201780074165.5A 2016-11-30 2017-11-28 动画角色头部系统和方法 Active CN110022954B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662428200P 2016-11-30 2016-11-30
US62/428200 2016-11-30
US15/486,814 US10775880B2 (en) 2016-11-30 2017-04-13 Animated character head systems and methods
US15/486814 2017-04-13
PCT/US2017/063513 WO2018102313A2 (en) 2016-11-30 2017-11-28 Animated character head systems and methods

Publications (2)

Publication Number Publication Date
CN110022954A true CN110022954A (zh) 2019-07-16
CN110022954B CN110022954B (zh) 2021-05-25

Family

ID=62192734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780074165.5A Active CN110022954B (zh) 2016-11-30 2017-11-28 动画角色头部系统和方法

Country Status (10)

Country Link
US (1) US10775880B2 (zh)
EP (1) EP3548156B1 (zh)
JP (1) JP7071360B2 (zh)
KR (1) KR102400398B1 (zh)
CN (1) CN110022954B (zh)
CA (1) CA3044108C (zh)
ES (1) ES2920148T3 (zh)
MY (1) MY195593A (zh)
RU (1) RU2749000C2 (zh)
WO (1) WO2018102313A2 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10845975B2 (en) 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
US10679397B1 (en) 2018-12-13 2020-06-09 Universal City Studios Llc Object tracking animated figure systems and methods
JP6667878B1 (ja) 2018-12-14 2020-03-18 株式会社ポケモン 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
JP7329457B2 (ja) * 2018-12-14 2023-08-18 株式会社ポケモン 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
US11007451B2 (en) * 2019-01-10 2021-05-18 Universal City Studios Llc Interactive character control system
WO2021067881A1 (en) * 2019-10-04 2021-04-08 Warner Bros. Entertainment Inc. Hardware for entertainment content in vehicles
WO2022056151A1 (en) * 2020-09-09 2022-03-17 Colin Brady A system to convert expression input into a complex full body animation, in real time or from recordings, analyzed over time
JP7083380B2 (ja) * 2020-09-28 2022-06-10 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7203161B1 (ja) * 2021-07-26 2023-01-12 株式会社ポケモン プログラム、情報処理装置及び情報処理方法
US20230030442A1 (en) * 2021-07-31 2023-02-02 Sony Interactive Entertainment Inc. Telepresence robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100144239A1 (en) * 2008-12-04 2010-06-10 Disney Enterprises, Inc. Method and system for articulated character head actuation and control
CN202929567U (zh) * 2012-11-19 2013-05-08 深圳市数虎图像科技有限公司 虚拟角色动画表演系统
CN104216512A (zh) * 2013-05-31 2014-12-17 迪斯尼实业公司 走动角色的音频的触发控制
CN104941220A (zh) * 2015-07-01 2015-09-30 朱增伟 可变化表情的大头舞面具
CN105022479A (zh) * 2015-06-30 2015-11-04 广东欧珀移动通信有限公司 交互场景的角色控制方法、系统及设备
US20160041581A1 (en) * 2014-08-06 2016-02-11 Ted R. Rittmaster Flexible display screen systems and methods

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4660033A (en) 1985-07-29 1987-04-21 Brandt Gordon C Animation system for walk-around costumes
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
US6500041B1 (en) * 1999-10-25 2002-12-31 Walter L. Crome, Jr. Animated headsets
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
CN2598084Y (zh) 2003-01-28 2004-01-07 金耀 背包式充气气模
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2006149805A (ja) 2004-11-30 2006-06-15 Asahi Kasei Corp Nam音対応玩具装置、nam音対応玩具システム
JP2006255147A (ja) 2005-03-17 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> キャラクター操作システム及びプログラム並びに方法
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
GB0702150D0 (en) * 2007-02-05 2007-03-14 Amegoworld Ltd A Communication Network and Devices
EP2070571B1 (en) * 2007-09-19 2011-12-21 On-Art Corp. Costume of large animal
JP2010134057A (ja) 2008-12-02 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
US8647167B2 (en) * 2009-08-20 2014-02-11 Valerie J. Heilbron Lighted display devices for producing static or animated visual displays, including animated facial features
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US8874444B2 (en) 2012-02-28 2014-10-28 Disney Enterprises, Inc. Simulated conversation by pre-recorded audio navigator
US8801488B2 (en) 2012-10-15 2014-08-12 Disney Enterprises, Inc. Chin strap sensor for triggering control of walk-around characters
AU2014204252B2 (en) * 2013-01-03 2017-12-14 Meta View, Inc. Extramissive spatial imaging digital eye glass for virtual or augmediated vision
JP6094305B2 (ja) 2013-03-26 2017-03-15 セイコーエプソン株式会社 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9272228B2 (en) 2014-07-01 2016-03-01 Disney Enterprises, Inc. Full-duplex, wireless control system for interactive costumed characters
WO2016073986A1 (en) * 2014-11-07 2016-05-12 Eye Labs, LLC Visual stabilization system for head-mounted displays
US10121063B2 (en) * 2015-01-12 2018-11-06 BMT Business Meets Technology Holding AG Wink gesture based control system
US10810797B2 (en) * 2015-05-22 2020-10-20 Otoy, Inc Augmenting AR/VR displays with image projections
US20170018289A1 (en) * 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
SE1650402A1 (en) * 2016-03-29 2017-09-30 Furhat Robotics Ab Customization of robot
US10338686B2 (en) * 2016-03-31 2019-07-02 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition
US9959678B2 (en) * 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
KR102577571B1 (ko) * 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100144239A1 (en) * 2008-12-04 2010-06-10 Disney Enterprises, Inc. Method and system for articulated character head actuation and control
CN202929567U (zh) * 2012-11-19 2013-05-08 深圳市数虎图像科技有限公司 虚拟角色动画表演系统
CN104216512A (zh) * 2013-05-31 2014-12-17 迪斯尼实业公司 走动角色的音频的触发控制
US20160041581A1 (en) * 2014-08-06 2016-02-11 Ted R. Rittmaster Flexible display screen systems and methods
CN105022479A (zh) * 2015-06-30 2015-11-04 广东欧珀移动通信有限公司 交互场景的角色控制方法、系统及设备
CN104941220A (zh) * 2015-07-01 2015-09-30 朱增伟 可变化表情的大头舞面具

Also Published As

Publication number Publication date
CA3044108C (en) 2024-06-04
JP7071360B2 (ja) 2022-05-18
CN110022954B (zh) 2021-05-25
RU2019120179A (ru) 2021-01-11
KR20190091300A (ko) 2019-08-05
ES2920148T3 (es) 2022-08-01
JP2020500599A (ja) 2020-01-16
WO2018102313A3 (en) 2018-09-27
RU2749000C2 (ru) 2021-06-02
WO2018102313A2 (en) 2018-06-07
MY195593A (en) 2023-02-02
US10775880B2 (en) 2020-09-15
KR102400398B1 (ko) 2022-05-19
RU2019120179A3 (zh) 2021-04-22
CA3044108A1 (en) 2018-06-07
EP3548156A2 (en) 2019-10-09
US20180147728A1 (en) 2018-05-31
EP3548156B1 (en) 2022-04-27

Similar Documents

Publication Publication Date Title
CN110022954A (zh) 动画角色头部系统和方法
JP7295136B2 (ja) 対話型アニメキャラクターヘッドステム及び方法
Al Moubayed et al. Furhat: a back-projected human-like robot head for multiparty human-machine interaction
US10967508B2 (en) System and method for dynamic robot configuration for enhanced digital experiences
US10994421B2 (en) System and method for dynamic robot profile configurations based on user interactions
US20220241977A1 (en) System and method for dynamic program configuration
US20190253724A1 (en) System and method for visual rendering based on sparse samples with predicted motion
WO2019133680A1 (en) System and method for detecting physical proximity between devices
WO2019161229A1 (en) System and method for reconstructing unoccupied 3d space
JP2019136797A (ja) コミュニケーション装置およびその制御プログラム
JP7198244B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
CN111278611A (zh) 信息处理设备、信息处理方法和程序
CN110382174A (zh) 一种用于执行情绪姿势以与用户交互作用的装置
Haider et al. Improving Response Time of Active Speaker Detection Using Visual Prosody Information Prior to Articulation.
Saade Ottimizzazione della portabilità di un modello per la stima del destinatario di una conversazione sul robot sociale iCub
CN118524881A (zh) 用于虚拟现实系统和方法的面部活动检测

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40011768

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant