KR20190091300A - 애니메이션 캐릭터 헤드 시스템 및 방법 - Google Patents

애니메이션 캐릭터 헤드 시스템 및 방법 Download PDF

Info

Publication number
KR20190091300A
KR20190091300A KR1020197018752A KR20197018752A KR20190091300A KR 20190091300 A KR20190091300 A KR 20190091300A KR 1020197018752 A KR1020197018752 A KR 1020197018752A KR 20197018752 A KR20197018752 A KR 20197018752A KR 20190091300 A KR20190091300 A KR 20190091300A
Authority
KR
South Korea
Prior art keywords
animation
character head
performer
input
selection
Prior art date
Application number
KR1020197018752A
Other languages
English (en)
Other versions
KR102400398B1 (ko
Inventor
애니샤 브야스
케이틀린 아만다 코렐
션 데이비드 매크라켄
윌리엄 브이 맥기히
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20190091300A publication Critical patent/KR20190091300A/ko
Application granted granted Critical
Publication of KR102400398B1 publication Critical patent/KR102400398B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63JDEVICES FOR THEATRES, CIRCUSES, OR THE LIKE; CONJURING APPLIANCES OR THE LIKE
    • A63J7/00Auxiliary apparatus for artistes
    • A63J7/005Disguises for one or more persons for life-like imitations of creatures, e.g. animals, giants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B15/00Systems controlled by a computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Toys (AREA)

Abstract

시스템은 입력을 수신하고, 입력에 기초하여 애니메이션 선택을 하며, 애니메이션 선택에 기초하여 제1 제어 신호를 제공하도록 구성된 하나 이상의 프로세서를 구비하는 애니메이션 캐릭터 헤드를 포함한다. 애니메이션 캐릭터 헤드는 애니메이션 캐릭터 헤드를 작동시키는 공연자에 의한 시각화를 위해 애니메이션 선택의 표시를 제공하도록 구성된 디스플레이도 포함한다.

Description

애니메이션 캐릭터 헤드 시스템 및 방법
관련 출원에 대한 상호 참조
본 출원은 2016년 11월 30일자로 출원된 "애니메이션 캐릭터 헤드 시스템 및 방법"이라는 명칭의 미국 가출원 제62/428,200호로부터의 우선권 및 이의 이익을 주장하며, 이는 모든 목적을 위해 그 전체가 본 명세서에 참조로 포함되어 있다.
본 명세서는 일반적으로 놀이 공원 분야에 관한 것이다. 보다 구체적으로, 본 명세서의 실시예는 놀이 공원 체험을 제공하기 위해 이용되는 시스템 및 방법에 관한 것이다.
놀이 공원 및 기타 엔터테인먼트 장소는 다수의 다른 인기요소 중에서 공원 방문객과 상호 작용하는 애니메이션 캐릭터를 포함한다. 예를 들어, 애니메이션 캐릭터는 놀이 공원을 걸어다니고, 엔터테인먼트를 제공하며, 다른 적합한 행동 중에서도 놀이 공원의 방문객들에게 말하거나 손을 흔들 수 있다. 어떤 애니메이션 캐릭터는 자신의 얼굴을 덮는 애니메이션 헤드가 있는 의상을 입은 공연자를 포함할 수 있다. 그러나, 공연자가 놀이 공원에 온 방문객들과의 현실적인 상호작용을 제공하기 위해 애니메이션 머리를 작동시키는 것은 어려울 수 있다.
원래 주장된 청구대상과 범위가 일치하는 소정 실시예들이 아래에 요약되어 있다. 이들 실시예는 개시내용의 범위를 제한하고자 하는 것이 아니라, 오히려 단지 소정의 개시된 실시예에 대한 간략한 요약을 제공하고자 하는 것이다. 실제로, 본 개시내용은 이하에 제시된 실시예와 유사하거나 이와 상이할 수 있는 다양한 형태를 포함할 수 있다.
일 실시예에 따르면, 시스템은 입력을 수신하고, 입력에 기초하여 애니메이션 선택을 하며, 애니메이션 선택에 기초하여 제1 제어 신호를 제공하도록 구성된 하나 이상의 프로세서를 구비하는 애니메이션 캐릭터 헤드를 포함한다. 애니메이션 캐릭터 헤드는 애니메이션 캐릭터 헤드를 작동시키는 공연자에 의한 시각화를 위해 애니메이션 선택의 표시를 제공하도록 구성된 디스플레이도 포함한다.
일 실시예에 따르면, 시스템은 입력을 수신하고, 입력에 기초하여 애니메이션 선택을 하며, 애니메이션 선택에 기초하여 제어 신호를 제공하도록 구성된 하나 이상의 프로세서를 구비하는 애니메이션 캐릭터 헤드를 포함한다. 입력은 애니메이션 캐릭터 헤드를 작동시키는 공연자의 눈 움직임을 나타내는 제1 신호, 애니메이션 캐릭터 헤드를 작동시키는 공연자의 얼굴 제스처를 나타내는 제2 신호, 또는 이들의 조합을 포함한다.
일 실시예에 따르면, 방법은 하나 이상의 프로세서를 사용하여, 애니메이션 캐릭터 헤드 내의 디스플레이 상에 하나 이상의 이용 가능한 애니메이션 선택을 제공하는 단계와, 하나 이상의 프로세서를 통해, 애니메이션 캐릭터 헤드를 작동시키는 공연자의 눈 움직임, 애니메이션 캐릭터 헤드를 작동시키는 공연자의 얼굴 제스처, 애니메이션 캐릭터 헤드를 작동시키는 공연자의 음성 명령, 또는 이들의 조합에 기초하여 하나 이상의 이용 가능한 애니메이션 선택 중 제1 애니메이션의 선택을 수신하는 단계와, 하나 이상의 프로세서를 사용하여, 애니메이션 캐릭터 헤드 상에 제1 애니메이션을 실행하기 위한 제어 신호를 제공하는 단계를 포함한다.
본 발명의 이들 및 다른 특징, 양상 및 이점은, 동일한 부호가 도면 전반에 걸쳐 동일한 부분을 나타내고 있는 첨부 도면을 참조하여 이하의 상세한 설명이 읽혀질 때에 보다 잘 이해될 것이다.
도 1은 일 실시예에 따른 애니메이션 캐릭터 헤드 및 기지국 제어 시스템의 블록도이다.
도 2는 일 실시예에 따라, 공연자의 관점에서 본 도 1의 애니메이션 캐릭터 헤드의 내부 구성요소의 블록도이다.
도 3은 일 실시예에 따라, 도 1의 애니메이션 캐릭터 헤드에 대한 애니메이션 출력 방법의 흐름도이다.
도 4는 일 실시예에 따라, 도 1의 애니메이션 캐릭터 헤드의 측단면도이다.
본 명세서는 놀이 공원에 관한 것이다. 보다 구체적으로, 본 명세서는 애니메이션 캐릭터의 머리 및/또는 얼굴을 제어하는 것과 관련된 시스템 및 방법에 관한 것으로, 각각은 이하 "애니메이션 캐릭터 헤드"로 지칭될 수 있다.
본 명세서에는 더 현실적인 제스처를 제공하기 위해 하나 이상의 특징을 통합한 애니메이션 캐릭터 헤드 시스템이 제공되며, 이는 놀이 공원에 온 방문객의 경험을 향상시킬 수 있다. 눈을 깜박거리는 것에서부터 제스처(예를 들어, 미소 짓는 제스처와 같은 얼굴 제스처)뿐만 아니라 말소리(즉, 사전녹음된 말소리)와 동기화된 입 움직임까지, 본 명세서에 개시된 애니메이션 캐릭터 헤드는 캐릭터가 방문객과 상호작용하게 하고/하거나 반응하게 한다. 애니메이션 캐릭터 헤드는 공연자가 입을 수 있으며, 예컨대, 눈 깜박임, 눈썹 위치결정, 턱 모션 및 입술 모양과 같은 움직임 및/또는 특징의 다양한 조합으로 구성된 여러 현실적인 경험을 표시할 수 있다. 이러한 움직임 및/또는 특징은 조합되어 독특한 상호작용 경험을 제공하면서 공연자가 방문객과 상호작용하는 데 사용할 수 있는 제어기에 저장되고 제어기로부터 액세스 가능한 대형 애니메이션 라이브러리(예컨대, 데이터베이스 또는 선택 메뉴)를 형성할 수 있다.
소정 실시예에서, 애니메이션 라이브러리로부터 선택된 복수의 움직임 및/또는 특징은 완전한 모션 프로파일(예를 들어, 애니메이션 캐릭터 헤드가 완전히 작동하여 마치 문장을 말하고 있는 것처럼 보이는 것과 같은 완전한 모션 및/또는 디스플레이 프로파일)을 생성할 수 있다. 다른 실시예에서, 완전한 모션 프로파일은 애니메이션 라이브러리에 저장될 수 있다. 이러한 움직임, 특징 및/또는 모션 프로파일의 선택(예컨대, 애니메이션 선택)은 시선 추적(eye tracking), 머신 비전(machine vision), 음성 명령, 기지국 제어 시스템(예컨대, 원격 제어 시스템), 공연자에 의한 종래의 입력 디바이스 (예컨대, 스위치, 버튼, 모션 센서, 발 제어, 또는 근육(myo) 입력장치, 링 입력장치 또는 제스처 장갑과 같은 웨어러블 입력 디바이스) 또는 이들의 임의의 조합을 통해 수행될 수 있다.
일부 실시예에서, 일 유형의 입력(예를 들어, 시선 추적)은 일 유형의 선택(예컨대, 눈 깜박임 또는 인사와 같은 일 유형의 말소리 선택)을 하는 데 이용될 수 있고 다른 유형의 입력(예를 들어, 종래의 입력 디바이스)은 다른 유형의 선택(예컨대, 입술 모양 또는 다른 구문과 같은 다른 유형의 말소리 선택)을 하는 데 이용될 수 있다. 움직임, 특징 및/또는 모션 프로파일의 선택에 기초하여, 애니메이션 캐릭터 헤드는 애니메이션 캐릭터 헤드의 내부에 있는 오디오 및/또는 조명과 기계 작동(예컨대, 눈 깜박임, 턱 움직임, 입술 모양 등)을 동기화함으로써 "움직"일 것이다.
아래에서 보다 상세히 논의되는 바와 같이, 소정 실시예는, 애니메이션 캐릭터 헤드로 하여금 기지국 제어기를 사용하지 않고도 애니메이션 캐릭터 헤드를 착용한 공연자에 의해 제어되게 할 수 있다. 또한, 소정 실시예는 공연자로 하여금 (예를 들어, 증강 현실 인터페이스와 같은 디스플레이 디바이스에서) 예컨대, 시스템 상태의 표시를 통하여 애니메이션 캐릭터 헤드의 시스템 상태(예를 들어, 현재 애니메이션 선택, 다음 애니메이션 선택, 구성요소 고장 및/또는 현재 재생중인 애니메이션)를 인식하게 할 수 있다. 소정 실시예는 애니메이션 캐릭터 헤드를 (예를 들어, 프로세서 및 메모리 디바이스를 갖는 온보드 제어기를 구비하는) 독립형 유닛으로 만드는 모듈러 설계를 포함할 수 있다.
소정 실시예에서, 애니메이션 캐릭터 헤드는 온보드 메모리 디바이스에 저장된 움직임, 특징 및/또는 모션 프로파일을 포함하는 애니메이션 라이브러리 내의 애니메이션에 관한 데이터를 저장하고/하거나 (예컨대, 다양한 액추에이터, 스피커, 광원 등에 제어 신호를 제공하는 제어기를 통해) 애니메이션 캐릭터 헤드의 물리적 구조(예컨대, 얼굴) 상에 애니메이션(예를 들어, 선택된 애니메이션)을 재생하도록 구성될 수 있다. 그 다음에 공연자는 애니메이션 캐릭터 헤드의 얼굴에서 실행될 복수의 애니메이션을 선택할 수 있다. 애니메이션 목록은 제어기의 애니메이션 라이브러리에 저장되어 애니메이션 캐릭터 헤드가 애니메이션을 순서대로 또는 집합적으로 동시에 실행하게 할 수 있다(예컨대, 먼저 깜박이고, 그 다음에 빛을 비추며, 그 다음에 "안녕하세요"라고 말하고, 마지막으로 미소짓는다).
다른 실시예에서, (예를 들어, 공연자에 의해 또는 기지국 제어기에서 선택된 바와 같은) 선택된 애니메이션은 애니메이션 캐릭터 헤드 내에 표시되어 공연자가 (예를 들어, 제어기에게 애니메이션 선택을 수행하라고 지시하는 확인 입력을 통해) 피드백 정보로서 표시되는 다음 애니메이션 선택을 보게 하고/하거나 확인하게 할 수 있다. 소정 실시예에서, (예컨대, 애니메이션 캐릭터 헤드와 물리적으로 분리된) 외부 카메라가 제공되어 현재 재생중인 애니메이션(예컨대, 애니메이션 캐릭터 헤드의 현재의 움직임 또는 특징)의 영상(예컨대, 비디오와 같은 정지 또는 동영상)를 획득할 수 있는데, 이는 피드백을 제공하고 공연자가 현재 재생중인 애니메이션을 시각화하게 하도록 디스플레이 디바이스를 통해 표시하기 위해 (예를 들어, 송수신기와 같은 무선 통신 디바이스를 통해) 애니메이션 캐릭터 헤드에 중계될 수 있다. 일부 실시예에서, 선택된 애니메이션(공연자에 의해 또는 기지국 제어기에서 선택된 애니메이션을 나타내는 텍스트, 영상, 그래픽)은 애니메이션 캐릭터 헤드 내에 표시되어 공연자가 (예를 들어, 제어기에게 애니메이션 선택을 수행하라고 지시하는 확인 입력을 통해) 다음 애니메이션 선택을 보게 하고/하거나 확인하게 할 수 있다. 소정 실시예에서, 애니메이션 캐릭터 헤드의 하나 이상의 구성요소(예컨대, 입력 디바이스, 디스플레이 디바이스, 액추에이터, 센서, 제어기 및/또는 다른 구성요소) 및/또는 애니메이션 선택을 수행하는 공연자의 액션은 방문객에게 시각적으로 감지되지 않을 수 있다.
전술한 내용에 유념하여, 도 1은 공연자가 착용할 수 있는 애니메이션 캐릭터 헤드(10)를 구비하는 시스템의 일 실시예의 블록도이다. 소정 실시예에서, 시스템은 기지국 제어 시스템(30)(예를 들어, 원격 제어 시스템)을 포함할 수 있다. 도시된 시스템은 예시적일 뿐이며, 개시된 실시예에 따라, 실행을 용이하게 하기 위해 어떤 특징 및 구성요소는 생략될 수 있고 다양한 다른 특징 및 구성요소가 추가될 수 있음을 이해해야 한다.
도시된 바와 같이, 애니메이션 캐릭터 헤드(10)는 메모리(22) 및 프로세서(24)를 갖는 제어기(20)(예를 들어, 전자 제어기)를 포함한다. 소정 실시예에서, 메모리(22)는 애니메이션 라이브러리(예를 들어, 이용 가능한 애니메이션의 데이터베이스 또는 선택 메뉴)와 같은 명령어, 데이터 및/또는 정보를 저장하도록 구성된다. 아래에 보다 상세히 논의되는 바와 같이, 소정 실시예에서, 프로세서(24)는 입력(예를 들어, 하나 이상의 센서(50)로부터의 신호)을 수신하고, 수신된 입력에 기초하여 애니메이션 라이브러리로부터 애니메이션을 선택(예컨대, 선택된 애니메이션)하고/하거나 수신된 입력에 기초하여 및/또는 선택된 애니메이션에 따라 디스플레이(14), 스피커(16), 액추에이터(18) 및/또는 광원(26)에 제어 신호를 제공하도록 구성된다. 이러한 방식으로, 애니메이션 캐릭터 헤드(10)는 공연자가 애니메이션 캐릭터 헤드(10)의 제스처 및 액션을 제어하게 할 수 있다.
애니메이션 캐릭터 헤드(10)의 제어를 가능하게 하기 위해, 애니메이션 캐릭터 헤드(10)는 공연자를 모니터링하고/하거나 공연자로부터 입력을 수신하도록 구성된 하나 이상의 센서(50)를 포함할 수 있다. 예를 들어, 이하에서 상세히 논의되는 바와 같이, 센서(50)는 공연자의 눈 움직임을 모니터링하도록 구성될 수 있는 시선 추적 센서, 공연자의 얼굴의 움직임을 모니터링하도록 구성될 수 있는 머신 비전 센서, 공연자로부터 구두 입력 또는 다른 가청 입력을 수신하도록 구성될 수 있는 오디오 센서, 공연자로부터 물리적 또는 수동 입력을 수신하도록 구성될 수 있는 물리적 입력 센서 등, 및/또는 이들의 임의의 조합을 포함할 수 있다. 입력은 메모리(22)에 저장된 애니메이션 라이브러리로부터 애니메이션을 선택하기 위해 프로세서(24)에 의해 처리될 수 있다.
액추에이터(18)는 전기기계 액추에이터(예를 들어, 선형 액추에이터, 회전식 액츄에이터 등)와 같은 임의의 적합한 액추에이터일 수 있다. 액추에이터(18)는 애니메이션 캐릭터 헤드(10)의 내부에 위치할 수 있고 애니메이션 캐릭터 헤드 (10)의 소정 특징 또는 부분(예컨대, 눈, 눈썹, 볼, 입, 입술, 귀, 광 특징부 등)을 조정하도록 구성될 수 있다. 예를 들어, 회전식 액추에이터는 애니메이션 캐릭터 헤드(10)의 입술의 바깥쪽 첨점(cusp)을 따라 애니메이션 캐릭터 헤드(10) 내부에 배치되어, 애니메이션 캐릭터 헤드(10)의 얼굴이 (예를 들어, 프로세서(24)로부터의) 제어 신호에 응답하여 미소 짓게 할 수 있다. 다른 예로서, 애니메이션 캐릭터 헤드(10)는 (예를 들어, 프로세서(24)로부터의) 제어 신호에 응답하여 애니메이션 캐릭터 헤드(10)의 (예컨대, 찡그리는) 눈썹의 위치를 유도하는 전기 선형 액추에이터를 포함할 수 있다. 도시된 바와 같이, 애니메이션 캐릭터 헤드(10)는 광원(26)을 포함할 수 있으며, 광원(26)으로부터 방출된 광의 지속시간, 휘도, 색상 및/또는 극성은 (예를 들어, 프로세서(24)로부터의) 제어 신호에 기초하여 제어될 수 있다. 일부 실시예에서, 광원(26)은 예컨대, 정지영상, 동영상(예를 들어, 비디오) 또는 애니메이션 캐릭터 헤드(10) 상의 얼굴 특징 또는 제스처의 다른 가시적 표현을 표시하기 위해, 애니메이션 캐릭터 헤드(10)의 스크린 또는 다른 표면 상에 광을 투사하도록 구성될 수 있다. 일부 실시예에서, 액추에이터(18) 및/또는 광원(26)은 애니메이션 캐릭터 헤드(10)가 여러 가지 투사된 얼굴 특징 또는 제스처, 애니메이션 얼굴 특징 또는 제스처, 또는 이들의 조합 중 임의의 것을 제공하게 할 수 있다.
일부 실시예에서, 시스템은 이용 가능한 애니메이션의 표시(예컨대, 메모리(22)의 라이브러리에 저장된 애니메이션 목록)뿐만 아니라, 애니메이션 캐릭터 헤드(10)를 착용한 공연자에 의한 시각화를 위한 디스플레이(14)(예를 들어, 텍스트, 영상, 그래픽 등의 디스플레이) 상의 선택된 움직임, 특징 및/또는 애니메이션의 표시도 표시하도록 구성될 수 있다. 애니메이션 캐릭터 헤드(10) 내에 애니메이션 선택을 표시함으로써, 공연자는 시각 표시, 피드백 신호 및/또는 선택의 확인을 가질 수 있으며, 이에 의해 예를 들어 공연자가 더 준비되게 함으로써 쇼 품질을 개선한다. 예를 들어, 동작시에, 디스플레이(14)는 이용 가능한 애니메이션 목록을 제공할 수 있고 하나 이상의 센서(50)는 공연자로부터 입력을 획득(예를 들어, 시선 추적 센서는 공연자가 입력을 소정의 눈 움직임으로써 제공하게 할 수 있음)하여 공연자가 이용 가능한 애니메이션 목록을 스크롤하고/하거나 이용 가능한 애니메이션 목록에서 애니메이션을 선택하게 할 수 있다. 일부 실시예에서, 시간에 걸쳐 수행될 복수의 애니메이션의 사전설정 목록 또는 시간에 걸쳐 수행될 공연자에 의해 선택된 일련의 복수의 애니메이션이 디스플레이(14) 상에 제공될 수 있다. 일부 실시예에서, 디스플레이(14) 상에 제공된 복수의 애니메이션은 하나 이상의 센서(50)로의 다양한 입력을 통해 공연자에 의해 변경, 수정, 전환, 지연 또는 삭제됨으로써 방문객과의 상호작용 동안 공연자에 의한 효율적인 업데이트를 가능하게 할 수 있다. 일부 실시예에서, 프로세서(24)는 시각화를 가능하게 하고 공연자에 의한 앞으로의 애니메이션의 선택을 가능하게 하기 위해 이전에 수행된 애니메이션의 목록을 제공하도록 디스플레이(14)에 지시하도록 구성될 수 있다.
디스플레이(14)는 다양한 다른 정보를 제공하는 데 이용될 수 있다. 예를 들어, 일부 실시예에서, (예를 들어, 애니메이션 캐릭터 헤드(10)와 물리적으로 분리된) 외부 카메라(46)가 제공되어 현재 재생중인 애니메이션(예를 들어, 애니메이션 캐릭터 헤드(10)의 현재의 움직임 또는 특징)의 영상(예를 들어, 비디오와 같은 정지 또는 동영상)를 획득할 수 있으며, 이는 피드백을 제공하고 공연자가 현재 재생중인 애니메이션 및/또는 주위 환경을 시각화하게 하도록 디스플레이(14)를 통해 표시하기 위해 (예를 들어, 송수신기와 같은 무선 통신 디바이스를 통해) 애니메이션 캐릭터 헤드(10)에 중계될 수 있다.
소정 실시예에서, 애니메이션 캐릭터 헤드(10)는 (예를 들어, 실행된 애니메이션이 선택된 애니메이션에 대응하지 않는지 여부를 판정하기 위해) 구성요소 상태 및/또는 시스템 상태를 모니터링하도록 구성된 하나 이상의 상태 센서(74)를 포함할 수 있고, 상태의 표시는 디스플레이(14)를 통해 제공될 수 있다. 예를 들어, 상태 센서(74)는 각각의 액추에이터(18)와 연관될 수 있고, 액추에이터(18)의 위치 및/또는 움직임을 검출하도록 구성될 수 있는데, 이는 액추에이터(18)가 적절하게 기능하고 있는지(예컨대, 선택한 애니메이션에 기초하여 예상된 방식으로 움직이고 있는지)를 나타낼 수 있다. 소정 실시예에서, 시스템은 디스플레이(14)를 통해 공연자에게 구성요소 고장, 현재 애니메이션 선택, 다음 애니메이션 선택, 현재 재생중인 애니메이션 등의 표시를 제공하도록 구성될 수 있다.
프로세서(24)는 애니메이션 캐릭터 헤드(10)의 얼굴 상에서 실행하기 위한 완전한 모션 프로파일(예를 들어, 애니메이션)을 결정하는 것과 같은 동작을 수행하기 위해 메모리(22)에 저장된 명령어를 실행할 수 있다. 이와 같이, 일부 실시예에서, 제어기(20)는 하나 이상의 범용 마이크로프로세서, 하나 이상의 주문형 프로세서(ASIC), 하나 이상의 필드 프로그래머블 로직 어레이(FPGA), 또는 이들의 임의 조합을 포함할 수 있다. 또한, 메모리(22)는 프로세서(24)에 의해 처리될 데이터 및 프로세서(24)에 의해 실행 가능한 명령어를 저장하는 유형의 비일시적 컴퓨터 판독가능 매체일 수 있다. 따라서, 일부 실시예에서, 메모리(22)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 재기록 가능한 비휘발성 메모리, 플래시 메모리, 하드 드라이브, 광학 디스크 등을 포함할 수 있다.
소정 실시예에서, 핸들러는 입력을 제공하고/하거나 애니메이션을 선택하는 데 입력 디바이스(38)(예를 들어, 컴퓨팅 디바이스, 컴퓨터, 태블릿, 스마트폰 등과 같은 유형의 입력 시스템)를 이용할 수 있다. 핸들러는 애니메이션 캐릭터 헤드(10)를 착용한 공연자가 아닌 다른 사람이고, 핸들러는 공연자가 애니메이션 캐릭터 헤드(10)를 착용하고 있는 동안 그 공연자와 같이 걸어다니고/다니거나 가까이에 있을 수 있다. 그러한 경우에, 핸들러의 선택은 통신 디바이스(32)를 통해 애니메이션 캐릭터 헤드(10)에 유선 접속을 통해 또는 무선으로 송신될 수 있다. 일부 실시예에서, 공연자는 (예를 들어, 디스플레이 디바이스(14)를 통해) 핸들러의 선택을 통지받을 수 있다. 일부 실시예에서, 애니메이션 캐릭터 헤드(10)는 (예컨대, 하나 이상의 센서(50)로의 입력을 통해) 공연자가 선택을 거부, 지연 및/또는 수정하게 할 수 있다. 일부 실시예에서, 공연자는 핸들러의 애니메이션 선택을 수락 또는 승인(예컨대, "go"를 눌러서, 하나 이상의 센서(50)로의 입력을 통해 승인을 표시)하여 애니메이션을 재생할 수 있다. 일부 실시예에서, 선택은, 아래에서 상세히 논의되는 바와 같이, 시선 추적 센서, 음성 명령 센서, 머신 비전 센서, 및/또는 (예를 들어, 종래의 입력 디바이스로의) 물리적 입력 센서 또는 다양한 다른 센서(50) 또는 입력 중 임의의 것에 의해 제공, 수락, 거부, 지연 및/또는 수정될 수 있다. 예를 들어, 기지국(30)에서의 핸들러의 입력에 기초하여 이루어진 애니메이션 선택은 공연자에 의한 시각화를 위해 디스플레이(14) 상에 표시될 수 있고, 그 다음에 공연자는 소정의 눈 움직임 또는 소정의 얼굴 움직임을 행함으로써 애니메이션 선택을 거부하거나 수락(예를 들어, 개시)할 수 있다. 일부 실시예에서, 핸들러는 공연자의 액션(예를 들어, 수락, 거부, 지연 또는 수정)을 통지받고/받거나 핸들러는 통신 디바이스(12)(예를 들어, 송수신기)를 통해 애니메이션 캐릭터 헤드(10)로부터 시스템 상태 정보(예컨대, 구성요소 고장, 현재 애니메이션 선택, 다음 애니메이션 선택 등)를 수신한다.
소정 실시예에서, 기지국 제어 시스템(30)은 애니메이션 캐릭터 헤드(10)의 다양한 구성요소를 제어하는 데 사용될 수 있으며, 본 명세서에 개시된 임의의 특징, 기능 및/또는 기술은 애니메이션 캐릭터 헤드(10)와 기지국 제어 시스템(30) 사이에서 임의의 적합한 방식으로 분배될 수 있다는 것을 이해해야 한다. 도시된 실시예에서, 기지국 제어 시스템(30)의 제어기(40)는 메모리(42)에 저장된 명령어를 실행하여 애니메이션 캐릭터 헤드(10)의 얼굴에서 실행하는 애니메이션(예를 들어, 눈 깜박임, 미소, 말하기 등)을 선택하는 것과 같은 동작을 수행할 수 있다. 이와 같이, 일부 실시예에서, 제어기(40)는 하나 이상의 범용 마이크로프로세서, 하나 이상의 주문형 프로세서(ASIC), 하나 이상의 필드 프로그래머블 로직 어레이(FPGA) 또는 이들의 임의의 조합을 포함할 수 있다. 또한, 메모리(42)는 프로세서(44)에 의해 처리되는 데이터 및 프로세서(44)에 의해 실행 가능한 명령어를 저장하는 유형의 비일시적 컴퓨터 판독가능 매체일 수 있다. 따라서, 일부 실시예에서, 메모리(42)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 재기록 가능한 비휘발성 메모리, 플래시 메모리, 하드 드라이브, 광학 디스크 등을 포함할 수 있다.
또한, 통신 디바이스(32)는 제어기(40)가 애니메이션 캐릭터 헤드(10)에 도시된 구성요소와 같은 다양한 다른 전자 디바이스와 인터페이스하게 할 수 있다. 예를 들어, 통신 디바이스(32)는 제어기(40)가 개인 영역 네트워크(PAN), 근거리 통신 네트워크(LAN) 및/또는 광역 통신 네트워크(WAN)와 같은 네트워크에 통신 가능하게 연결되게 할 수 있다. 따라서, 일부 실시예에서, 제어기(40)는 입력 디바이스(38)로부터의 데이터를 처리하고 이를 통신 디바이스(32)를 통해 애니메이션 캐릭터 헤드(10)에 전달할 수 있다. 예를 들어, 핸들러는 입력 디바이스(38) 상의 버튼 세트(예를 들어, 가상 버튼)를 누를 수 있는데, 이는 통신 디바이스(32)를 통해 애니메이션 캐릭터 헤드(10)에 데이터를 무선으로 송신하여 애니메이션 캐릭터 헤드(10)의 얼굴이 일련의 애니메이션(예컨대, 애니메이션 캐릭터 헤드(10)는 눈을 깜박이고 미소 지을 수 있는 등)을 출력하게 한다. 다른 구성에서, 통신 디바이스(32)는 애니메이션 캐릭터 헤드(10)에 무선으로 접속될 수 있고 또는 유선 접속을 통해 접속될 수 있다.
또한, 기지국 제어 시스템(30)의 입력 디바이스(38)는 핸들러가 제어기(40)와 상호작용하게 하여 예를 들어, 애니메이션 캐릭터 헤드(10)의 얼굴 상에 애니메이션을 실행하기 위한 명령어(예를 들어, 제어 명령)을 입력할 수 있다. 따라서, 일부 실시예에서, 입력 디바이스(38)는 버튼, 키보드, 마우스, 트랙패드 등을 포함할 수 있다. 부가적으로 또는 대안으로, 디스플레이(34)는 핸들러에 의한 제어기(40)로의 사용자 입력을 가능하게 하는 터치 구성요소를 포함할 수 있으며, 이에 의해 애니메이션은 디스플레이(34)의 스크린(예컨대, 디스플레이(34)의 표면)을 터치하는 물체의 발생 및/또는 위치를 검출함으로써 선택될 수 있다. 사용자 입력을 가능하게하는 것 외에도, 디스플레이(34)는 애니메이션 캐릭터 헤드(10)에 의해 실행된 완전한 일련의 애니메이션, 애니메이션 라이브러리, 애니메이션 캐릭터 헤드(10)의 시스템 상태(예를 들어, 애니메이션 캐릭터 헤드(10)의 임의의 구성요소가 오작동하고 있는지 여부), 및/또는 애니메이션 캐릭터 헤드(10)의 외부 라이브 영상과 같은 정보의 시각 표현을 제시할 수 있다.
또한, 통신 디바이스(12)는 제어기(20)가 기지국 제어 시스템(30)의 구성요소와 같은 다양한 다른 전자 디바이스와 인터페이스하게 할 수 있다. 예를 들어, 통신 디바이스(12)는 제어기(20)가 개인 영역 네트워크(PAN), 근거리 통신 네트워크(LAN) 및/또는 광역 통신 네트워크(WAN)와 같은 네트워크에 통신 가능하게 연결되게 할 수 있다. 다른 실시예에서, 제어기(20)는 유선(예를 들면, 유선 전화) 접속을 통해 애니메이션 캐릭터 헤드(10) 및/또는 기지국 제어 시스템(30)의 다양한 구성요소에 통신 가능하게 연결될 수 있다. 따라서, 일부 실시예에서, 제어기(20)는 통신 디바이스(32)를 통해 애니메이션 캐릭터 헤드(10)로 송신된, 기지국 제어 시스템(30)의 입력 디바이스(38)로부터 통신 디바이스(12)에 의해 수신된 데이터를 처리할 수 있다. 예를 들어, 기지국 제어 시스템(30)의 핸들러는 통신 디바이스(32)를 통해 애니메이션 캐릭터 헤드(10)의 통신 디바이스(12)로 데이터를 무선으로 송신하는 입력 디바이스(38) 상의 버튼 세트를 눌러서 애니메이션 캐릭터 헤드(10)의 얼굴이 완전한 모션 프로파일을 출력하게 하여, 애니메이션 캐릭터 헤드(10)가 복수의 애니메이션(예를 들어, 눈 깜박임, 미소 등)을 실행할 수 있다.
소정 실시예에서, 전술한 기지국 제어 시스템(30)의 구성요소는 애니메이션 캐릭터 헤드(10) 상의 구성요소를 보충할 수 있다. 이와 같이, 기지국 제어 시스템(30)의 핸들러는 공연자(예를 들어, 애니메이션 캐릭터 헤드(10)를 착용하는 사람)와 통신하여 애니메이션 캐릭터 헤드(10)의 얼굴에서 실행하기 위한 최상의 완전한 모션 프로파일을 결정할 수 있다. 다른 실시예에서, 애니메이션 캐릭터 헤드(10) 내부의 공연자의 입력은 기지국 제어 시스템(30)의 핸들러의 입력보다 우선시될(override) 수 있다. 일부 실시예에서, 기지국 제어 시스템(30)의 핸들러의 입력은 애니메이션 캐릭터 헤드(10) 내의 공연자의 입력보다 우선시될 수 있다.
도 2는 공연자가 애니메이션 캐릭터 헤드(10)를 착용하고 있을 때, 공연자의 관점에서 본 애니메이션 캐릭터 헤드(10)의 실시예의 내부 구성요소의 블록도이다. 애니메이션 캐릭터 헤드(10)의 내부는 공연자에 의한 시각화를 위한 정보를 표시하도록 구성된 디스플레이(14)(예를 들어, 증강 현실 안경의 일부일 수 있는 스크린)를 포함할 수 있다. 예를 들어, 디스플레이(14)는 애니메이션 라이브러리(60)의 표시를 제공할 수 있으며, 여기서 애니메이션 라이브러리(60)는 예를 들어, 제1 애니메이션 옵션(61)(예컨대, 미소), 제2 애니메이션 옵션(62)(예컨대, 인사), 제3 애니메이션 옵션(63)(예컨대, 웃기), 제4 애니메이션 옵션(64)(예컨대, 작별인사) 등과 같은 이용 가능한 애니메이션 목록을 포함할 수 있다. 소정 실시예에서, 애니메이션 옵션은 메모리(22)에 저장될 수 있다. 애니메이션 캐릭터 헤드(10)는 시선 추적 센서(52), 머신 비전 센서(54), 오디오 센서(56), 물리적 입력 센서(58) 또는 이들의 임의의 조합과 같은 하나 이상의 센서(50)도 포함할 수 있다. 하나 이상의 센서(50)는 예를 들어, 공연자가 이용 가능한 애니메이션(60)의 목록을 스크롤하고/하거나 이로부터 애니메이션을 선택하게 함으로써 애니메이션의 선택을 용이하게 할 수 있다.
또한, 피드백 정보(80)의 표시는 공연자에게 애니메이션 라이브러리로부터 어떤 애니메이션이 현재 실행되고 있는지(예를 들어, 현재 애니메이션) 및/또는 애니메이션 라이브러리로부터 어떤 애니메이션이 다음에 실행될 것인지(예를 들어, 다음 애니메이션)를 알려줄 수 있다. 일부 실시예에서, 애니메이션 캐릭터 헤드(10)의 외부 영상(68)(예를 들어, 도 1에 도시된 외부 카메라(46)에 의해 획득 됨)가 표시되어 공연자에게 애니메이션 캐릭터 헤드(10)의 얼굴에서 어떤 애니메이션이 실행되고 있는지의 시각 표현 및/또는 애니메이션 캐릭터 헤드(10)와 상호작용하는 놀이 공원 방문객의 액션(예컨대, 표현)의 시각 표현을 제공할 수 있다. 또한, 시스템 상태(70)의 표시는(예를 들어, 도 1에 도시된 상태 센서(74)에 의해 생성된 신호에 기초하여) 애니메이션 캐릭터 헤드(10)의 구성요소의 현재 상태(좋음 또는 나쁨)를 나타낼 수 있다.
소정 실시예에서, 하나 이상의 센서(50)는 눈 활동을 모니터링하는 센서를 포함할 수 있다. 이와 같이, 하나 이상의 센서(50)는 이용 가능한 애니메이션(60)의 목록으로부터 애니메이션 선택을 하기 위해 공연자의 눈 활동의 입력을 모니터링 및/또는 수신하는 데 이용될 수 있는 시선 추적 센서(52)를 포함할 수 있다. 예를 들어, 애니메이션 캐릭터 헤드(10)는 공연자의 눈의 움직임을 시각적으로 추적하도록, 즉, 공연자의 동공의 움직임을 추적함으로써 구성된 하나 이상의 시선 추적 센서(52)를 포함할 수 있다. 시선 추적 센서(52)는 공연자의 눈 움직임을 나타내는 신호를 제어기(20)에 전송하여, 애니메이션 라이브러리 내에(예를 들어, 메모리(22) 내에) 저장된 임의의 애니메이션을 포함할 수 있는, 이용 가능한 애니메이션(60)의 목록을 스크롤하고/하거나 이로부터 애니메이션을 선택하도록 제어기(20)에 의해 사용되는 제1 신호를 생성할 수 있다. 예를 들어, 공연자가 자신의 눈의 추점을 제2 애니메이션 옵션(62)에 맞출 때, 시선 추적 센서(52)는 (예를 들어, 제2 애니메이션 옵션(62)에 초점을 맞춘) 이 눈 활동을 식별하고, 이 눈 활동을 나타내는 신호(예를 들어, 전기 신호)를 제어기(20)로 전송할 수 있는데, 이 신호는 이용 가능한 애니메이션(60)의 목록으로부터 이 애니메이션 선택을 선정하기 위해 제어기(20)에 의해 처리된다. 소정 실시예에서, 제어기(20)는 시선 추적 센서(52)로부터 입력 신호를 수신하고 애니메이션 캐릭터 헤드(10)의 눈이 공연자의 눈의 움직임을 모방하게 하는 애니메이션 선택을 하도록 구성될 수 있다. 예를 들어, 공연자가 눈을 깜박이면, 제어기(20)는 시선 추적 센서(52)로부터 신호를 식별하고, (예를 들어, 적합한 액추에이터(18)로부터의 제어 신호를 통해) 애니메이션 캐릭터 헤드(10)의 눈이 깜박이게 하는 애니메이션 선택을 선정할 수 있고, 공연자가 방향 (예컨대, 상향, 하향, 좌 또는 우)으로 보면, 제어기(20)는 애니메이션 캐릭터 헤드(10)의 눈이 동일한 방향으로 보게하는 애니메이션 선택을 할 수 있다.
부가적으로 또는 대안으로, 소정 실시예에서, 하나 이상의 센서(50)는 공연자의 얼굴의 모션 또는 움직임(예를 들어, 얼굴 제스처)을 시각적으로 추적하도록 구성된 이미징 센서 및/또는 카메라와 같은 머신 비전 센서(54)를 포함할 수 있다. 그러한 얼굴 제스처는 코딩되어 제어기의 메모리에 저장될 수 있다. 머신 비전 센서(54)는 공연자의 얼굴을 나타내는 신호를 제어기(20)에 전송하여 메모리(22)에 저장될 수 있는 애니메이션 라이브러리로부터 애니메이션 선택을 선정하기 위해 제어기(20)에 의해 사용되는 제1 신호를 생성할 수 있다. 예를 들어, 공연자가 자신의 입으로 "o 자형"을 만들 때, 머신 비전 센서(54)는 이 얼굴 제스처를 식별하고, 이 얼굴 제스처를 나타내는 신호(예를 들어, 전기 신호)를 제어기(20)로 전송할 수 있는데, 이 신호는 애니메이션 라이브러리로부터 애니메이션 선택을 선정하기 위해 제어기(20)에 의해 처리된다. 예를 들어, 자신의 입으로 "o 자형"을 만듦으로써, 공연자는 애니메이션 캐릭터 헤드(10)가 제1 애니메이션 옵션(61)과 제2 애니메이션 옵션(62) 모두를 수행하게(예를 들어, 이에 의해 애니메이션 캐릭터 헤드(10)가 미소 짓고 "안녕하세요"라고 말하게)하는 공연자의 "o 자형" 입을 나타내는 신호를 제어기(20)로 전송할 수 있다.
추가적으로 또는 대안으로, 소정 실시예에서, 제어기(20)는 애니메이션 캐릭터 헤드(10)의 소정의 얼굴 특징이 공연자의 얼굴 특징을 모방하게 하는 입력 신호를 머신 비전 센서(54)로부터 수신하도록 구성될 수 있다. 예를 들어, 공연자가 미소 지으면, 하나 이상의 머신 비전 센서(54)는 공연자의 미소를 나타내는 신호를 생성할 수 있고, 신호는 제어기(20)에 의해 처리되어 (예를 들어, 적합한 액추에이터(18)로의 제어 신호를 통해) 애니메이션 캐릭터 헤드(10)가 미소 짓게 하는 적합한 애니메이션 선택을 할 수 있다. 일부 실시예에서, 하나 이상의 머신 비전 센서(54)는 공연자로 하여금 원하는 애니메이션 선택을 야기하는 방법을 효율적으로 학습할 수 있게 하도록 공연자의 트레이닝을 용이하게 할 수 있는 피드백 정보(80)로서 표시될 수 있는 공연자의 얼굴의 영상(예를 들어, 비디오와 같은 정지 또는 동영상)를 획득하도록 구성될 수 있다. 일부 실시예에서, 애니메이션 캐릭터 헤드(10) 내에서, 공연자의 트레이닝을 용이하게 하기 위해 실행되고 있는 현재 애니메이션의 영상의 표시와 동시에 피드백 정보(80)로서 공연자의 얼굴의 영상의 표시가 제공될 수 있다.
추가적으로 또는 대안으로, 소정 실시예에서, 음성 명령이 애니메이션 선택을 하는 데 이용될 수 있고 하나 이상의 센서(50)는 오디오 센서(56) 또는 소리를 식별하는 임의의 센서(예컨대, 소리 식별 센서 또는 말소리 인식 센서)를 포함할 수 있다. 오디오 센서(56)는 공연자의 목소리 또는 말소리를 검출하도록 구성될 수 있다. 공연자의 목소리 또는 말소리(예를 들어, 소정의 음성 큐)는 제어기(20)에 의해 처리되고 이용될 수 있는 신호를 오디오 센서(56)를 통해 제어기(20)에 전송하여 그 신호에 적어도 부분적으로 기초하여 애니메이션의 라이브러리로부터 (예를 들어, 일단 수행되면 현재 애니메이션으로서 표시되는) 애니메이션 선택을 할 수 있다. 소정 실시예에서, 오디오 센서 (56) 및/또는 제어기(20)는 공연자의 말소리에서 다양한 특정 음소를 식별하도록 구성될 수 있다. 소정 실시예에서, 제어기(20)는 (예컨대, 적합한 액추에이터(18)로의 제어 신호를 통해) 애니메이션 캐릭터 헤드(10)의 입이 공연자의 말소리를 모방하거나 매칭하게 하는 애니메이션 선택을 할 수 있다. 애니메이션 캐릭터 헤드(10)에 의해 출력된 소리는 애니메이션 캐릭터 헤드(10) 내의 스피커(16)(도 1에 도시됨)에 의해 생성될 수 있다. 소정 실시예에서, 제어기(20)는 애니메이션 캐릭터 헤드(10)의 입이 공연자의 말소리의 억양 및/또는 음소에 대응하게 하고/하거나 애니메이션 캐릭터 헤드(10)의 입이 립싱크(예컨대, 공연자의 말소리와 동기화하여 입을 움직임)하게 하는 애니메이션 선택을 하도록 구성될 수 있다. 이러한 립 동기화는 오디오 센서(56), 모션 추적 센서(54) 또는 이들의 임의의 조합으로 달성될 수 있다.
부가적으로 또는 대안으로, 소정 실시예에서, 하나 이상의 센서(50)는 공연자의 몸에 의해 작동되는 물리적 입력 센서(58)를 포함할 수 있다. 물리적 입력 센서(58)는 스위치, 버튼, 모션 센서, 발 제어, 또는 근육(myo) 입력장치, 링 입력장치 또는 제스처 장갑과 같은 임의의 적합한 웨어러블 입력 디바이스일 수 있다. 물리적 입력은 애니메이션 라이브러리로부터 애니메이션 선택을 하기 위해 제어기(20)에 의해 이용될 수 있다. 보다 구체적으로, 공연자로부터 물리적 입력 센서(58)로의 물리적 입력은 애니메이션 라이브러리로부터 (예를 들어, 일단 수행되면 현재 애니메이션으로서 표시되는) 애니메이션 선택을 실행하기 위해 제어기(20)에 의해 처리되고 이용될 수 있는 신호를 제어기(20)로 전송할 수 있다.
전술한 센서(50)(예를 들어, 시선 추적 센서(52), 모션 추적 센서(54), 오디오 센서(56) 및 물리적 입력 센서(58))는 애니메이션 캐릭터 헤드(10)의 공연자에 의해 임의의 조합으로 사용될 수 있다. 예를 들어, 애니메이션 캐릭터 헤드(10)는 시선 추적 센서(52) 및 물리적 입력 센서(58)만을 가질 수 있다. 그러한 경우에, 애니메이션 라이브러리로부터의 애니메이션의 선택은 이들 센서(50)로의 입력에 기초(예를 들어, 공연자의 손바닥 위 버튼 및 동공의 활동에 기초)할 것이다. 이 예를 더 자세히 설명하기 위해, 공연자는 자신의 시야의 초점을 제3 애니메이션 옵션(63)에 맞출 수 있다. 시선 추적 센서(52)가 제3 애니메이션 옵션(63)에 대한 공연자의 초점을 검출하는 것에 응답하여 제3 애니메이션 옵션(63)이 강조되면, 공연자는 (예를 들어, 손가락으로) 버튼을 눌러서 애니메이션 캐릭터 헤드(10)가 제3 애니메이션 옵션(63)을 실행하게 하는 신호를 제어기(20)로 전송할 수 있다.
일부 기존 시스템은 공연자의 손과 손가락을 사용하여 활성화된 스위치를 이용하여 애니메이션 캐릭터로 공연을 가능하게 할 수 있지만, 그러한 제스처는 관객에게 매우 잘 보일 수 있다. 개시된 실시예는 공연자의 얼굴 및/또는 눈의 모션과 같은 공연자의 불분명하고, 볼 수 없고/없거나 또는 보이지 않는 모션을 이용하여 라이브러리(예를 들어, 데이터베이스 또는 선택 메뉴)로부터 내비게이팅하고/하거나 선택할 수 있으며, 이로써 예를 들어 공연의 질을 저하시킬 수 있는 다른 제스처 또는 관련없는 제스처의 사용을 제거 및/또는 감소시킬 수 있다.
소정 실시예에서, 애니메이션 캐릭터 헤드는 3-부분 디자인을 포함할 수 있다. 예를 들어, 애니메이션 캐릭터 헤드는 전면부, 후방 헤드부, 및 안경 구성(82)(예를 들어, 증강 현실 안경)을 포함할 수 있으며, 여기서 3개의 부분 각각은 서로 연결된다. 안경 구성은 애니메이션 라이브러리(60), 외부 영상(68), 시스템 상태(70) 및/또는 현재 애니메이션과 같은 피드백 정보(80)를 보여주도록 구성된 디스플레이(14)를 포함할 수 있다. 또한, 시선 추적 센서(52), 움직임 추적 센서(54) 및/또는 오디오 센서(56)와 같은 센서(50)는 안경 구성(82) 상에 또는 그 주위에 위치될 수 있다. 다른 예로서, 애니메이션 캐릭터 헤드는 3층 배열을 포함할 수 있는데, 내부 층은 눈을 위한 구멍이 있는, 공연자의 얼굴에 꼭 맞는 형판일 수 있고, 중간 층은 도 2에 도시된 다양한 구성요소의 디스플레이(14)를 포함할 수있으며, 가장 바깥쪽 층은 앞에서 상세히 논의된 바와 같이, 센서(50)로부터 입력을 수신하고 액추에이터(18)를 통해 모션 프로파일을 생성하도록 구성된 애니메이션 캐릭터의 얼굴을 포함할 수 있다.
개시된 실시예 및 전술한 센서(50)는 (예를 들어, 애니메이션 캐릭터 헤드(10)에 통합된) 통합형 증강 현실 및/또는 머신 비전 기술을 포함하도록 보완될 수 있다. 애니메이션 캐릭터 헤드(10)의 다양한 구성요소(예를 들어, 액추에이터(18) 및/또는 광원(26)과 같은 기계적 구성요소)를 모니터링하도록 구성된 센서(50), 상태 센서(74), 카메라(68) 및 처리 구성요소(예컨대, 프로세서(24, 44))의 어레이는 온보드 제어기(20)에 접속되어, 구성요소 고장이 검출되고 시스템 상태(70)로서 표시될 뿐만 아니라, 공연자 및/또는 기지국 제어 시스템(30)의 핸들러에 청각적으로 및/또는 시각적으로 보고될 수 있다. 따라서 시스템은 구성요소 고장을 검출하고/하거나 공연자에게 피해를 주거나 공연에 부정적인 영향을 주지 않을 방식으로 응답할 수 있다. 예를 들어, 특정 액추에이터(18)가 적절하게 기능하지 않는다면, 특정 액추에이터(18)에 의존하는 애니메이션 선택은 예컨대, 이용 가능한 애니메이션(60)의 목록으로부터 제거될 수 있고/있거나 접근 불가해질 수 있다. 일부 실시예에서, 이 피드백 정보(예를 들어, 구성요소 고장과 같은 구성요소 상태)는 디스플레이(14)를 통해 공연자에게 중계될 뿐만 아니라 유지보수 기술자에게도 무선으로 중계될 수 있다.
전술한 바와 같이, 애니메이션 캐릭터 헤드(10)는 공연자에 의한 다양한 정보의 시각화를 가능하게 하도록 증강 현실 인터페이스(예컨대, 안경), 헤드 장착 디스플레이, 광학 투사 시스템 등과 같은 디스플레이(14)를 포함한다. 다른 실시예에서, 애니메이션 캐릭터 헤드(10)는 시스템 상태(70)를 모니터링(예를 들어, 수행된 애니메이션이 선택된 애니메이션에 대응하지 않는 경우와 같이 하나 이상의 상태 센서(74)를 사용하여 구성요소 고장을 검출함) 및/또는 디스플레이(14) 또는 증강 현실 인터페이스에서와 같이 공연자에게 시스템 상태를 표시(예컨대, 구성요소 고장, 현재 애니메이션 선택, 다음 애니메이션 선택, 현재 재생중인 애니메이션 등의 표시)할 수 있다. 또한, 시스템 상태(70)는 애니메이션 캐릭터 헤드(10)의 전체 기능이 양호한지 여부의 표시를 포함할 수 있다. 예를 들어, 애니메이션 캐릭터 헤드(10)의 구성요소(예를 들어, 액추에이터(18))가 고장난 경우, 시스템 상태(70)는 표시로서 "나쁨"을 표시할 수 있다. 핸들러는 도 1과 관련하여 앞에서 논의된 방식으로, 입력을 제공하고/하거나 애니메이션 캐릭터 헤드(10)와 상호작용하는 데 기지국(30)을 이용할 수 있다는 것을 이해해야 한다.
도 3은 애니메이션 캐릭터 헤드(10)를 통해 애니메이션을 출력하는 방법(90)의 흐름도이다. 방법(90)은 블록들에 의해 표현된 다양한 단계들을 포함한다. 방법(90)은 애니메이션 캐릭터 헤드(10) 및/또는 기지국 제어 시스템(30)을 갖는 시스템과 같은 시스템에 의해 자동화 절차로서 수행될 수 있음에 유의해야 한다. 흐름도가 소정 순서로 단계들을 설명하고 있지만, 단계들은 임의의 적절한 순서로 수 될 수 있고, 어떤 단계들은 적합한 경우 동시에 수행될 수 있음을 알아야 한다. 또한, 방법(90)의 소정 단계 또는 부분은 생략될 수 있고 다른 단계가 추가될 수 있다. 방법(90)은 (예를 들어, 하나 이상의 센서(50)를 통해) 공연자 입력에 응답하여, (예를 들어, 입력 디바이스(38)를 통해) 핸들러 입력에 응답하여 등에 의해 수행될 수 있다.
도시된 바와 같이, 방법(90)은 애니메이션 캐릭터 헤드(10) 내의 디스플레이(14) 상에 하나 이상의 이용 가능한 애니메이션 옵션을 제공하는 단계(블록 92), 입력을 수신하는 단계(블록 94), 애니메이션 라이브러리로부터 애니메이션을 선택하는 단계(블록 96) 및 출력을 제공하는 단계(블록 98)를 포함한다.
보다 상세하게, 방법(90)은 애니메이션 캐릭터 헤드(10) 내의 디스플레이(14) 상에 하나 이상의 이용 가능한 애니메이션 옵션을 제공한다(블록 92). 앞에서 상세히 논의된 바와 같이, 애니메이션 캐릭터 헤드(10) 내의 디스플레이 상에, 애니메이션 캐릭터 헤드(10)에 의해 실행될 수 있는 (예컨대, 메모리(22)에 저장된) 애니메이션 라이브러리로부터 이용 가능한 애니메이션 옵션(60)(예를 들어, 미소, 찡그림, 웃기, 말하기 등)의 목록이 존재할 수 있다. 애니메이션 옵션의 표시는 이용 가능한 모든 애니메이션 옵션(예를 들어, 미소와 같은 제1 애니메이션, 인사와 같은 제2 애니메이션, 웃음과 같은 제3 애니메이션 등)을 표시하는 목록, 카테고리(예를 들어, 입 모션과 같은 제1 카테고리, 눈 모션과 같은 제2 카테고리, 소리와 같은 제3 카테고리 등)가 있는 메뉴, 애니메이션 옵션을 표시하는 웹 네트워크, 또는 애니메이션 옵션을 표시하는 웹 네트워크, 또는 애니메이션 옵션을 표시하고/하거나 애니메이션 옵션의 리뷰 및/또는 선택을 가능하게 하는 임의의 다른 적합한 방식으로서 구성될 수 있다. 공연자가 애니메이션 캐릭터 헤드(10)의 얼굴 상에서 실행할 애니메이션을 선택하는 효율 및 속도는 애니메이션 캐릭터 헤드(10)의 전체 유효성을 향상시킬 수 있다.
방법(90)은 애니메이션 라이브러리로부터 애니메이션을 선택하기 위한 입력을 수신한다(블록 94). 입력은 애니메이션 캐릭터 헤드 내부의 공연자로부터의 눈 활동(예컨대, 동공 모션), 공연자의 얼굴 제스처(예컨대, "o 자형" 입짓), 공연자로부터의 소리(예컨대, 구두 명령 등), 물리적 입력(예를 들어, 공연자의 손안에 숨겨진 버튼 누르기), 기지국 제어 시스템(30)의 핸들러로부터의 입력 및/또는 임의의 적합한 입력일 수 있다. 앞에서 상세히 논의된 바와 같이, 애니메이션 캐릭터 헤드(10) 내의 임의의 적합한 센서(50) 또는 기지국 제어 시스템(30)의 임의의 적합한 입력 디바이스(38)가 입력을 제공하는 데 사용될 수 있다. 예를 들어, 시선 추적 센서는 눈 활동을 검출 및/또는 모니터링하는 데 사용될 수 있고, 모션 추적 센서는 얼굴 제스처를 검출 및/또는 모니터링하는 데 사용될 수 있으며, 오디오 센서는 소리를 검출 및/또는 모니터링하는 데 사용될 수 있고, 핸드헬드 센서는 물리적 입력을 검출 및/또는 모니터링하는 데 사용될 수 있으며 및/또는 무선 터치 스크린 디바이스는 핸들러로부터 입력을 수신하는 데 사용될 수 있다. 센서(50) 및/또는 입력 디바이스(38)는 (예를 들어, 메모리(22, 42)와 같은 메모리에 저장되는) 애니메이션 라이브러리로부터의 애니메이션의 선택을 가능하게 하기 위해 프로세서(예컨대, 프로세서(24, 44))에 제공되는 신호를 생성할 수 있다.
소정 실시예에서, 전술한 센서들 중 임의의 센서는 서로 보완하기 위해 함께 사용될 수 있다. 예를 들어, 시선 추적 센서(52)는 애니메이션 라이브러리로부터 이용 가능한 애니메이션(60)의 목록을 스크롤하는 동공 활동을 식별하는 데 사용될 수 있고, 오디오 센서(56)는 공연자가 단어 "선택"을 말할 때 어떤 애니메이션을 실행할지에 대해 선정할 수 있다. 추가 실시예에서, 하나의 센서(50)로의 입력이 다른 센서(50)로의 입력보다 우선시될 수 있도록 센서 우선순위 스킴이 구현될 수 있다. 예를 들어, 공연자에 의한 시선 추적 센서(52)로의 입력은 기지국 제어 시스템(30)을 제어하는 핸들러로부터의 입력보다 우선시될 수 있다.
입력(예를 들어, 센서 (50) 및/또는 입력 디바이스(38)로부터의 신호)은 애니메이션 라이브러리로부터 애니메이션을 선택하기 위해 제어기(예를 들어, 제어기(20, 40))에서 처리된다(블록 96).
일단 선택되면, 애니메이션은 애니메이션 캐릭터 헤드(10)에 의해 출력(블록 98)으로서 실행된다. 제공된 출력(블록 98)은 애니메이션 캐릭터 헤드(10)의 물리적 구조체(예를 들어, 얼굴) 상에서 실행되는 애니메이션의 형태일 수 있다. 예를 들어, 애니메이션 캐릭터 헤드(10)에 의해 제공되는 출력은 찡그림, 미소, 끄덕임, 눈 깜박임, 소리, 발광 등일 수 있으며, 예컨대, 선택된 애니메이션에 따라 (예를 들어, 광 투사 또는 그래픽 기반 애니메이션을 발생시키기 위해) 액추에이터(18) 및/또는 광원(26)에 제어 신호를 제공함으로써 영향을 받을 수 있다. 일부 실시예에서, 광원(26)은 예컨대, 애니메이션 캐릭터 헤드(10) 상에 정지영상, 동영상 (예를 들어, 비디오) 또는 얼굴 특징 또는 제스처의 다른 가시적 표현을 표시하기 위해, 애니메이션 캐릭터 헤드(10)의 스크린 또는 다른 표면 상에 광을 투사하도록 구성될 수 있다. 일부 실시예에서, 액추에이터(18) 및/또는 광원(26)은 애니메이션 캐릭터 헤드(10)가 여러 투사된 얼굴 특징 또는 제스처, 애니마크트로닉(animatronic) 얼굴 특징 또는 제스처, 또는 이의 조합 중 임의의 것을 제공할 수 있게 할 수 있다. 핸들러는 도 1과 관련하여 앞에서 논의된 방식으로, 입력을 제공하고/하거나 애니메이션 캐릭터 헤드(10)와 상호 작용하는 데 기지국(30)을 이용할 수 있다는 것을 이해해야 한다.
도 4는 애니메이션 캐릭터 헤드(10)의 일 실시예의 측단면도이다. 도시된 바와 같이, 애니메이션 캐릭터 헤드(10)는 공연자의 머리를 수용하고/하거나 둘러싸도록 구성된 개구부(100) 및 방문객에게 보이는 외부 표면(102)(예를 들어, 얼굴)을 포함한다. 외부 표면(102)은 (예를 들어, 프로세서(24)로부터 수신되는) 제어 신호에 기초하여 각각의 액추에이터(18)를 통해 작동될 수 있는 눈썹(104) 및 콧수염(108)과 같은 다양한 특징을 지지할 수 있다. 소정 실시예에서, 스크린(112)은 애니메이션 캐릭터 헤드(10) 주위에 배치되어 스크린(112)으로의 광 투사를 통해 눈(106) 및 입(110)과 같은 소정 제스처 및/또는 특징의 표시를 가능하게 할 수 있다. 앞에서 논의된 바와 같이, (예를 들어, 프로세서(24)로부터 수신된) 제어 신호의 수신에 응답하여 그러한 제스처 및/또는 특징을 표시하기 위해 스크린(112)으로 광을 투사하는 광원(26)이 제공될 수 있다. 도시된 바와 같이, 애니메이션 캐릭터 헤드(10)는 디스플레이(14) 및 하나 이상의 센서(50)를 포함할 수 있다. 예를 들어, 디스플레이(14)는 공연자에게 정보를 제공할 수 있고, 시선 추적 센서(52)는 공연자의 눈 움직임을 추적하기 위해 디스플레이(14)에 근접할 수 있다.
본 개시내용의 소정 특징만 본 명세서에 예시되고 설명되었지만, 당업자에게는 많은 수정 및 변경이 발생할 것이다. 또한, 본 명세서에 개시된 다양한 실시예의 구성요소는 서로 조합되거나 교환될 수 있음을 이해해야 한다. 그러므로, 첨부된 청구범위는 본 개시내용의 진정한 사상 내에 있는 그러한 모든 수정 및 변경을 포함하도록 의도된 것으로 이해해야 한다.

Claims (20)

  1. 시스템으로서,
    애니메이션 캐릭터 헤드를 포함하되,
    상기 애니메이션 캐릭터 헤드는,
    입력을 수신하고, 상기 입력에 기초하여 애니메이션 선택을 하며, 상기 애니메이션 선택에 기초하여 제1 제어 신호를 제공하도록 구성된 하나 이상의 프로세서와,
    상기 애니메이션 캐릭터 헤드를 작동시키는 공연자에 의한 시각화를 위해 상기 애니메이션 선택의 표시를 제공하도록 구성된 디스플레이를 포함하는
    시스템.
  2. 제1항에 있어서,
    상기 애니메이션 캐릭터 헤드는 상기 입력을 생성하도록 구성된 센서를 포함하는
    시스템.
  3. 제2항에 있어서,
    상기 센서는 상기 공연자의 눈의 움직임을 모니터링하고 상기 공연자의 상기 눈의 움직임에 기초하여 상기 입력을 생성하도록 구성된 시선 추적 센서를 포함하는
    시스템.
  4. 제2항에 있어서,
    상기 센서는 상기 공연자의 얼굴 제스처를 모니터링하고 상기 공연자의 상기 얼굴 제스처에 기초하여 상기 입력을 생성하도록 구성된 모션 추적 센서를 포함하는
    시스템.
  5. 제1항에 있어서,
    상기 애니메이션 캐릭터 헤드는 애니메이션 라이브러리를 저장하는 메모리를 포함하고,
    상기 하나 이상의 프로세서는 상기 입력에 기초하여 상기 애니메이션 라이브러리로부터 애니메이션을 선택함으로써 상기 애니메이션 선택을 하도록 구성되는
    시스템.
  6. 제1항에 있어서,
    상기 제1 제어 신호는 상기 애니메이션 선택에 기초하여 스피커가 사전프로그래밍된 오디오를 출력하게 하도록 구성되는
    시스템.
  7. 제1항에 있어서,
    상기 제1 제어 신호는 액추에이터에 제공되어 상기 애니메이션 캐릭터 헤드의 구성요소의 움직임을 작동시키고,
    상기 하나 이상의 프로세서는 상기 액추에이터와 연관된 상태 센서로부터 상기 액추에이터의 상태를 나타내는 상태 신호를 수신하고 상기 상태의 표시를 상기 디스플레이 상에 제공하도록 구성되는
    시스템.
  8. 제1항에 있어서,
    상기 시스템은 상기 애니메이션 캐릭터 헤드와 물리적으로 분리된 기지국 제어 시스템을 포함하고, 상기 기지국 제어 시스템은 상기 입력을 생성하고 상기 하나 이상의 프로세서에 상기 입력을 제공하도록 구성된 입력 디바이스를 포함하는
    시스템.
  9. 제8항에 있어서,
    상기 하나 이상의 프로세서는 상기 애니메이션 선택을 확인하기 위한 확인 입력을 상기 공연자로부터 수신하고, 상기 확인 입력의 수신 후에 상기 제1 제어 신호를 제공하도록 구성되는
    시스템.
  10. 시스템으로서,
    애니메이션 캐릭터 헤드를 포함하되,
    상기 애니메이션 캐릭터 헤드는,
    입력을 수신하고, 상기 입력에 기초하여 애니메이션 선택을 하며, 상기 애니메이션 선택에 기초하여 제어 신호를 제공하도록 구성된 하나 이상의 프로세서를 포함하되,
    상기 입력은 상기 애니메이션 캐릭터 헤드를 작동시키는 공연자의 눈 움직임을 나타내는 제1 신호, 상기 애니메이션 캐릭터 헤드를 작동시키는 상기 공연자의 얼굴 제스처를 나타내는 제2 신호, 또는 이들의 조합을 포함하는
    시스템.
  11. 제10항에 있어서,
    상기 애니메이션 캐릭터 헤드는 애니메이션 라이브러리를 저장하는 메모리를 포함하고, 상기 하나 이상의 프로세서는 상기 입력에 기초하여 상기 애니메이션 라이브러리로부터 애니메이션을 선택함으로써 상기 애니메이션 선택을 하도록 구성되는
    시스템.
  12. 제10항에 있어서,
    상기 애니메이션 캐릭터 헤드는 상기 공연자의 눈 움직임을 나타내는 상기 제1 신호를 생성하도록 구성된 시선 추적 센서를 포함하는
    시스템.
  13. 제10항에 있어서,
    상기 애니메이션 캐릭터 헤드는 상기 공연자의 얼굴 제스처를 나타내는 상기 제2 신호를 생성하도록 구성된 모션 추적 센서를 포함하는
    시스템.
  14. 제10항에 있어서,
    상기 애니메이션 캐릭터 헤드는 상기 공연자에게 보이는 디스플레이를 포함하고,
    상기 하나 이상의 프로세서는 상기 공연자에 의한 시각화를 위해 이용 가능한 애니메이션의 목록을 제공하라고 상기 디스플레이에 지시하도록 구성되는
    시스템.
  15. 하나 이상의 프로세서를 사용하여, 애니메이션 캐릭터 헤드 내의 디스플레이 상에 하나 이상의 이용 가능한 애니메이션 선택을 제공하는 단계와,
    상기 하나 이상의 프로세서를 통해, 상기 애니메이션 캐릭터 헤드를 작동시키는 공연자의 눈 움직임, 상기 애니메이션 캐릭터 헤드를 작동시키는 상기 공연자의 얼굴 제스처, 상기 애니메이션 캐릭터 헤드를 작동시키는 상기 공연자의 음성 명령, 또는 이들의 조합에 기초하여 상기 하나 이상의 이용 가능한 애니메이션 선택 중 제1 애니메이션의 선택을 수신하는 단계와,
    상기 하나 이상의 프로세서를 사용하여, 상기 애니메이션 캐릭터 헤드로 상기 제1 애니메이션을 실행하기 위한 제어 신호를 제공하는 단계를 포함하는
    방법.
  16. 제15항에 있어서,
    상기 제1 애니메이션을 실행하기 위한 상기 제어 신호를 제공하는 단계는, 상기 애니메이션 캐릭터 헤드의 특징을 물리적으로 조정하도록 구성되는 하나 이상의 액추에이터에 상기 제어 신호를 제공하는 단계를 포함하는
    방법.
  17. 제16항에 있어서,
    상기 하나 이상의 액추에이터 중 제1 액추에이터의 상태를 나타내는 상태 신호를 상기 제1 액추에이터와 연관된 상태 센서로부터 수신하는 단계와,
    상기 하나 이상의 프로세서를 사용하여 상기 제1 액추에이터의 상기 상태의 표시를 제공하도록 상기 디스플레이에 지시하는 단계를 포함하는
    방법.
  18. 제15항에 있어서,
    상기 제1 애니메이션을 실행하기 위한 상기 제어 신호를 제공하는 단계는, 상기 제어 신호를 상기 애니메이션 캐릭터 헤드의 하나 이상의 스피커에 제공하여 가청 출력을 제공하는 단계를 포함하는
    방법.
  19. 제15항에 있어서,
    상기 하나 이상의 프로세서를 사용하여 상기 하나 이상의 이용 가능한 애니메이션 선택 중 제2 애니메이션을 선택하는 단계를 포함하되,
    상기 제1 애니메이션은 상기 공연자의 상기 눈 움직임에 기초하여 선택되고, 상기 제2 애니메이션은 상기 공연자의 상기 음성 명령에 기초하여 선택되는
    방법.
  20. 제15항에 있어서,
    상기 하나 이상의 이용 가능한 애니메이션 선택은 상기 애니메이션 캐릭터 헤드와 물리적으로 분리된 기지국 제어 시스템의 핸들러에 의해 수립되는
    방법.
KR1020197018752A 2016-11-30 2017-11-28 애니메이션 캐릭터 헤드 시스템 및 방법 KR102400398B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662428200P 2016-11-30 2016-11-30
US62/428,200 2016-11-30
US15/486,814 2017-04-13
US15/486,814 US10775880B2 (en) 2016-11-30 2017-04-13 Animated character head systems and methods
PCT/US2017/063513 WO2018102313A2 (en) 2016-11-30 2017-11-28 Animated character head systems and methods

Publications (2)

Publication Number Publication Date
KR20190091300A true KR20190091300A (ko) 2019-08-05
KR102400398B1 KR102400398B1 (ko) 2022-05-19

Family

ID=62192734

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197018752A KR102400398B1 (ko) 2016-11-30 2017-11-28 애니메이션 캐릭터 헤드 시스템 및 방법

Country Status (10)

Country Link
US (1) US10775880B2 (ko)
EP (1) EP3548156B1 (ko)
JP (1) JP7071360B2 (ko)
KR (1) KR102400398B1 (ko)
CN (1) CN110022954B (ko)
CA (1) CA3044108A1 (ko)
ES (1) ES2920148T3 (ko)
MY (1) MY195593A (ko)
RU (1) RU2749000C2 (ko)
WO (1) WO2018102313A2 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10845975B2 (en) 2018-03-29 2020-11-24 Universal City Studios Llc Interactive animated character head systems and methods
US10679397B1 (en) 2018-12-13 2020-06-09 Universal City Studios Llc Object tracking animated figure systems and methods
JP7329457B2 (ja) * 2018-12-14 2023-08-18 株式会社ポケモン 着ぐるみ演出支援装置、着ぐるみ演出支援システムおよび着ぐるみ演出支援方法
JP7083380B2 (ja) * 2020-09-28 2022-06-10 グリー株式会社 コンピュータプログラム、方法及びサーバ装置
JP7203161B1 (ja) 2021-07-26 2023-01-12 株式会社ポケモン プログラム、情報処理装置及び情報処理方法
US20230030442A1 (en) * 2021-07-31 2023-02-02 Sony Interactive Entertainment Inc. Telepresence robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6500041B1 (en) * 1999-10-25 2002-12-31 Walter L. Crome, Jr. Animated headsets
US20100144239A1 (en) * 2008-12-04 2010-06-10 Disney Enterprises, Inc. Method and system for articulated character head actuation and control
JP2010134057A (ja) * 2008-12-02 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
JP2014191386A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US20170018289A1 (en) * 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
US20170285757A1 (en) * 2016-03-31 2017-10-05 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4660033A (en) 1985-07-29 1987-04-21 Brandt Gordon C Animation system for walk-around costumes
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
JP2002307354A (ja) * 2000-11-07 2002-10-23 Sega Toys:Kk 電子玩具
CN2598084Y (zh) 2003-01-28 2004-01-07 金耀 背包式充气气模
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2006149805A (ja) * 2004-11-30 2006-06-15 Asahi Kasei Corp Nam音対応玩具装置、nam音対応玩具システム
JP2006255147A (ja) * 2005-03-17 2006-09-28 Nippon Telegr & Teleph Corp <Ntt> キャラクター操作システム及びプログラム並びに方法
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
GB0702150D0 (en) * 2007-02-05 2007-03-14 Amegoworld Ltd A Communication Network and Devices
US7997991B2 (en) 2007-09-19 2011-08-16 On-Art Corp. Costume suit of large size animal
US8647167B2 (en) * 2009-08-20 2014-02-11 Valerie J. Heilbron Lighted display devices for producing static or animated visual displays, including animated facial features
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US8874444B2 (en) 2012-02-28 2014-10-28 Disney Enterprises, Inc. Simulated conversation by pre-recorded audio navigator
US8801488B2 (en) 2012-10-15 2014-08-12 Disney Enterprises, Inc. Chin strap sensor for triggering control of walk-around characters
CN202929567U (zh) 2012-11-19 2013-05-08 深圳市数虎图像科技有限公司 虚拟角色动画表演系统
US9720505B2 (en) * 2013-01-03 2017-08-01 Meta Company Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities
US9483115B2 (en) * 2013-05-31 2016-11-01 Disney Enterprises, Inc. Triggering control of audio for walk-around characters
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9272228B2 (en) * 2014-07-01 2016-03-01 Disney Enterprises, Inc. Full-duplex, wireless control system for interactive costumed characters
US10739817B2 (en) * 2014-08-06 2020-08-11 Gregory A. Piccionelli Flexible display screen systems and methods
US9804669B2 (en) * 2014-11-07 2017-10-31 Eye Labs, Inc. High resolution perception of content in a wide field of view of a head-mounted display
US10121063B2 (en) * 2015-01-12 2018-11-06 BMT Business Meets Technology Holding AG Wink gesture based control system
US10810797B2 (en) * 2015-05-22 2020-10-20 Otoy, Inc Augmenting AR/VR displays with image projections
CN105022479A (zh) 2015-06-30 2015-11-04 广东欧珀移动通信有限公司 交互场景的角色控制方法、系统及设备
CN104941220B (zh) 2015-07-01 2016-08-31 朱增伟 可变化表情的大头舞面具
SE1650402A1 (en) * 2016-03-29 2017-09-30 Furhat Robotics Ab Customization of robot
US9959678B2 (en) * 2016-06-03 2018-05-01 Oculus Vr, Llc Face and eye tracking using facial sensors within a head-mounted display
KR102577571B1 (ko) * 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6500041B1 (en) * 1999-10-25 2002-12-31 Walter L. Crome, Jr. Animated headsets
JP2010134057A (ja) * 2008-12-02 2010-06-17 Brother Ind Ltd ヘッドマウントディスプレイ
US20100144239A1 (en) * 2008-12-04 2010-06-10 Disney Enterprises, Inc. Method and system for articulated character head actuation and control
JP2014191386A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置、および、頭部装着型表示装置の制御方法
US20170018289A1 (en) * 2015-07-15 2017-01-19 String Theory, Inc. Emoji as facetracking video masks
US20170285757A1 (en) * 2016-03-31 2017-10-05 Disney Enterprises, Inc. Control system using aesthetically guided gesture recognition

Also Published As

Publication number Publication date
JP2020500599A (ja) 2020-01-16
KR102400398B1 (ko) 2022-05-19
US20180147728A1 (en) 2018-05-31
RU2749000C2 (ru) 2021-06-02
CN110022954A (zh) 2019-07-16
MY195593A (en) 2023-02-02
US10775880B2 (en) 2020-09-15
EP3548156B1 (en) 2022-04-27
WO2018102313A2 (en) 2018-06-07
CN110022954B (zh) 2021-05-25
RU2019120179A (ru) 2021-01-11
JP7071360B2 (ja) 2022-05-18
WO2018102313A3 (en) 2018-09-27
CA3044108A1 (en) 2018-06-07
ES2920148T3 (es) 2022-08-01
EP3548156A2 (en) 2019-10-09
RU2019120179A3 (ko) 2021-04-22

Similar Documents

Publication Publication Date Title
KR102400398B1 (ko) 애니메이션 캐릭터 헤드 시스템 및 방법
JP7295136B2 (ja) 対話型アニメキャラクターヘッドステム及び方法
US10438393B2 (en) Virtual reality presentation of body postures of avatars
CN108886532B (zh) 用于操作个人代理的装置和方法
Al Moubayed et al. Furhat: a back-projected human-like robot head for multiparty human-machine interaction
JP2023542847A (ja) 三次元環境と相互作用するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2019136797A (ja) コミュニケーション装置およびその制御プログラム
JP2023511107A (ja) 中立アバタ
JP7198244B2 (ja) 動画配信システム、動画配信方法、及び動画配信プログラム
JP2018124981A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
CA3044108C (en) Animated character head systems and methods
JP7379427B2 (ja) 配信ユーザの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システム、動画配信方法及び動画配信プログラム
KR20200019486A (ko) 전자 장치, 그 제어 방법 및 전자 시스템
WO2023079847A1 (ja) 情報処理装置、情報処理方法および記憶媒体
US10841536B2 (en) Special effects communication techniques
WO2023133149A1 (en) Facial activity detection for virtual reality systems and methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant