KR20240046647A - 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법 - Google Patents

상호작용 애니메이션 캐릭터 헤드 시스템 및 방법 Download PDF

Info

Publication number
KR20240046647A
KR20240046647A KR1020247010881A KR20247010881A KR20240046647A KR 20240046647 A KR20240046647 A KR 20240046647A KR 1020247010881 A KR1020247010881 A KR 1020247010881A KR 20247010881 A KR20247010881 A KR 20247010881A KR 20240046647 A KR20240046647 A KR 20240046647A
Authority
KR
South Korea
Prior art keywords
user
animated character
character head
phrases
list
Prior art date
Application number
KR1020247010881A
Other languages
English (en)
Inventor
애니샤 비야스
트래비스 존 코세어트
웨이 쳉 예
Original Assignee
유니버셜 시티 스튜디오스 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유니버셜 시티 스튜디오스 엘엘씨 filed Critical 유니버셜 시티 스튜디오스 엘엘씨
Publication of KR20240046647A publication Critical patent/KR20240046647A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/67Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor adaptively or by learning from player actions, e.g. skill level adjustment or by storing successful combat sequences for re-use
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/70Game security or game management aspects
    • A63F13/79Game security or game management aspects involving player-related data, e.g. identities, accounts, preferences or play histories
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/95Storage media specially adapted for storing game information, e.g. video game cartridges
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63GMERRY-GO-ROUNDS; SWINGS; ROCKING-HORSES; CHUTES; SWITCHBACKS; SIMILAR DEVICES FOR PUBLIC AMUSEMENT
    • A63G31/00Amusement arrangements
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H13/00Toy figures with self-moving parts, with or without movement of the toy as a whole
    • A63H13/005Toy figures with self-moving parts, with or without movement of the toy as a whole with self-moving head or facial features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials

Abstract

상호작용 시스템은 환경 내에서의 사용자의 활동을 나타내는 제1 신호를 수신하고 애니메이션 캐릭터 머리에 접근하는 사용자를 나타내는 제2 신호를 수신하도록 구성된 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 또한 애니메이션 캐릭터 헤드와 사용자 사이의 개인화된 상호작용을 용이하게 하기 위해 제2 신호의 수신에 응답하여 애니메이션 캐릭터 헤드와 관련된 기지국 제어 시스템에 사용자의 활동과 관련된 정보를 제공하도록 구성된다.

Description

상호작용 애니메이션 캐릭터 헤드 시스템 및 방법{INTERACTIVE ANIMATED CHARACTER HEAD SYSTEMS AND METHODS}
본 개시는 일반적으로 놀이 공원에 관한 것이다. 보다 구체적으로, 본 개시의 실시예는 놀이 공원 경험을 제공하기 위해 사용되는 시스템 및 방법에 관한 것이다.
놀이 공원 및 기타 엔터테인먼트 장소는 다른 많은 어트랙션 중에서도, 방문객과 상호작용하는 애니메이션 캐릭터(animated characters)를 포함한다. 예를 들어, 애니메이션 캐릭터는 놀이 공원을 돌아다니며 오락을 제공하고 방문객과 이야기할 수 있다. 특정 애니메이션 캐릭터는 공연자의 얼굴을 덮는 애니메이션 캐릭터 헤드를 갖는 의상을 입은 공연자를 포함할 수 있다. 어트랙션의 정교함과 복잡성이 증가하고 이에 따른 방문객의 기대치가 증가함에 따라, 상호작용적이고 개인화된 경험을 방문객에게 제공해기 위한 보다 더 창의적인 애니메이션 캐릭터 헤드 시스템과 방법이 필요하다.
최초 청구된 청구대상에 상응하는 특정 실시예가 아래에 요약되어 있다. 이들 실시예는 본 개시의 범위를 제한하려는 것이 아니라, 오히려 이들 실시예는 특정 개시된 실시예의 간략한 요약을 제공하기 위한 것일 뿐이다. 실제로, 본 개시는 아래에 설명된 실시예와 유사하거나 상이할 수 있는 다양한 형태를 포함할 수 있다.
일 실시예에서, 상호작용 시스템은 환경 내의 사용자의 활동을 나타내는 제1 신호를 수신하고 애니메이션 캐릭터 헤드에 접근하는 사용자를 나타내는 제2 신호를 수신하도록 구성된 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 또한 애니메이션 캐릭터 헤드와 사용자 간의 개인화된 상호작용을 용이하게 하기 위해 제2 신호의 수신에 응답하여 사용자의 활동과 관련된 정보를 애니메이션 캐릭터 헤드와 관련된 기지국 제어 시스템에 제공하도록 구성된다.
일 실시예에서, 상호작용 시스템은 사용자의 웨어러블 장치에 의해 지원되는 식별자를 검출하도록 구성된 하나 이상의 식별 장치를 포함한다. 상호작용 시스템은 또한 하나 이상의 식별 장치로부터 수신된 각각의 신호에 기초하여 환경 내에서 사용자의 활동을 모니터링하도록 구성된 하나 이상의 프로세서를 포함한다. 하나 이상의 프로세서는 또한 사용자의 활동에 기초한 각각의 신호를 애니메이션 캐릭터 헤드에 출력하도록 구성되고, 그에 따라 애니메이션 캐릭터 헤드는 애니메이션 캐릭터 헤드와 사용자 간에 개인화된 상호작용을 용이하게 하기 위해 사용자의 활동과 관련된 애니메이션을 제공하게 된다.
일 실시예에서, 방법은 하나 이상의 프로세서에서 애니메이션 캐릭터 헤드에 접근하는 사용자를 나타내는 신호를 수신하는 단계를 포함한다. 이 방법은 또한 하나 이상의 프로세서를 사용하여 사용자의 이전 활동과 관련된 정보에 액세스하는 단계를 포함한다. 이 방법은 하나 이상의 프로세서를 사용하여 애니메이션 캐릭터 캐릭터 헤드와 사용자 간의 개인화된 상호 작용을 용이하게 하기 위해 신호의 수신에 응답하여 애니메이션 캐릭터 헤드와 관련된 기지국 제어 시스템에 사용자의 이전 활동과 관련된 정보를 제공하는 단계를 더 포함한다.
본 개시의 이들 및 다른 특징, 양태 및 이점은 유사한 문자가 도면 전체에 걸쳐 유사한 부분을 나타내는 첨부 도면을 참조하여 다음의 상세한 설명을 읽을 때 더 잘 이해될 것이다.
도 1은 일 실시예에 따른 애니메이션 캐릭터 헤드를 갖는 상호작용 시스템의 블록도이다.
도 2는 일 실시예에 따른 도 1의 상호작용 시스템을 포함하는 놀이 공원의 개략도이다.
도 3은 일 실시예에 따른 도 1의 상호작용 시스템을 동작시키는 방법의 흐름도이다.
도 4는 일 실시예에 따른 도 1의 상호작용 시스템에서 사용될 수 있는 기지국 제어 시스템의 정면도 및 애니메이션 캐릭터 헤드의 측 단면이다.
본 개시의 하나 이상의 특정 실시예가 아래에서 설명될 것이다. 이들 실시예의 간결한 설명을 제공하기 위한 노력으로, 실제 구현의 모든 특징이 명세서에서 설명되지는 않을 수 있다. 임의의 엔지니어링 또는 설계 프로젝트에서와 같이 임의의 그러한 실제 구현을 개발할 때, 실시예마다 변동될 수 있는 시스템 관련 및 비즈니스 관련 제약 조건에 대한 준수와 같은 개발자의 특정 목표를 달성하기 위해 수 많은 구현 특정 결정들이 내려져야 한다. 더욱이, 그러한 개발 노력은 복잡하고 시간 소모적일 수 있지만 그럼에도 불구하고 본 개시의 이점을 갖는 당업자를 위한 설계, 제작 및 제조의 일상적인 작업이라는 것을 이해해야 한다.
놀이 공원은 놀이 공원 라이드, 게임, 공연 쇼 및 애니메이션 캐릭터와 같은 다양한 엔터테인먼트를 특징으로 한다. 그러나, 많은 형태의 엔터테인먼트는 방문객의 이전 활동(예컨대, 경험 및/또는 행동)에 따라 달라지지 않는다. 예를 들어, 애니메이션 캐릭터는 비슷한 방식으로 각 방문객을 맞이할 수 있다. 일부 방문객은, 각 방문객마다 다르고 각 상호작용 중에 다르며 및/또는 방문객의 이전 활동에 대한 인식을 나타내는 애니메이션 캐릭터와의 고유하거나 사용자 정의된 상호작용을 선호할 수 있다. 따라서, 본 실시예는 놀이 공원 내부에서의 방문객의 활동을 모니터링하고, 방문객의 이전 활동에 적어도 부분적으로 기반하여 방문객에 대한 애니메이션 캐릭터의 상호작용을 제어하거나 그에 영향을 미치는 출력을 제공하는 상호작용 시스템에 관한 것이다.
보다 구체적으로, 본 개시는 놀이 공원 내에서 방문객의 활동을 모니터링하기 위해 무선 주파수 식별(RFID) 시스템과 같은 식별 시스템을 사용하는 상호작용 시스템에 관한 것이다. 일 실시예에서, 방문객은 RFID 태그와 같은 식별자를 지원하는 장치를 착용하거나 휴대할 수 있다. 방문객이 놀이 공원 내에 위치한 판독기(예컨대, RFID 트랜시버)의 범위 내에 장치를 가져오면, 판독기는 식별자를 검출하고 컴퓨팅 시스템이 놀이 공원 내에서의 방문객의 활동을 모니터링하고 (예컨대, 데이터베이스에) 기록할 수 있도록 해주는 신호를 컴퓨팅 시스템에 제공할 수 있다. 예를 들어, 판독기는 라이드(예를 들어, 롤러코스터 또는 기타 유사한 어트랙션)의 출구에 위치할 수 있으며, 판독기는 방문객이 라이드에서 나갈 때 장치에서 식별자를 검출할 수 있다. 판독기는 장치가 라이드의 출구 부근에서 검출되었음을 나타내는 신호를 컴퓨팅 시스템에 제공할 수 있고, 이 컴퓨팅 시스템은 이후 신호에 기초하여 방문객이 라이드를 마친 것으로 결정할 수 있고, 컴퓨팅 시스템은 (예를 들어, 방문객이 라이드를 마쳤다는) 정보를 데이터베이스에 저장할 수 있다.
그 후, 방문객은 놀이 공원의 다른 부분에 위치한 애니메이션 캐릭터를 방문할 수 있다. 일 실시예에서, 애니메이션 캐릭터는 공연자가 착용한 애니메이션 캐릭터 헤드를 포함한다. 애니메이션 캐릭터에 근접하게 배치된 추가 판독기(예컨대, RFID 트랜시버)(예컨대, 이 추가 판독기는 애니메이션 캐릭터에 연결되고, 공연자에 의해 휴대되고, 기지국 제어 시스템에 연결되고, 또는 놀이 공원 내 고정 구조 또는 특징부에 연결됨)는 방문객이 애니메이션 캐릭터에 접근하면 장치에서 식별자를 검출할 수 있다. 추가 판독기는 장치가 애니메이션 캐릭터에 근접하여 검출되었음을 나타내는 신호를 컴퓨팅 시스템에 제공할 수 있으며, 이 컴퓨팅 시스템은 그 신호에 기초하여 방문객이 애니메이션 캐릭터에 접근하고 있음을 결정할 수 있으며, 컴퓨팅 시스템은 데이터베이스에 저장된 정보에 액세스할 수 있고, 그런 다음 컴퓨팅 시스템은 그 정보에 기초하여 방문객에 대한 애니메이션 캐릭터의 상호작용을 제어하거나 그에 영향을 미치는 출력을 제공할 수 있다. 예를 들어, 컴퓨팅 시스템은, 애니메이션 캐릭터 헤드를 착용한 공연자와 함께 이동하고 및/또는 그 공연자를 지원하는 핸들러(handler)에 의해 작동되는 태블릿 또는 기타 컴퓨팅 장치(예컨대, 휴대폰)일 수 있는 기지국 제어 시스템과 통신할 수 있다. 그러한 일부 경우에, 컴퓨팅 시스템은 정보(예를 들어, 게임에서의 방문객의 점수, 방문객에 의해 완료된 라이드) 및/또는 추천된 상호작용(예를 들어, 방문객의 게임 승리를 축하)이 기지국 제어 시스템의 디스플레이 스크린 상에 표시되게 하는 출력을 제공할 수 있다. 그 다음, 핸들러는 예를 들어 애니메이션 캐릭터로 하여금 문구를 말하게 하고 및/또는 제스처를 행하게 하는 입력을 기지국 제어 시스템에서 제공함(예를 들어, 터치 스크린에서 선택을 행함)으로써 애니메이션 캐릭터에 대한 적절한 문구 및/또는 제스처를 선택할 수 있다. 일 실시예에서, 핸들러는 예를 들어 애니메이션 캐릭터 헤드를 착용한 공연자에게(예를 들어, 양방향 무선 통신 시스템을 통해) 말함으로써 애니메이션 캐릭터에 대한 적절한 문구 및/또는 제스처를 제안할 수 있다.
각 방문객은 놀이 공원에서 서로 다른 각각의 경험을 갖고 및/또는 서로 다른 각각의 행동을 수행했을 수 있다. 예를 들어, 한 방문객은 라이드를 경험하고, 게임을 하여 가상 포인트를 획득하고, 레스토랑에서 식사를 할 수 있는 한편, 다른 방문객은 다른 라이드를 경험하고, 게임을 하여 다른 수의 가상 포인트를 획득하고, 다른 레스토랑에서 식사를 할 수 있다. 개시된 상호작용 시스템은 애니메이션 캐릭터가 각 방문객의 특정 활동에 기초하여 말하거나 제스처를 취함으로써 각 방문객과 고유하고 개인화된 상호작용을 수행할 수 있도록 할 수 있다. 설명을 용이하게 하기 위해, 상호작용 시스템의 사용자는 놀이 공원에서의 방문객으로 설명되고 상호작용 시스템은 놀이 공원에서 구현되는 것으로 설명되지만, 상호작용 시스템은 다른 환경에서 구현될 수 있다는 것을 이해해야 한다. 또한, 개시된 실시예는 공연자가 착용한 애니메이션 캐릭터 헤드를 참조하지만, 상호작용 시스템은 공연자가 보유, 착용 또는 소지한 물체(예를 들어, 망토, 모자, 안경, 갑옷, 검, 단추)와 같은 다른 컴포넌트의 동작을 추가적으로 또는 대안적으로 포함하고 그에 영향을 미칠 수 있음을 이해해야 한다.
전술한 바를 염두에 두고, 도 1은 놀이 공원과 같은 환경에서 이용될 수 있는 상호작용 시스템(10)의 블록도이다. 도 1에 도시된 바와 같이, 상호작용 시스템(10)은 식별 시스템(12)(예를 들어, RFID 시스템) 및 애니메이션 캐릭터 시스템(14)을 포함한다. 일 실시예에서, 식별 시스템(12)은 컴퓨팅 시스템(16)(예를 들어, 클라우드 기반 컴퓨팅 시스템), 하나 이상의 데이터베이스(18), 및 사용자(26)가 착용하거나 휴대할 수 있는 웨어러블 장치(24)(예를 들어, 팔찌, 목걸이, 부적, 핀 또는 장난감과 같은 웨어러블 또는 휴대용 장치)에서 지원되는 식별자(22)(예컨대, RFID 태그)를 판독하도록 구성된 하나 이상의 판독기(20)(예컨대, RFID 판독기 또는 트랜시버)를 포함한다. 아래에서 더 상세히 논의되는 바와 같이, 식별 시스템(12)은 사용자(26)가 놀이 공원을 이동함에 따라 사용자(26)의 활동을 모니터링할 수 있고, 식별 시스템(12)은 사용자(26)의 이전 활동을 나타내는 출력을 애니메이션 캐릭터 시스템(14)에 제공하여 사용자(26)를 위한 고유하고 개인화된 상호작용 경험을 용이하게 할 수 있다.
일 실시예에서, 애니메이션 캐릭터 시스템(14)은 공연자에 의해 착용될 수 있고 소리를 내고(예를 들어, 구절을 말하고) 및/또는 다양한 제스처(예를 들어, 눈 깜박임, 턱 움직임, 입술 모양))를 수행하도록 구성될 수 있는 애니메이션 캐릭터 헤드(30)를 포함한다. 애니메이션 캐릭터 시스템(14)은 또한 애니메이션 캐릭터 헤드(30)를 착용한 공연자와 함께 이동하고 및/또는 이 공연자를 지원하는 핸들러에 의해 작동될 수 있는 기지국 제어 시스템(32)(예를 들어, 원격 제어 시스템)을 포함할 수 있다. 일 실시예에서, 애니메이션 캐릭터 헤드(30) 및 기지국 제어 시스템(32)은 통신가능하게 결합되어, 기지국 제어 시스템(32)에서 핸들러에 의한 입력은 애니메이션 캐릭터 헤드(30)가 특정 사운드를 방출하거나 특정 제스처를 수행하게 한다.
보다 구체적으로, 일 실시예에서, 애니메이션 캐릭터 헤드(30)는 하나 이상의 프로세서(36) 및 하나 이상의 메모리 장치(38)를 갖는 제어기(34)(예를 들어, 전자 제어기)를 포함할 수 있다. 일 실시예에서, 메모리(36)는 애니메이션 캐릭터 헤드(30)를 위한 명령어, 데이터, 및/또는 정보, 예를 들어 애니메이션 라이브러리(예컨대, 사운드 및/또는 제스처를 포함한 사용가능한 애니메이션들의 데이터베이스, 및 애니메이션에 영향을 미치는 대응하는 제어 명령어)를 저장하도록 구성될 수 있다. 하나의 실시예에서, 프로세서(36)는 입력(예를 들어, 기지국 제어 시스템(32)으로부터의 신호)을 수신하고, 그 수신된 신호에 기초하여 애니메이션 라이브러리로부터 적절한 애니메이션(예를 들어, 선택된 애니메이션)을 식별하고, 및/또는 수신된 입력에 기초하여 및/또는 선택된 애니메이션에 따라 디스플레이(42), 스피커(44), 액추에이터(46) 및/또는 광원(48)에 하나 이상의 적절한 제어 신호를 제공하도록 구성될 수 있다. 이러한 방식으로, 애니메이션 캐릭터 헤드(30)는 핸들러가 애니메이션 캐릭터 헤드(30)의 음성 및/또는 제스처를 제어하는 것을 허용할 수 있다. 애니메이션 라이브러리는 별도의 사운드 또는 작은 사운드 클립(예를 들어, 단일 단어, 경고음, 윙윙 거림), 별도의 제스처(예컨대, 미소 짓기, 찡그린 얼굴, 눈 깜박임) 및/또는 여러 소리 및 제스처의 조합(예컨대, 미소 및 눈 움직임을 포함하는 동작 프로필과 함께 여러 단어를 포함하는 인사)을 포함할 수 있다. 예를 들어, 기지국 제어 시스템(32)은 애니메이션 캐릭터 헤드(30)에 대해 이용 가능한 애니메이션의 선택 메뉴를 핸들러에게 제공할 수 있고, 핸들러는 미소를 선택하고 그런 다음 특정 인사말을 선택하기 위한 입력을 기지국 제어 시스템(32)에서 제공할 수 있다. 이어서, 애니메이션 캐릭터 헤드(30)의 프로세서(36)는 기지국 제어 시스템(32)으로부터 핸들러의 입력을 나타내는 신호를 수신하고, 라이브러리로부터 선택된 애니메이션에 액세스하고, 미소 및 특정 인사말을 달성하도록 액추에이터(46)를 제어할 수 있다.
애니메이션 캐릭터 헤드(30)는 본 명세서에 개시된 기술을 용이하게 하기 위해 다양한 특징을 포함할 수 있다. 예를 들어, 애니메이션 캐릭터 헤드(30)는 공연자를 모니터링하고 및/또는 공연자로부터 입력을 수신하도록 구성된 하나 이상의 센서(40)를 포함할 수 있다. 하나 이상의 센서(40)는 공연자의 눈 움직임을 모니터링하도록 구성된 눈 추적 센서, 공연자의 얼굴 움직임을 모니터링하도록 구성된 머신 비전 센서, 공연자로부터 음성 입력 또는 기타 가청 입력을 수신하도록 구성된 마이크로폰 또는 오디오 센서, 공연자로부터 물리적 또는 수동 입력을 수신하도록 구성된 물리적 입력 센서(예컨대, 스위치, 버튼, 동작 센서, 발 컨트롤 또는 웨어러블 입력 장치, 예컨대, myo 입력, 링 입력 또는 제스처 장갑)) 또는 이들의 조합을 포함할 수 있다. 입력은 프로세서(36)에 의해 처리되어 메모리(38)에 저장된 애니메이션 라이브러리로부터 애니메이션을 선택하고 및/또는 그렇지 않으면 애니메이션 캐릭터 헤드(30)를 통해 제공되는 애니메이션에 영향을 미친다. 예를 들어, 하나 이상의 센서(40)를 통한 특정 입력은 핸들러에 의한 선택을 거부 또는 취소할 수 있고 및/또는 특정 입력은 특정 애니메이션을 시작할 수 있다.
액추에이터(46)는 전기 기계 액추에이터(예를 들어, 선형 액추에이터, 회전식 액추에이터)와 같은 임의의 적절한 액추에이터일 수 있다. 액추에이터(46)는 애니메이션 캐릭터 헤드(30) 내부에 위치할 수 있고 애니메이션 캐릭터 헤드(30)의 특정 특징 또는 부분(예를 들어, 눈, 눈썹, 뺨, 입, 입술, 귀, 광 특징부)을 조정하도록 구성될 수 있다. 예를 들어, 회전식 액추에이터는 애니메이션 캐릭터 헤드(30)의 입술의 바깥 교두(cusps)를 따라 애니메이션 캐릭터 헤드(30) 내부에 위치하여 애니메이션 캐릭터 헤드(30)의 얼굴이 (예를 들어, 프로세서(36)로부터의) 제어 신호에 응답하여 미소를 짓게할 수 있다. 추가 예로서, 애니메이션 캐릭터 헤드(30)는 (예를 들어, 프로세서(36)로부터의) 제어 신호에 응답하여 애니메이션 캐릭터 헤드(30)의 눈썹의 위치를 (예를 들어, 찡그린 얼굴로) 구동하는 전기 선형 액추에이터를 포함할 수 있다.
도시된 바와 같이, 애니메이션 캐릭터 헤드(30)는 광원(48)을 포함할 수 있고, 광원(48)으로부터 방출된 광의 지속 시간, 밝기, 색상 및/또는 극성은 (예를 들어, 프로세서(36)로부터의) 제어 신호에 기초하여 제어될 수 있다. 일 실시예에서, 광원(48)은 예를 들어 애니메이션 캐릭터 헤드(30)의 얼굴 특징 또는 제스처에 대한 정지 이미지, 움직이는 이미지(예를 들어, 비디오) 또는 다른 가시적 표현을 디스플레이하기 위해, 애니메이션 캐릭터 헤드(30)의 스크린 또는 다른 표면에 광을 투사하도록 구성될 수 있다. 일부 실시예에서, 액추에이터(46) 및/또는 광원(48)은 애니메이션 캐릭터 헤드(30)가 다양한 투영된 얼굴 특징 또는 제스처, 애니마트로닉 얼굴 특징 또는 제스처, 또는 이들의 조합 중 임의의 것을 제공할 수 있게 할 수 있다.
일 실시예에서, 프로세서(36)는 사용 가능한 애니메이션의 표시(예를 들어, 메모리(38)의 라이브러리에 저장된 애니메이션 리스트), 선택된 애니메이션(예를 들어, 기지국 제어 시스템(32)으로부터의 입력에 기초하여 메모리(38)의 라이브러리로부터 프로세서(36)에 의해 선택됨)의 표시, 및/또는 애니메이션 캐릭터 헤드(30)를 착용한 공연자가 시각화하려는 기타 정보(예컨대, 이전 활동과 같은 사용자(26)에 관한 정보; 추천된 애니메이션)를 표시하도록 디스플레이(42)에게 지시할 수 있다. 예를 들어, 동작 중에, 디스플레이(42)는 이용가능한 애니메이션 리스트를 제공할 수 있고, 하나 이상의 센서(40)는 공연자가 이용가능한 애니메이션 리스트를 스크롤하고 및/또는 이용가능한 애니메이션 리스트로부터 애니메이션을 선택할 수 있도록 공연자로부터 입력을 획득할 수 있다(예를 들어, 눈 추적 센서는 공연자가 특정 눈 움직임으로 입력을 제공할 수 있게 할 수 있음). 일 실시예에서, 선택된 애니메이션은 디스플레이(42)에 표시될 수 있고, 선택된 애니메이션은 하나 이상의 센서(40)에 대한 다양한 입력을 통해(예를 들어, 마이크에 대고 말하거나 물리적 입력 센서를 작동시킴으로써) 공연자에 의해 확인, 변경, 수정, 전환, 지연 또는 삭제될 수 있고, 그에 따라 방문객과 상호 작용하는 동안 공연자에 의한 효율적인 업데이트를 가능하게 할 수 있다. 공연자는 선택에 대한 제어를 갖지 않을 수 있으며, 따라서 예를 들어 선택을 입력한다거나, 또는 하나 이상의 센서(40)를 통해 핸들러에 의해 행해진 선택을 변경하는 것을 못할 수 있다는 것을 이해해야 한다.
디스플레이(42)는 다양한 다른 정보를 제공하기 위해 이용될 수 있다. 예를 들어, 일부 실시예에서, 카메라(50)(예를 들어, 애니메이션 캐릭터 헤드(30)에 결합되거나 그로부터 물리적으로 분리됨)가 제공되어, 사용자(26), 주변 환경, 및/또는 현재 재생중인 애니메이션(예를 들어, 애니메이션 캐릭터 헤드(30)의 현재 움직임 또는 특징)의 이미지(예를 들어, 정지 이미지 또는 비디오와 같은 동영상)을 획득할 수 있는데, 이들 이미지는 공연자에게 정보 및/또는 피드백을 제공하기 위해 디스플레이(42)를 통해 표시되도록 (예를 들어, 트랜시버와 같은 무선 통신 장치를 통해) 애니메이션 캐릭터 헤드(30)에 중계될 수 있다. 일 실시예에서, 디스플레이(42)는 공연자가 착용한 증강 또는 가상 현실 안경의 일부일 수 있다.
일 실시예에서, 애니메이션 캐릭터 헤드(30)는 (예를 들어, 수행된 애니메이션이 선택된 애니메이션에 대응하지 않는지를 결정하기 위해) 컴포넌트 상태 및/또는 시스템 상태를 모니터링하도록 구성된 하나 이상의 상태 센서(52)를 포함할 수 있고, 상태의 표시는 디스플레이(42)를 통해 공연자에게 및/또는 기지국 제어 시스템(32)을 통해 핸들러에게 제공될 수 있다. 예를 들어, 상태 센서(52)는 각각의 액추에이터(46)와 연관되고, 액추에이터(46)가 제대로 작동하는지(선택된 애니메이션에 기초하여 예상된 방식으로 이동하는지) 여부를 나타낼 수 있는 각각의 액추에이터(46)의 위치 및/또는 움직임을 검출하도록 구성될 수 있다.
프로세서(36)는 본 명세서에 개시된 동작을 수행하기 위해 메모리(38)에 저장된 명령어를 실행할 수 있다. 이와 같이, 일 실시예에서, 프로세서(36)는 하나 이상의 범용 마이크로프로세서, 하나 이상의 ASIC(application specific processor), 하나 이상의 FPGA(field programmable logic array), 또는 이들의 임의의 조합을 포함할 수 있다. 추가적으로, 메모리(38)는 프로세서(36)에 의해 실행될 수 있는 명령어 및 프로세서(36)에 의해 처리될 데이터를 저장하는 유형의 비 일시적 컴퓨터 판독가능 매체일 수 있다. 따라서, 일부 실시예에서, 메모리(38)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 재기록 가능한 비 휘발성 메모리, 플래시 메모리, 하드 드라이브, 광 디스크 등을 포함할 수 있다.
기지국 제어 시스템(32)은 본 명세서에 개시된 기술을 용이하게 하기 위한 다양한 특징을 포함할 수 있다. 일 실시예에서, 핸들러는 입력을 제공하고 및/또는 애니메이션을 선택하기 위해 기지국 제어 시스템(32)에서 입력 장치(60)(예를 들어, 터치 스크린)를 이용할 수 있다. 이러한 경우, 핸들러의 선택 및/또는 기타 데이터는 통신 장치(62,64)를 통해 애니메이션 캐릭터 헤드(30)에 무선으로 또는 유선 연결을 통해 전송될 수 있다. 일 실시예에서, 핸들러는 애니메이션 캐릭터 헤드(30)로부터 시스템 상태 정보(예컨대, 상태 센서(52)에 의해 검출된 컴포넌트 고장의 표시, 완료된 애니메이션, 카메라(50)로부터의 이미지)를 수신한다. 일 실시예에서, 특정 액추에이터(46)가 제대로 기능하지 않는 경우, 특정 액추에이터(46)에 의존하는 애니메이션 선택은 이용가능한 애니메이션 리스트로부터 제거될 수 있고 및/또는 그와 달리 핸들러에 의한 선택시 액세스될 수 없게 될 수 있다.
일 실시예에서, 애니메이션 캐릭터 헤드(30) 및 기지국 제어 시스템(32)은 공연자와 핸들러가 통신(예컨대, 단방향 또는 양방향 통신을 통해 구두로 통신)할 수 있게 해주는 오디오 통신 장치(68,70)(예를 들어, 헤드셋 또는 마이크 및/또는 스피커를 갖는 다른 장치)를 포함할 수 있다. 이러한 경우, 핸들러는 핸들러의 현재 선택, 핸들러의 다음 선택, 사용자(26)에 대한 정보 등을 공연자에게 구두로 알릴 수 있다. 추가적으로, 공연자는 특정 애니메이션을 요청하는 것, 또는 선택된 애니메이션을 취소하기 위한 선호도를 표시하는 것 등을 할 수 있다.
도시된 실시예에서, 기지국 제어 시스템(32)의 제어기(72)는 메모리(76)에 저장된 명령어를 실행하여 동작들을 수행할 수 있는 프로세서(74)를 포함하는데, 이 동작들은 예를 들어 (입력 장치(60)로도 동작할 수 있는) 디스플레이(66) 상에서 애니메이션 캐릭터 헤드(30)에 대한 이용가능한 애니메이션의 선택 메뉴를 수신하는 것, 액세스하는 것 및/또는 디스플레이하는 것과, 선택된 애니메이션을 나타내는 신호를 애니메이션 캐릭터 헤드(30)에 제공하는 것을 포함할 수 있다. 이와 같이, 일 실시예에서, 프로세서(74)는 하나 이상의 범용 마이크로프로세서, 하나 이상의 ASIC(application specific processor), 하나 이상의 FPGA(field programmable logic array), 또는 이들의 임의의 조합을 포함할 수 있다. 추가로, 메모리(76)는 프로세서(74)에 의해 실행될 수 있는 명령어 및 프로세서(74)에 의해 처리될 데이터를 저장하는 유형의 비 일시적 컴퓨터 판독가능 매체일 수 있다. 따라서, 일부 실시예에서, 메모리(76)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 재기록 가능한 비 휘발성 메모리, 플래시 메모리, 하드 드라이브, 광 디스크 등을 포함할 수 있다.
또한, 통신 장치(62,64)를 통해, 제어기(34,72)는 서로 인터페이싱할 수 있고 및/또는 식별 시스템(12)의 컴포넌트와 같은 다양한 다른 전자 장치와 인터페이싱할 수 있다. 예를 들어, 통신 장치(62,64)를 통해, 제어기(34,72)는 PAN(personal area network), LAN(local area network) 및/또는 WAN(wide area network)과 같은 네트워크에 통신가능하게 연결될 수 있다. 위에서 언급한 바와 같이, 기지국 제어 시스템(32)은 또한 애니메이션의 선택 메뉴, 완료된 애니메이션, 상태 센서(52)에 의해 검출된 시스템 상태 및/또는 카메라(50)에 의해 획득된외부 이미지와 같은 정보 등의 디스플레이를 가능하게 하는 디스플레이(66)를 포함할 수 있다.
일 실시예에서, 애니메이션 캐릭터 시스템(14)은 식별 시스템(12)으로부터 독립적으로 또는 식별 시스템(12) 없이 동작하도록 구성된다. 예를 들어, 적어도 특정 시간에, 핸들러 및/또는 공연자는 놀이 공원 내에서 사용자(26)의 이전 활동에 관한 정보없이 사용자(26)와 상호작용하기 위해 애니메이션 캐릭터 헤드(30) 상에서 다양한 애니메이션을 재생하기 위한 입력을 제공할 수 있다. 일 실시예에서, 적어도 특정 다른 시간에, 핸들러 및/또는 공연자는 식별 시스템(12)으로부터 놀이 공원 내에서 사용자(26)의 이전 활동에 대한 정보(예를 들어, 사용자(26)가 라이드를 완료했다는 정보, 게임에서 포인트를 획득했다는 정보 또는 어트랙션을 방문했다는 정보)를 수신할 수 있고, 정보는 사용자(26)에게 고유하고 개인화된 상호작용 경험을 제공하기 위해 활용될 수 있다. 예를 들어, 식별 시스템(12)은 디스플레이(42, 66) 중 하나 또는 둘 모두에 시각화를 위한 정보를 제공할 수 있고, 또는 식별 시스템(12)은 디스플레이(66)상에 핸들러에 의해 시각화될 정보를 제공할 수 있고 핸들러는 오디오 통신 장치(68,70)를 사용하여 공연자에게 정보를 구두로 전달할 수 있다. 이 정보를 통해, 핸들러는 애니메이션 캐릭터 헤드(30)가 게임에서의 성취에 대해 사용자(26)를 축하하거나 또는 애니메이션 캐릭터 헤드(30)가 사용자(26)가 최근 라이드를 즐겼는지 사용자(26)에게 질문하는 인사말과 같은, 사용자에게 보다 적절한 애니메이션을 선택할 수 있다.
추가적으로 또는 대안적으로, 상호작용 시스템(10)의 식별 시스템(12) 및/또는 다른 처리 컴포넌트(예를 들어, 프로세서(74))는 놀이 공원 내에서 사용자(26)의 이전 활동에 대한 정보에 기초하여 사용자(26)를 위한 하나 이상의 관련 애니메이션을 결정할 수 있다. 일부 그러한 경우에, 식별 시스템(12) 및/또는 다른 처리 컴포넌트는 하나 이상의 관련 애니메이션을 선택하거나 재생하기 위한 추천을 제공할 수 있다. 추천은 디스플레이(42, 66) 중 하나 또는 둘 모두에서 하나 이상의 관련 애니메이션을 (예컨대, 색상, 글꼴 크기 또는 스타일, 스크린 상 또는 메뉴 내에서의 위치를 통해) 강조표시함으로써 제공될 수 있어서, 하나 이상의 관련 애니메이션의 선택을 용이하게 한다. 추가적으로 또는 대안적으로, 식별 시스템(12)은 기지국 제어 시스템(32)으로 하여금 특정 애니메이션을 선택하게 하고 및/또는 애니메이션 캐릭터 헤드(30)로 하여금 그 특정 애니메이션을 재생하게 할 수 있다(예를 들어, 사용자(26)가 최근에 라이드를 마친 경우, 프로세서(74)에서 수신된 식별 시스템(12)으로부터의 신호는 라이드와 관련된 인사말을 선택하게 할 수 있으며, 그 선택은 핸들러 및/또는 공연자에 의해 무시되거나 변경될 수도 있고 또는 그렇지 않을 수도 있다).
특히, 식별 시스템(12)은 놀이 공원 내에서 사용자의 활동을 모니터링하도록 동작한다. 일 실시예에서, 사용자(26)는 식별자(22)를 지원하는 웨어러블 장치(24)를 착용하거나 휴대할 수 있다. 사용자(26)가 판독기(20)에 근접한 영역(예를 들어, 판독기(20)의 판독 범위) 내에서 웨어러블 장치(24)를 가져오면, 판독기(20)는 식별자(22)를 검출하고 컴퓨팅 시스템(16)이 놀이 공원 내에서 사용자(26)의 활동을 모니터링하고 (예를 들어, 하나 이상의 데이터베이스(18)에) 기록할 수 있게 하는 신호를 컴퓨팅 시스템(16)에 제공할 수 있다. 예를 들어, 하나의 판독기(20)는 라이드(예를 들어, 롤러 코스터 또는 다른 유사한 어트랙션)의 출구에 위치할 수 있고, 판독기는 사용자(26)가 라이드에서 나갈 때 웨어러블 장치(24)에서 식별자(22)를 검출할 수 있다. 판독기(20)는 웨어러블 장치(24)가 라이드의 출구 부근에서 검출되었음을 나타내는 신호를 컴퓨팅 시스템(16)에 제공할 수 있고, 컴퓨팅 시스템(16)은 그 신호에 기초하여 사용자가 라이드를 마친 것으로 결정할 수 있고, 그런 다음 컴퓨팅 시스템(16)은 하나 이상의 데이터베이스(18)에 정보(예를 들어, 사용자가 라이드를 완료했다는 것)를 저장할 수 있다. 이러한 방식으로, 식별 시스템(12)은 사용자(26)가 놀이 공원을 둘러볼 때 사용자(26)의 다양한 활동을 모니터링할 수 있다.
그 후, 사용자(26)는 놀이 공원의 다른 부분에 위치할 수 있는 애니메이션 캐릭터 헤드(30)를 방문할 수 있다. 애니메이션 캐릭터 헤드(30)에 근접하게 위치한 다른 판독기(20)(예를 들어, 애니메이션 캐릭터 헤드(30)에 결합되고 및/또는 그 내부에 있고, 공연자에 의해 운반되거나, 기지국 제어 시스템(32)에 결합되거나, 또는 놀이 공원 내의 고정 구조 또는 특징부에 결합됨)는 사용자(26)가 애니메이션 캐릭터 헤드(30)에 접근함에 따라 웨어러블 장치(24)에서 식별자(22)를 검출할 수 있다. 다른 판독기(20)는 웨어러블 장치(24)가 애니메이션 캐릭터 헤드(30)에 근접하여 검출되었음을 나타내는 신호를 (예를 들어, 무선 또는 유선 연결을 통해) 컴퓨팅 시스템(16)에 제공할 수 있고, 컴퓨팅 시스템(16)은 그 신호에 기초하여 사용자(26)가 애니메이션 캐릭터 헤드(30)에 접근하고 있다고 결정할 수 있고, 컴퓨팅 시스템(16)은 그 후 하나 이상의 데이터베이스(18)에 저장된 정보에 액세스할 수 있고, 컴퓨팅 시스템(16)은 그 후 정보에 기초하여 사용자(26)에 대한 애니메이션 캐릭터 헤드(30)의 상호작용을 제어하거나 그에 영향을 미치는 출력을 제공할 수 있다. 예를 들어, 컴퓨팅 시스템(16)은 (예를 들어, 통신 장치(64,80)를 통해) 기지국 제어 시스템(32)과 통신할 수 있다. 그러한 일부 경우에, 컴퓨팅 시스템(16)은 기지국 제어 시스템(32)의 디스플레이(66)상에 정보 및/또는 추천 상호작용의 디스플레이를 야기하는 출력을 기지국 제어 시스템(32)에 제공할 수 있다. 그 다음, 핸들러는 예를 들어, 애니메이션 캐릭터 헤드(30)가 특정 문구를 말하게 하고 및/또는 (예컨대, 사용자(26)에 대한 정보에 관련된) 특정 제스처를 수행하게 하는 입력을 기지국 제어 시스템(32)에서 제공함으로써, 애니메이션 캐릭터 헤드 (30)에 대한 적절한 애니메이션을 선택할 수 있다. 그러한 일부 경우에, 컴퓨팅 시스템(16)은 애니메이션 캐릭터 헤드(30)의 디스플레이(42)상에 정보 및/또는 추천 상호작용의 디스플레이를 야기하는 출력을 애니메이션 캐릭터 헤드(30)에 제공할 수 있다. 일 실시예에서, 핸들러는 정보를 전달할 수 있고, 및/또는 예컨대, 공연자에게 (예를 들어, 양방향 무선 통신 시스템을 통해) 말함으로써 정보에 기초한 추천을 공연자에게 제공할 수 있다.
이러한 방식으로, 상호작용 시스템(10)은 사용자(26)와 애니메이션 캐릭터 헤드(30) 사이에 고유하고 개인화된 상호작용 경험을 제공할 수 있다. 상호작용 경험은 각 사용자(26)에 대해 상이할 수 있고 및/또는 사용자(26)가 애니메이션 캐릭터 헤드를 방문할 때마다 상이할 수 있다. 본 명세서에 개시된 특징, 기능 및/또는 기술 중 어떤 것이라도 식별 시스템(12), 애니메이션 캐릭터 헤드(30) 및 기지국 제어 시스템(32) 사이에서 임의의 적절한 방식으로 분배될 수 있다는 것을 이해해야 한다. 전술한 바와 같이, 애니메이션 캐릭터 시스템(14)은 식별 시스템(12)으로부터 독립적으로 또는 식별 시스템(12)없이 동작할 수 있다. 유사하게, 일 실시예에서, 애니메이션 캐릭터 헤드(30)는 기지국 제어 시스템(32)으로부터 독립적으로 또는 기지국 제어 시스템(32) 없이 동작할 수 있다. 따라서, 일부 그러한 경우에, 식별 시스템(12)은 애니메이션 캐릭터 헤드(30)에 직접 출력을 제공할 수 있다는 것을 이해해야 한다(예를 들어, 애니메이션 캐릭터 헤드(30)의 프로세서(36)는 식별 시스템(12)으로부터 직접 수신된 신호를 처리하여 라이브러리에서 애니메이션을 선택 및 재생할 수 있다).
본 명세서에 개시된 특정 예는 놀이 공원 내의 어트랙션(예를 들어, 라이드, 레스토랑, 캐릭터)과의 상호작용을 수반하는 활동과 관련된다. 일 실시예에서, 상호작용 시스템(10)은 고유하고 개인화된 상호작용을 제공하기 위해 놀이 공원 내에서의 활동 이외의 사용자(26)에 관한 정보를 수신하고 이용할 수 있다. 예를 들어, 상호작용 시스템(10)은 원격 위치(예를 들어, 홈 비디오 콘솔 또는 컴퓨팅 시스템과 같은 놀이 공원 내 이외의 위치)에서의 비디오 게임에서 사용자(26)의 수행 능력, 사용자(26)의 이름, 나이, 또는 (예를 들어, 등록 과정 또는 티켓 구매 과정 동안) 사용자(26)에 의해 제공되는 기타 정보 등에 대한 정보를 수신하고 활용할 수 있다. 일 실시예에서, 상호작용 시스템(10)은 사용자의 선호 언어, 사용자의 임의의 고유한 조건(예를 들어, 제한된 이동성, 제한된 청각, 큰 소리에 민감함) 등과 관련된 정보를 수신하고 활용할 수 있다. 예를 들어, 사용자(26)는 등록 과정을 완료하거나 웨어러블 장치(14)와 관련된 선호도 또는 기타 정보를 입력할 기회를 가질 수 있다. 사용자(26)가 애니메이션 캐릭터 헤드(30)에 접근하면, 선호도 또는 기타 정보가 핸들러 및/또는 공연자에게 제공될 수 있고, 애니메이션을 선택하는 데 사용될 수 있고 및/또는 추천 애니메이션을 결정하는 데 사용될 수 있다. 이러한 방식으로, 애니메이션 캐릭터 헤드(30)는 사용자(26)가 이해하고 및/또는 사용자(26)에 적합한 방식으로 사용자(26)와 상호작용하는 언어로 사용자(26)에게 말할 수 있다. 추가적으로, 도시된 상호 작용 시스템(10)은 단지 예시적인 것으로 의도되며, 개시된 실시예에 따라, 특정 특징 및 컴포넌트는 생략될 수 있고 다양한 다른 특징 및 컴포넌트가 수행을 용이하게 하기 위해 추가될 수 있다.
도시된 바와 같이, 컴퓨팅 시스템(16)은 본 명세서에 개시된 동작을 수행하기 위해 메모리(84)에 저장된 명령어를 실행하도록 구성된 프로세서(82)를 포함할 수 있다. 이와 같이, 일 실시예에서, 프로세서(82)는 하나 이상의 범용 마이크로프로세서, 하나 이상의 ASIC(application specific processor), 하나 이상의 FPGA(field programmable logic array), 또는 이들의 임의의 조합을 포함할 수 있다. 추가적으로, 메모리(84)는 프로세서(82)에 의해 실행될 수 있는 명령어 및 프로세서(82)에 의해 처리될 데이터를 저장하는 유형의 비 일시적 컴퓨터 판독 가능 매체일 수 있다. 따라서, 일부 실시예에서, 메모리(84)는 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 재기록 가능한 비휘발성 메모리, 플래시 메모리, 하드 드라이브, 광 디스크 등을 포함할 수 있다.
도 2는 일 실시예에 따른 상호작용 시스템(10)을 포함하는 놀이 공원(100)의 개략도이다. 도시된 바와 같이, 다수의 사용자(26A,26B)는 놀이 공원(100)을 돌아다니고 각각의 식별자(22A,22B)를 지원하는 각각의 웨어러블 장치(24A,24B)를 착용한다. 식별 시스템(12)은 도 1과 관련하여 위에서 설명된 방식으로 다수의 사용자(26A,26B)를 모니터링한다. 애니메이션 캐릭터 시스템(14)은 공연자가 착용한 애니메이션 캐릭터 헤드(30) 및 핸들러가 운영하는 기지국 제어 시스템(32)을 포함하고, 애니메이션 캐릭터 시스템(14)은 고유하고 개인화된 경험을 각 사용자(26A,26B)에 제공하기 위해 식별 시스템(12)으로부터 정보를 수신할 수 있다.
도 2를 참조하면. 작동 중에, 식별 시스템(12)은 제1 판독기(20A)를 통해 레스토랑(102)에서 제1 사용자(26A)를 검출하고, 제2 판독기(20B)를 통해 라이드(104)에서 제2 사용자(26B)를 검출할 수 있다. 보다 구체적으로, 각각의 판독기(20A,20B)는 각각의 웨어러블 장치(24A,24B)에서 지원되는 식별자(22A,22B)로부터 고유 식별 코드 또는 번호를 판독할 수 있다. 판독기(20A,20B)는 사용자(24A,24B)의 검출을 나타내는 각각의 신호를 컴퓨팅 시스템(16)에 제공할 수 있으며, 이 컴퓨팅 시스템(16)은 활동을 결정하고 하나 이상의 데이터베이스(18)에 기록한다.
나중에, 각 사용자(26A, 26B)는 애니메이션 캐릭터 헤드(30)에 접근할 수 있다. 제1 사용자(26A)가 애니메이션 캐릭터 헤드(30)에 근접하게 위치한 제3 판독기(20C)의 범위 내에 있을 때, 제3 판독기(20C)는 제1 사용자(24A)의 검출을 나타내는 신호를 컴퓨팅 시스템(16)에 제공할 수 있다. 이에 응답하여, 컴퓨팅 시스템(16)은 놀이 공원(100) 내에서의 제1 사용자(26A)의 이전 활동에 관한 정보를 기지국 제어 시스템(32)에 제공할 수 있다. 예를 들어, 컴퓨팅 시스템(16)은 제1 사용자(26A)가 최근 레스토랑(102)을 방문했음을 나타내는 정보를 제공할 수 있고, 기지국 제어 시스템(32)은 핸들러에 의한 시각화를 위해 디스플레이(66)상에 정보를 제공할 수 있다. 따라서, 핸들러는 제1 사용자(26A)가 레스토랑(102)에서 식사를 즐겼는지 여부를 제1 사용자(26A)에게 묻는 것과 같이, 제1 사용자(26A)의 레스토랑 방문과 관련된 애니메이션을 선택할 것을 안내받는다. 위에서 언급한 바와 같이, 정보는 제1 사용자(26A)에게 고유한 맞춤형 상호작용 경험을 제공하도록 다양한 다른 방식으로 통신 및/또는 활용될 수 있다. 예를 들어, 일 실시예에서, 컴퓨팅 시스템(16)은 추가로 또는 대안적으로 기지국 제어 시스템(32)에 추천 애니메이션을 결정하고 제공할 수 있거나, 기지국 제어 시스템(32)은 핸들러에 의한 선택을 용이하게 하기 위해 하나 이상의 관련 애니메이션을 결정할 수 있다.
유사하게, 제2 사용자(26B)가 애니메이션 캐릭터 헤드(30)에 근접하게 위치한 제3 판독기(20C)의 범위 내에 있을 때, 제3 판독기(20C)는 컴퓨팅 시스템(16)에 제2 사용자(24B)의 검출을 나타내는 신호를 제공할 수 있다. 이에 응답하여, 컴퓨팅 시스템(16)은 놀이 공원(100) 내에서의 제2 사용자(26B)의 이전 활동에 관한 정보를 기지국 제어 시스템(32)에 제공할 수 있다. 예를 들어, 컴퓨팅 시스템(16)은 제2 사용자(26B)가 최근에 라이드(104)를 방문했음을 나타내는 정보를 제공할 수 있고, 기지국 제어 시스템(32)은 핸들러에 의한 시각화를 위해 디스플레이(66)상에 정보를 제공할 수 있다. 따라서, 핸들러는 제2 사용자(26B)가 라이드(104)를 즐겼는지 여부를 제2 사용자(26B)에게 질문하는 것과 같이, 제2 사용자(26B)의 라이드 방문과 관련된 애니메이션을 선택하도록 안내받을 수 있다. 위에서 언급한 바와 같이, 정보는 제2 사용자(26B)에게 고유한 맞춤형 상호작용 경험을 제공하도록 다양한 다른 방식으로 전달 및/또는 활용될 수 있다. 예를 들어, 일 실시예에서, 컴퓨팅 시스템(16)은 추가적으로 또는 대안적으로 추천 애니메이션을 결정하고 제공할 수 있거나, 기지국 제어 시스템(32)은 핸들러에 의한 선택을 용이하게 하기 위해 하나 이상의 관련 애니메이션을 결정할 수 있다.
또한, 제3 판독기(20C)는 사용자(24A, 24B)의 검출을 나타내는 각각의 신호를 컴퓨팅 시스템(16)에 제공할 수 있고 이 컴퓨팅 시스템(16)은 애니메이션 캐릭터 헤드(30)와의 상호작용을 결정하고 하나 이상의 데이터베이스(18)에 기록한다는 것을 이해해야 한다. 따라서, (예컨대, 레스토랑(102), 라이드(104), 또는 다른 애니메이션 캐릭터 헤드와의 상호작용을 포함하는 다른 어트랙션에서의) 후속 활동은 애니메이션 캐릭터 헤드와의 사용자(24A,24B)의 상호작용에 따라 달라질 수 있다. 예를 들어, 게임 어트랙션은 애니메이션 캐릭터 헤드(30)와의 사용자(24A,24B)의 상호작용을 포함하는 사용자(24A, 24B)의 목표달성에 기초하여 게임 요소를 조정할 수 있다. 일 실시예에서, 다른 핸들러는 애니메이션 캐릭터 헤드(30)와의 사용자(24A,24B)의 이전 상호작용에 기초하여 다른 애니메이션 캐릭터 헤드에 대한 애니메이션을 선택하도록 안내받을 수 있다. 유사하게, 사용자(24A,24B)가 애니메이션 캐릭터 헤드(30)를 (예를 들어, 같은 날에, 또는 1년 이상이 지난 시점을 포함한 임의의 이후에) 재방문한 경우, 애니메이션 캐릭터 시스템(14)은 동일한 어구(들)를 반복하는 것을 피하고, 이전 상호작용을 바탕으로 구축하거나, 또는 사용자(26)의 인식(예컨대, "다시 만나서 반갑습니다"또는 "작년 이후로 본 적이 없습니다."를 말함)을 나타내는 방식으로 작동할 수 있다. 예를 들어, 이전에 말한 어구의 일부 또는 전부가 인벤토리에서 제거될 수 있으며(예컨대, 핸들러에게 어구를 재생할 수 있는 옵션이 제공되지 않음), 사용자(26)가 애니메이션 캐릭터 헤드(30)에 접근함에 따라 기지국 제어 시스템(32)을 통해 핸들러에게 보여질 수 있는 초기 스크린 상에서는 핸들러에게 제시되지 않을 것이며, 및/또는 이전에 말한 것으로 표시되거나 강조될 것이다.
도 3은 일 실시예에 따른 상호작용 시스템(10)을 동작시키는 방법(110)의 흐름도이다. 방법(110)은 도 1에 도시된 블록 및 참조 컴포넌트로 표현되는 다양한 단계를 포함한다. 방법(110)의 특정 단계는 상호작용 시스템(10) 내에서 사용될 수 있는 컴퓨팅 시스템(16)과 같은 시스템에 의해 자동화된 절차로서 수행될 수 있다. 흐름도는 특정 순서로 단계를 예시하지만, 단계는 임의의 적절한 순서로 수행될 수 있고, 특정 단계가 동시에 수행될 수 있고, 및/또는 적절한 경우 특정 단계가 생략될 수 있고, 다른 단계가 추가될 수 있음을 이해해야 한다. 또한, 방법(110)의 특정 단계 또는 부분은 별도의 장치에 의해 수행될 수 있다.
단계(112)에서, 컴퓨팅 시스템(16)은 놀이 공원 내에서 사용자(26)의 활동을 추적(예를 들어, 검출 및 기록)한다. 일 실시예에서, 사용자(26)는 식별자(22)를 지원하는 웨어러블 장치(24)를 착용하거나 휴대할 수 있다. 사용자(26)가 웨어러블 장치(24)를 판독기(20)의 범위 내에 가져 오면, 판독기(20)는 식별자를 검출할 수 있고 컴퓨팅 시스템(16)이 놀이 공원 내에서 사용자(26)의 활동을 검출하고 (예를 들어, 하나 이상의 데이터베이스(18)에) 기록할 수 있도록 하는 신호를 컴퓨팅 시스템(16)에 신호를 제공한다.
단계(114)에서, 컴퓨팅 시스템(16)은 애니메이션 캐릭터 헤드(30)에 근접한 하나 이상의 판독기(20)로부터 사용자(26)의 웨어러블 장치(24)에서 식별자(22)의 검출을 나타내는 신호를 수신한다. 컴퓨팅 시스템(16)은 사용자(26)가 그 신호에 기초하여 애니메이션 캐릭터 헤드(30)에 접근하고 있다는 것을 알 수 있다.
단계(116)에서, 단계(114)에서의 신호 수신에 응답하여, 컴퓨팅 시스템(16)은 사용자의 활동과 관련된 정보에 액세스하고 기지국 제어 시스템(32)에 제공하여 사용자(26)에 대한 애니메이션 캐릭터 헤드(30)의 상호작용을 제어하거나 그에 영향을 미칠 수 있다. 예를 들어, 컴퓨팅 시스템(16)은 기지국 제어 시스템(32)의 디스플레이(66) 상에 정보 및/또는 추천 상호작용의 디스플레이를 야기하는 출력을 기지국 제어 시스템(32)에 제공할 수 있다. 그 다음, 핸들러는 예를 들어 애니메이션 캐릭터 헤드(30)가 특정 어구를 말하고 및/또는 특정 제스처(예를 들어, 사용자(26)에 관한 정보와 관련됨)를 수행하게 하는 입력을 기지국 제어 시스템(32)에 제공함으로써 애니메이션 캐릭터 헤드(30)에 대한 적절한 애니메이션을 선택할 수 있다. 이러한 방식으로, 상호작용 시스템(10)은 사용자(26)와 애니메이션 캐릭터 헤드(30) 사이에 고유하고 개인화된 상호작용 경험을 제공할 수 있다.
도 4는 일 실시예에 따른 상호작용 시스템(10)(도 1)에서 사용될 수 있는 애니메이션 캐릭터 헤드(30)의 측 단면도 및 기지국 제어 시스템(32)의 정면도이다. 도시된 바와 같이, 애니메이션 캐릭터 헤드(30)는 공연자의 머리를 수용 및/또는 둘러싸도록 구성된 개구(120) 및 사용자(26)(도 1)가 볼 수 있는 외부 표면(122)(예를 들어, 얼굴)을 포함한다. 외부 표면(122)은 제어 신호(예를 들어, 도 1의 프로세서(36)로부터 수신됨)에 기초하여 각각의 액추에이터(46)를 통해 작동될 수 있는 눈썹(124) 및 콧수염(128)과 같은 다양한 특징을 지원할 수 있다. 일 실시예에서, 스크린(130)은 애니메이션 캐릭터 헤드(30) 주위에 위치하여 특정 제스처 및/또는 특징부, 예컨대, 눈(132) 및 입(134)이 광 투사를 통해 스크린(130) 상에 디스플레이되게 할 수 있다. 전술한 바와 같이, 광원(48)은 제어 신호(예를 들어, 도 1의 프로세서(36)로부터 수신됨)의 수신에 응답하여 이러한 제스처 및/또는 특징부를 디스플레이하기 위해 광을 스크린(130) 상으로 투사하도록 제공될 수 있다. 도시되어 있는 바와 같이, 애니메이션 캐릭터 헤드(30)는 다른 컴포넌트들 중에서 디스플레이(42), 하나 이상의 센서(40) 및 오디오 통신 장치(68)를 포함할 수 있다.
애니메이션 캐릭터 헤드(30)는 기지국 제어 시스템과 함께 사용될 수 있다. 도시된 바와 같이, 기지국 제어 시스템(32)의 디스플레이(66)는 애니메이션 캐릭터 헤드(30)에 대해 이용 가능한 애니메이션의 선택 메뉴를 보여준다. 일 실시예에서, 애니메이션은 애니메이션 캐릭터 헤드(30)와 상호작용하는 사용자(26)(도 1)와의 관련된 순서대로 배열될 수 있고 및/또는 특정 관련 애니메이션은 고유하고 개인화된 상호 작용을 생성하는 데 핸들러를 지원하기 위해 강조된다. 디스플레이(66)는 또한 사용자(26)(도 1)의 이전 활동과 같은 사용자(26)(도 1)와 관련된 정보를 제공할 수 있다. 핸들러는 (예를 들어, 디스플레이(66)의 대응하는 영역을 터치함으로써) 선택을 할 수 있고, 이 선택은 특정 애니메이션을 재생하도록 애니메이션 캐릭터 헤드(30)에 전달될 수 있다. 도 4의 기지국 제어 시스템(32)의 디스플레이(66)에 도시된 요소들은 추가적으로 또는 대안적으로 애니메이션 캐릭터 헤드(30)의 디스플레이(42) 상에 보여질 수 있음을 알아야 한다.
식별 시스템은 설명을 용이하게 하기 위해 무선 주파수 식별(RFID) 시스템으로 개시되지만, 식별 시스템은 환경(예를 들어, 놀이 공원) 내에 위치한 식별 장치(예를 들어, 송수신기, 수신기, 센서, 스캐너)가 사용자의 장치에서 식별자를 검출할 수 있게 해주는 블루투스 시스템(예를 들어, 블루투스 저에너지 [BLE] 시스템)과 같은 다양한 추적 또는 식별 기술 중 임의의 것일 수 있거나 이를 포함할 수 있음을 이해해야 한다. 추가로, 본 개시의 특정 특징만이 본 명세서에 예시되고 설명되었지만, 당업자에게는 많은 수정 및 변경이 발생할 것이다. 또한, 본 명세서에 개시된 다양한 실시예의 컴포넌트는 서로 결합되거나 교환될 수 있다. 따라서, 첨부된 청구 범위는 본 개시의 진정한 사상 내에 있는 이러한 모든 수정 및 변경을 포함하도록 의도된 것임을 이해해야 한다.
본 명세서에 제시되고 청구된 기술들은 본 기술 분야를 명백히 개선하는 실제 특성의 중요한 목적들 및 구체적인 예들에 참조 및 적용되며, 따라서 추상적이지도, 무형적이지도, 순전히 이론적이지도 않다. 또한, 본 명세서의 끝에 첨부된 임의의 청구항들이 "...[기능]을 [수행]하기 위한 수단" 또는 "...[기능]을 [수행]하기 위한 단계"로서 표시되는 하나 이상의 요소를 포함하는 경우, 그러한 요소들은 35 U.S.C. 112(f)에 따라 해석되어야 할 것이다. 그러나, 임의의 다른 방식으로 지정되는 요소들을 포함하는 임의의 청구항들의 경우, 그러한 요소들은 35 U.S.C. 112(f)에 따라 해석되지 않아야 할 것이다.
실시예 1: 상호작용 시스템으로서, 하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는, 놀이 공원 내에서 사용자의 이전 활동과 관련된 데이터를 수신하고, 상기 사용자의 이전 활동에 기초하여 문구의 목록(an inventory of phrases)을 생성하고, 애니메이션 캐릭터 헤드와 상기 사용자 사이의 개인화된 상호작용을 용이하게 하기 위해 상기 애니메이션 캐릭터 헤드와 연관된 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하며, 상기 사용자와의 상기 개인화된 상호작용 동안 상기 문구의 목록에서의 문구가 상기 애니메이션 캐릭터 헤드에 의해 말해지는 것에 응답하여 상기 문구의 목록 상기 문구를 제거하여 업데이트된 문구의 목록을 생성함으로써 상기 사용자와의 미래의 개인화된 상호작용 동안 상기 문구가 상기 애니메이션 캐릭터 헤드에 의해 말해질 수 없게 하도록 구성된다.
실시예 2: 실시예 1에 있어서, 상기 사용자의 이전 활동은 사용자가 어트랙션을 방문한 것을 포함한다.
실시예 3: 실시예 1에 있어서, 상기 하나 이상의 프로세서는, 상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하고, 상기 신호의 수신에 응답하여 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하도록 구성된다.
실시예 4: 실시예 1에 있어서, 상기 데이터는 상기 사용자가 상기 놀이 공원의 어트랙션에서 퇴장했음을 나타내며, 상기 하나 이상의 프로세서는, 상기 사용자가 상기 놀이 공원의 어트랙션을 퇴장한 후 상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하고 있음을 나타내는 신호를 수신하고, 상기 신호의 수신에 응답하여 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하도록 구성되고, 상기 문구의 목록의 적어도 하나의 문구는 상기 어트랙션과 관련된다.
실시예 5: 실시예 1에 있어서, 상기 놀이 공원의 어트랙션 내에 위치하는 식별 장치를 포함하되, 상기 식별 장치는 상기 사용자의 웨어러블 장치에 의해 지원되는 식별자의 검출에 응답하여 상기 데이터를 생성하도록 구성된다.
실시예 6: 실시예 5에 있어서, 상기 식별 장치는 무선 주파수 식별(RFID) 판독기를 포함하고, 상기 식별자는 RFID 태그를 포함한다.
실시예 7: 실시예 1에 있어서, 상기 하나 이상의 프로세서는, 상기 이전 활동에 기초하여 상기 문구의 목록에서 권장 문구를 결정하고, 핸들러에 의한 시각화를 위해 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이에서 상기 권장 문구를 강조 표시하도록 구성된다.
실시예 8: 실시예 1에 있어서, 상기 기지국 제어 시스템 및 상기 애니메이션 캐릭터 헤드를 포함하되, 상기 기지국 제어 시스템 및 상기 애니메이션 캐릭터 헤드는 상기 기지국 제어 시스템을 운영하는 핸들러가 상기 애니메이션 캐릭터 헤드를 착용하고 있는 공연자와 구두로 통신할 수 있도록 하는 각각의 오디오 통신 장치를 포함한다.
실시예 9: 실시예 1에 있어서, 상기 기지국 제어 시스템을 포함하되, 상기 기지국 제어 시스템은 핸들러로부터 상기 문구를 선택하기 위한 선택 입력을 수신하도록 구성되고, 상기 기지국 제어 시스템은 상기 선택 입력을 상기 애니메이션 캐릭터 헤드에 전달하도록 구성된다.
실시예 10: 실시예 9에 있어서, 상기 문구를 선택하기 위한 상기 선택 입력은 상기 애니메이션 캐릭터 헤드의 스피커가 상기 문구를 오디오로 출력하도록 구성된다.
실시예 11: 상호작용 시스템으로서, 사용자의 웨어러블 장치에 의해 지원되는 식별자를 검출하도록 구성된 하나 이상의 식별 장치와, 하나 이상의 프로세서를 포함하되, 상기 하나 이상의 프로세서는, 상기 하나 이상의 식별 장치로부터 수신된 각각의 신호에 기초하여 놀이 공원 내에서 상기 사용자의 활동을 모니터링하고, 상기 사용자가 애니메이션 캐릭터 헤드에 접근하고 있음을 나타내는, 상기 하나 이상의 식별 장치 중의 적어도 하나의 식별 장치로부터의 각 신호에 응답하여, 상기 애니메이션 캐릭터 헤드에 사용 가능한 문구의 목록에 액세스하고, 상기 사용자의 모니터링된 활동에 기초하여 상기 문구의 목록을 수정하여 개인화된 문구의 목록을 생성하며, 상기 애니메이션 캐릭터 헤드와 상기 사용자 간의 개인화된 상호작용을 용이하게 하기 위해 상기 개인화된 문구의 목록을 디스플레이 화면에 표시할 것을 지시하도록 구성된다.
실시예 12: 실시예 11에 있어서, 상기 하나 이상의 프로세서는,상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 하나 이상의 이전 상호작용 동안 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전 문구를 식별하고, 상기 이전에 말한 하나 이상의 문구를 제외함으로써 상기 문구의 목록을 수정하여 상기 개인화된 문구의 목록을 생성하도록 구성된다.
실시예 13: 실시예 11에 있어서, 상기 하나 이상의 프로세서는, 상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 하나 이상의 이전 상호작용 동안, 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전에 말한 문구를 식별하고, 상기 디스플레이 화면에서 상기 이전에 말한 하나 이상의 문구가 강조 표시되도록 하면서 상기 개인화된 문구의 목록을 디스플레이할 것을 지시하도록 구성된다.
실시예 14: 실시예 11에 있어서, 상기 하나 이상의 식별 장치는 하나 이상의 무선 주파수 식별(RFID) 판독기를 포함하고, 상기 식별자는 RFID 태그를 포함한다.
실시예 15: 실시예 11에 있어서, 상기 모니터링되는 활동은 상기 놀이 공원의 어트랙션 내의 성취를 포함한다.
실시예 16: 실시예 15에 있어서, 상기 하나 이상의 프로세서는 상기 어트랙션 내의 성취를 나타내는 정보를 디스플레이할 것을 지시하도록 구성된다.
실시예 17: 방법으로서, 하나 이상의 프로세서에서, 사용자가 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하는 단계와, 상기 하나 이상의 프로세서를 사용하여, 상기 사용자의 이전 활동과 관련된 데이터에 액세스하는 단계와, 상기 애니메이션 캐릭터 헤드와 상기 사용자 간의 하나 이상의 이전 상호 작용 동안 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전에 말한 문구를 식별하는 단계와, 상기 사용자의 이전 활동과 관련된 데이터에 기초하여 상기 하나 이상의 이전에 말한 문구를 제외한 문구의 목록을 생성하는 단계와, 상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 개인화된 상호작용을 용이하게 하기 위해 디스플레이 화면을 통해 상기 문구의 목록을 표시하도록 지시하는 단계를 포함한다.
실시예 18: 실시예 17에 있어서, 상기 사용자의 웨어러블 장치에 의해 지원되는 식별자를 검출하도록 구성된 식별 장치로부터 상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하는 단계를 포함한다.
실시예 19: 실시예 17에 있어서, 상기 사용자의 사전 활동은 상기 사용자가 라이드 어트랙션을 방문한 것을 포함한다.
실시예 20: 실시예 17에 있어서, 상기 하나 이상의 프로세서를 사용하여, 상기 사용자가 선호하는 언어에 액세스하는 단계를 포함하되, 상기 문구의 목록은 상기 사용자가 선호하는 언어로 된 하나 이상의 문구를 포함한다.

Claims (20)

  1. 상호작용 시스템으로서,
    하나 이상의 프로세서를 포함하되,
    상기 하나 이상의 프로세서는,
    놀이 공원 내에서 사용자의 이전 활동과 관련된 데이터를 수신하고,
    상기 사용자의 이전 활동에 기초하여 문구의 목록(an inventory of phrases)을 생성하고, 애니메이션 캐릭터 헤드와 상기 사용자 사이의 개인화된 상호작용을 용이하게 하기 위해 상기 애니메이션 캐릭터 헤드와 연관된 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하며,
    상기 사용자와의 상기 개인화된 상호작용 동안 상기 문구의 목록에서의 문구가 상기 애니메이션 캐릭터 헤드에 의해 말해지는 것에 응답하여 상기 문구의 목록에서 상기 문구를 제거하여 업데이트된 문구의 목록을 생성함으로써 상기 사용자와의 미래의 개인화된 상호작용 동안 상기 문구가 상기 애니메이션 캐릭터 헤드에 의해 말해질 수 없게 하도록 구성되는,
    상호작용 시스템.
  2. 제1항에 있어서,
    상기 사용자의 이전 활동은 상기 사용자가 어트랙션을 방문한 것을 포함하는,
    상호작용 시스템.
  3. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하고,
    상기 신호의 수신에 응답하여 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하도록 구성된,
    상호작용 시스템.
  4. 제1항에 있어서,
    상기 데이터는 상기 사용자가 상기 놀이 공원의 어트랙션에서 퇴장했음을 나타내며, 상기 하나 이상의 프로세서는,
    상기 사용자가 상기 놀이 공원의 어트랙션을 퇴장한 후 상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하고 있음을 나타내는 신호를 수신하고,
    상기 신호의 수신에 응답하여 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이를 지시하도록 구성되고, 상기 문구의 목록의 적어도 하나의 문구는 상기 어트랙션과 관련된,
    상호작용 시스템.
  5. 제1항에 있어서,
    상기 놀이 공원의 어트랙션 내에 위치하는 식별 장치를 포함하되, 상기 식별 장치는 상기 사용자의 웨어러블 장치에 의해 지원되는 식별자의 검출에 응답하여 상기 데이터를 생성하도록 구성되는,
    상호작용 시스템.
  6. 제5항에 있어서,
    상기 식별 장치는 무선 주파수 식별(RFID) 판독기를 포함하고, 상기 식별자는 RFID 태그를 포함하는,
    상호작용 시스템.
  7. 제1항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 이전 활동에 기초하여 상기 문구의 목록에서 권장 문구를 결정하고, 핸들러에 의한 시각화를 위해 상기 기지국 제어 시스템에서 상기 문구의 목록의 디스플레이에서 상기 권장 문구를 강조 표시하도록 구성된,
    상호작용 시스템.
  8. 제1항에 있어서,
    상기 기지국 제어 시스템 및 상기 애니메이션 캐릭터 헤드를 포함하되, 상기 기지국 제어 시스템 및 상기 애니메이션 캐릭터 헤드는 상기 기지국 제어 시스템을 운영하는 핸들러가 상기 애니메이션 캐릭터 헤드를 착용하고 있는 공연자와 구두로 통신할 수 있도록 하는 각각의 오디오 통신 장치를 포함하는,
    상호작용 시스템.
  9. 제1항에 있어서,
    상기 기지국 제어 시스템을 포함하되, 상기 기지국 제어 시스템은 핸들러로부터 상기 문구를 선택하기 위한 선택 입력을 수신하도록 구성되고, 상기 기지국 제어 시스템은 상기 선택 입력을 상기 애니메이션 캐릭터 헤드에 전달하도록 구성된,
    상호작용 시스템.
  10. 제9항에 있어서,
    상기 문구를 선택하기 위한 상기 선택 입력은 상기 애니메이션 캐릭터 헤드의 스피커가 상기 문구를 오디오로 출력하도록 구성된,
    상호작용 시스템.
  11. 상호작용 시스템으로서,
    사용자의 웨어러블 장치에 의해 지원되는 식별자를 검출하도록 구성된 하나 이상의 식별 장치와,
    하나 이상의 프로세서를 포함하되,
    상기 하나 이상의 프로세서는,
    상기 하나 이상의 식별 장치로부터 수신된 각각의 신호에 기초하여 놀이 공원 내에서 상기 사용자의 활동을 모니터링하고,
    상기 사용자가 애니메이션 캐릭터 헤드에 접근하고 있음을 나타내는, 상기 하나 이상의 식별 장치 중의 적어도 하나의 식별 장치로부터의 각 신호에 응답하여, 상기 애니메이션 캐릭터 헤드에 사용 가능한 문구의 목록에 액세스하고,
    상기 사용자의 모니터링된 활동에 기초하여 상기 문구의 목록을 수정하여 개인화된 문구의 목록을 생성하며,
    상기 애니메이션 캐릭터 헤드와 상기 사용자 간의 개인화된 상호작용을 용이하게 하기 위해 상기 개인화된 문구의 목록을 디스플레이 화면에 표시할 것을 지시하도록 구성된,
    상호작용 시스템.
  12. 제11항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 하나 이상의 이전 상호작용 동안 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전 문구를 식별하고,
    상기 이전에 말한 하나 이상의 문구를 제외함으로써 상기 문구의 목록을 수정하여 상기 개인화된 문구의 목록을 생성하도록 구성된,
    상호작용 시스템.
  13. 제11항에 있어서,
    상기 하나 이상의 프로세서는,
    상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 하나 이상의 이전 상호작용 동안, 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전에 말한 문구를 식별하고,
    상기 디스플레이 화면에서 상기 이전에 말한 하나 이상의 문구가 강조 표시되도록 하면서 상기 개인화된 문구의 목록을 디스플레이할 것을 지시하도록 구성된,
    상호작용 시스템.
  14. 제11항에 있어서,
    상기 하나 이상의 식별 장치는 하나 이상의 무선 주파수 식별(RFID) 판독기를 포함하고, 상기 식별자는 RFID 태그를 포함하는,
    상호작용 시스템.
  15. 제11항에 있어서,
    상기 모니터링되는 활동은 상기 놀이 공원의 어트랙션 내의 성취를 포함하는,
    상호작용 시스템.
  16. 제15항에 있어서,
    상기 하나 이상의 프로세서는 상기 어트랙션 내의 성취를 나타내는 정보를 디스플레이할 것을 지시하도록 구성된,
    상호작용 시스템.
  17. 하나 이상의 프로세서에서, 사용자가 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하는 단계와,
    상기 하나 이상의 프로세서를 사용하여, 상기 사용자의 이전 활동과 관련된 데이터에 액세스하는 단계와,
    상기 애니메이션 캐릭터 헤드와 상기 사용자 간의 하나 이상의 이전 상호 작용 동안 상기 애니메이션 캐릭터 헤드가 이전에 상기 사용자에게 말한 하나 이상의 이전에 말한 문구를 식별하는 단계와,
    상기 사용자의 이전 활동과 관련된 데이터에 기초하여 상기 하나 이상의 이전에 말한 문구를 제외한 문구의 목록을 생성하는 단계와,
    상기 애니메이션 캐릭터 헤드와 상기 사용자 사이의 개인화된 상호작용을 용이하게 하기 위해 디스플레이 화면을 통해 상기 문구의 목록을 표시하도록 지시하는 단계를 포함하는,
    방법.
  18. 제17항에 있어서,
    상기 사용자의 웨어러블 장치에 의해 지원되는 식별자를 검출하도록 구성된 식별 장치로부터 상기 사용자가 상기 애니메이션 캐릭터 헤드에 접근하는 것을 나타내는 신호를 수신하는 단계를 포함하는,
    방법.
  19. 제17항에 있어서,
    상기 사용자의 사전 활동은 상기 사용자가 라이드 어트랙션을 방문한 것을 포함하는,
    방법.
  20. 제17항에 있어서,
    상기 하나 이상의 프로세서를 사용하여, 상기 사용자가 선호하는 언어에 액세스하는 단계를 포함하되, 상기 문구의 목록은 상기 사용자가 선호하는 언어로 된 하나 이상의 문구를 포함하는,
    방법.
KR1020247010881A 2018-03-29 2019-02-06 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법 KR20240046647A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US15/939,887 2018-03-29

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020207031203A Division KR102655147B1 (ko) 2018-03-29 2019-02-06 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20240046647A true KR20240046647A (ko) 2024-04-09

Family

ID=

Similar Documents

Publication Publication Date Title
KR102655147B1 (ko) 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법
KR102306624B1 (ko) 지속적 컴패니언 디바이스 구성 및 전개 플랫폼
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
EP3381175B1 (en) Apparatus and method for operating personal agent
US20170206064A1 (en) Persistent companion device configuration and deployment platform
US10391636B2 (en) Apparatus and methods for providing a persistent companion device
KR102400398B1 (ko) 애니메이션 캐릭터 헤드 시스템 및 방법
WO2016011159A1 (en) Apparatus and methods for providing a persistent companion device
US20210151154A1 (en) Method for personalized social robot interaction
US20230152891A1 (en) Information processing device and information processing terminal
KR20240046647A (ko) 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법
JP6884854B2 (ja) 音声提供装置、音声提供方法及びプログラム
WO2018183812A1 (en) Persistent companion device configuration and deployment platform