JP7489388B2 - 物体追跡アニメ人物システム及び方法 - Google Patents

物体追跡アニメ人物システム及び方法 Download PDF

Info

Publication number
JP7489388B2
JP7489388B2 JP2021533556A JP2021533556A JP7489388B2 JP 7489388 B2 JP7489388 B2 JP 7489388B2 JP 2021533556 A JP2021533556 A JP 2021533556A JP 2021533556 A JP2021533556 A JP 2021533556A JP 7489388 B2 JP7489388 B2 JP 7489388B2
Authority
JP
Japan
Prior art keywords
guest
animation
shiny
animated
detection data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533556A
Other languages
English (en)
Other versions
JP2022513800A (ja
JPWO2020123863A5 (ja
Inventor
デヴィッド マイケル チャーチル
クラリス ヴァモス
ジェフリー エイ バート
Original Assignee
ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー filed Critical ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー
Publication of JP2022513800A publication Critical patent/JP2022513800A/ja
Publication of JPWO2020123863A5 publication Critical patent/JPWO2020123863A5/ja
Priority to JP2024077804A priority Critical patent/JP2024119807A/ja
Application granted granted Critical
Publication of JP7489388B2 publication Critical patent/JP7489388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/12Rule based animation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

(関連出願の相互参照)
本出願は、2018年12月13日出願の米国特許仮出願第62/779,373号「物体追跡アニメ人物システム及び方法」の利益を主張するものであり、その開示内容は、全ての目的のために引用により本明細書に組み込まれる。
(技術分野)
本開示は、一般に遊園地の分野に関する。より具体的には、本開示の実施形態は、遊園地体験を提供するためのアニメ人物アクションを引き起こすために利用されるシステム及び方法に関する。
遊園地及び他の娯楽会場は、多くの他のアトラクションの中で、追加のコンテンツを提供することができる及び/又は遊園地来園者の没入型体験を強化するビデオディスプレイを含む。例えば、このようなディスプレイは、アニメの及び/又は実写キャラクタによってもたらされる及び/又は乗物又は環境に関係するコンテンツを含むことができる。このような事前に録画されたコンテンツは、キャラクタが実際の観衆と相互作用しているかのように見えるようにスクリプト化することができ、例えば、キャラクタは、挨拶をすること、又は質問をしてあたかも観衆の答えを待っているかのように一呼吸おくことができるが、スクリプト化されたコンテンツは、観衆のキャラクタとの動的な又は一対一の相互作用を可能にしない。
当初請求された主題の範囲に見合う特定の実施形態を以下に要約する。これらの実施形態は、本開示の範囲を限定することを意図したものではなく、むしろこれらの実施形態は、特定の開示された実施形態の簡単な要約を提供することのみを意図したものである。実際、本開示は、以下に示す実施形態と類似又は異なり得る様々な形態を包含する可能性がある。
アニメーションシステムを本明細書で提供する。アニメーションシステムは、アニメ人物、アニメーションシステムの複数のセンサー、及びアニメーション制御装置を含む。アニメーション制御装置は、プロセッサ及びメモリーを含み、メモリーは、プロセッサによって実行可能な命令を記憶する。命令は、アニメーション制御装置に複数のセンサーからアニメ人物の近くの来園者の存在を示す来園者検出データを受け取り、アニメーションシステムの複数のセンサーから、光沢物体検出データを受け取り、来園者検出データ及び光沢物体検出データに基づいてアニメ人物のアニメーションシーケンスを判定し、アニメ人物にアニメーションシーケンスを実行させるアニメーションシーケンスを示す制御信号を送らせる。アニメーションシーケンスは、来園者検出データ及び光沢物体検出データに基づいて来園者上で又はその近くで検出された光沢のある物体に応答する。アニメーションシーケンスは、リアルタイムの反応、事前にプログラムされた反応、又はその組み合わせを含む。
また、本明細書で、特定の方法が提供され、この方法は、複数のセンサーからアニメ人物の近くの来園者の存在を示す来園者検出データを受け取るステップと、金属物体又は光沢のある物体を検出するように構成された複数のセンサーから光沢物体検出データを受け取るステップと、来園者検出データ及び光沢物体検出データに基づいて、来園者上で又はその近くで金属物体又は光沢のある物体の存在を判定するステップと、アニメ人物に、金属物体又は光沢のある物体の存在に基づいて、アニメーションを実行させる制御信号を送るステップとを含む。アニメーションシーケンスは、リアルタイムの反応、事前にプログラムされた反応、又はこれらの組み合わせを含む。
また、本明細書では、アニメ人物を表示するディスプレイ画面、1又は2以上のカメラ、及びディスプレイ制御装置を含む表示アニメ人物システムが提供される。ディスプレイ制御装置は、プロセッサ及びメモリーを含み、メモリーは、プロセッサによって実行可能な命令を記憶する。命令は、ディスプレイ制御装置に、アニメ人物の所定の範囲内の来園者の存在を示す来園者検出データを受け取り、1又は2以上のカメラから画像データを受け取り、来園者検データに基づいてディスプレイ画面に対する来園者の位置を判定し、画像データに基づいて来園者上の又はその近くの光沢のある物体を識別し、来園者の位置及び光沢物体検出データに基づいてディスプレイ画面上に表示するアニメ人物のアニメーションシーケンスを判定し、ディスプレイ画面にアニメーションシーケンスを表示させるアニメーションシーケンスを示す制御信号を送るようにさせる。アニメーションシーケンスは、光沢物体検出データに基づく来園者上で又はその近くで検出された光沢のある物体、及び来園者検出データに基づく来園者の位置に反応する。アニメーションシーケンスは、リアルタイムの反応、事前にプログラムされた反応、又はこれらの組み合わせを含む。
本開示のこれらの及びその他の特徴、態様、及び利点は、同様の文字が図面全体で同様の部品を表す添付図面を参照して以下の詳細な説明を読む場合によりよく理解することができるはずである。
一実施形態による、アニメ人物を有する遊園地の概略図である。 一実施形態による、実施形態によるアニメ人物及びアニメーション制御装置を含むアニメ人物システムのブロック図である。 一実施形態による、検出された特定の光沢のある物体に応答してアニメーションを実行するアニメ人物のブロック図である。 一実施形態による、アニメ人物においてアニメーションを実行するプロセスフロー図である。
本開示の1又は2以上の特定の実施形態を以下で説明する。これらの実施形態の簡潔な説明を行うために、実際の実施構成の全ての特徴を本明細書で説明することができるというわけではない。何らかの工業設計又は設計プロジェクトの場合と同様に、何らかの当該の実際の実施構成の開発において、実施構成間で変動する場合があるシステム関連及び事業関連の制約の遵守など、開発担当者らの特定の目標を達成するために数多くの実行固有の意思決定を行う必要があることを認識されたい。さらに、このような開発作業は、複雑かつ時間が掛かることがあり得るが、それでも、本開示の恩恵を有する当業者にとって設計、作製、及び製造の日常的な仕事になることを認識されたい。
本開示の様々な実施形態の要素を説明する場合に、冠詞「a」、「an」、及び「the」は、要素の1又は2以上があることを意味することが意図されている。用語「~を備える」、「~を含む」、及び「~を有する」は、包括的であり、かつ、記載された要素以外のさらなる要素がある場合があることを意味することが意図されている。加えて、本開示の「1つの実施形態」又は「一実施形態」への言及は、記載された特徴部も組み込むさらなる実施形態の存在を除外すると解釈されることは意図されていないことを理解されたい。
本技術は、個人、例えば遊園地来園者と、アニメ人物、キャラクタ、又は物体との間の動的な相互作用に関する。アニメ人物は、1又は2以上のディスプレイの表面上に表示された複数の画像として、又は、アニメ人物又はロボット人物として提示することができる。アニメーション及び/又はアニメーションシーケンスは、さらに、来園者の存在及び/又はアクションに応答して行動として認識できるアニメ人物による顔及び/又は体の動きを生成する(例えば、表示又は物理的な動きによって)ことを指すことができる。特定の実施形態において、本技術は、来園者が着用するか又はその上に位置する際に検出されてアニメ人物による応答を引き起こす、光沢のある物体などの特定の物体の識別を助ける。1つの実施形態において、アニメ人物は、目で合図する、微笑む、話す、走る、手を振るなどのように見えることによって、検出された着用された物体の存在に応答することができる。特定の実施形態において、物体は、限定されるものではないが、リング、衣類、ネックレス、ナイフ、キー、時計などとすることができる人の上に見出される物体を含む、例えば、光沢がある、反射する、又は金属のような反射性材料から形成された光沢のある物体とすることができる。
遊園地でのアニメ人物と来園者との一般的な相互作用は、何らかの相互作用のための事前に録画された一連のアニメーションに限定することができる。例えば、来園者、来園者が行ったジェスチャー、及び/又は、衣類又は外見などの来園者に固有の特徴にかかわらず、アニメ人物によって提示されるアニメーションは、同じとすることができる。従って、このような相互作用は、個々の来園者に対応する又は個別化されたものとして知覚することができない。
本明細書は、来園者とカスタマイズされかつ個人的であるように見えるアニメ人物との間の相互作用を助ける技術を提供する。例えば、反応するアニメーションは、来園者が着用した物品が識別される場合に提示することができ、アニメ人物は、このような物体に反応又は応答する。一般的に、来園者が着用する物品としては、身体上の1又は2以上の光沢のある物体を挙げることができる。例えば、来園者は、リング、ブレスレット、キー、サングラス、ひと続きの衣類、ベルトなどを着用する場合がある。これらの物品のうちの1又は2以上は、システムによって、例えば、反射検出器によって検出することができる。従って、アニメーションは、来園者が着用する又は持ち運ぶ特定の光沢のある物体に応答してアニメ化するようカスタマイズすることができる。しかしながら、光沢のある物体が身体のどこにあるのかを検出する及び/又は光沢のある物体の正確な特性を特定するなどの正確な光沢の検出を行うことは、複雑であろう。例えば、一部の金属物体は光沢がある/反射性であるが、全ての金属物体が光沢のある物体ではない。さらに、全ての光沢のある物体が金属であるわけではなく、又は高い金属含有量を有するというわけではない。反射性プラスチック又はガラスなどの他の種類の物体は、光沢があると考えることができる。
以上を念頭に入れて、図1は、本発明の実施形態による開示された相互作用的なアニメーションシステムと連動して動作することができる遊園地10の概略図である。特に、遊園地10は、1又は2以上のアニメ人物12を含み、1又は2以上のアニメ人物12は、様々な遊園地アトラクション上の又はその周りの来園者上の光沢のある物体を追跡してその検出に反応することができる。図示の実施形態において、遊園地10のアトラクションは、ウォーターアトラクション14、レストラン16、仮想ゲームルーム18、及び軌道式ライド20を含むことができる。アニメ人物12の様々な実施形態は、遊園地10の至る所で見ることができ、アニメ人物の各々は光沢のある物体及び/又は来園者(例えば、来園者ジェスチャー)を検出して追跡することができ、来園者が検出された物体又は来園者への応答として知覚するように反応することができる。例えば、ウォーターアトラクション14、レストラン16、及び軌道式ライド20は、アニメ人物12の画像を表示するディスプレイ画面22を含むことができる。画面22は、アニメ人物12を示すことができ、アニメ人物12は、検出された来園者及び/又は特定の光沢のある物体に反応する。同様に、アニメ人物12は、仮想ゲームルーム18で体験される仮想ゲーム内での仮想的な実施形態又はホログラムとすることもできる。
本明細書で提示する実施例では、物理的な又はロボットのアニメ人物12を説明することができるが、開示される手法は、上述のように、表示された、仮想的な、又はホログラムによるアニメ人物などの他のアニメーションで使用できることに留意されたい。従って、本明細書で提示するように、開示されるアニメーション又はアニメーションシーケンスは、ディスプレイ上でレンダリングされたアニメーション又はロボット人物の身体の動きによって引き起こされたホログラムキャラクタ又はアニメーションを指すことができる。従って、本発明の実施例は、検討を助けるための有用な文脈を提供するために、アニメ人物の現実の世界の実施例を単に反映すると理解する必要があり、本発明の手法の適用可能性を制限すると見なされるべきではない。さらに、本発明の手法は、来園者上の光沢のある物体を検出することに関するが、開示される手法は、他の対象の検出可能な特徴部の他の文脈で使用することができる。従って、本発明の手法は、対象の検出可能な特徴部に基づいて反応を生成することができるアニメ人物が存在することができる、何らかの状況に適用可能であると理解されたい。
図示するように、アニメ人物12は、アニメーション制御装置30によって、反応する又はアニメ化されるように制御することができる。1つの実施形態において、アニメーション制御装置30は、遊園地10の至る所に位置する少なくとも1又は2以上のアニメ人物12(例えば、物理的アニメ人物12a、例えばホログラムプロジェクタ又はディスプレイ画面22のディスプレイの制御による、表示ホログラフィック又は仮想アニメ人物12b又は表示アニメ人物12c)に集中化又は同期化させることができる。アニメーション制御装置30が物体に関連した来園者の存在、来園者のジェスチャー、光沢のある物体、及び/又は物体のジェスチャーをアニメ人物12上に又はその周りに位置する1又は2以上のセンサーによって検出する場合、アニメーション制御信号は、アニメ人物12を制御する1又は2以上のシステムに送ることができる。また、通信情報(例えば、来園者及び/又は光沢のある物体を示す感知データ)は、監視システム31に送ることができる。監視システム31は、検出及び追跡された光沢のある物体に応答してアニメーション制御装置30から送られたアニメーションなどの、アニメーションの変化を監視するだけではなく、アニメーション制御装置30を制御又は再構成することもできる管理システムとすることができる。このように、監視システム31は、アニメーションオプションをリセットすること又はアニメーション制御装置30によって決定された自動アニメーションを無効にすることができる。例えば、アニメーション制御装置30は、特定の光沢のある物体の検出に応答して、アニメーションをアニメ人物12に自動的に送ることができる。同様に、オペレータがアニメーション制御装置30によって決定されたアニメーションの範囲を越えるアニメ人物12に関する何らかの問題を見つけた場合、オペレータは、アニメーションを無効にするために停止機構(例えば、ボタン)を用いてアニメーションを手動で停止することができる。また、監視システム31は、アニメ人物12上の又はその周りのセンサーを再調整するために使用することができる。特定の実施形態において、監視システム31及びアニメーション制御装置30は、単一の制御装置として実装することができる。
上述したように、アニメーション制御装置30は、アニメ人物12上の又はその近くのセンサーによって受け取ったセンサーデータの組み合わせを利用して、光沢のある物体を検出し、これに応答して、検出された光沢のある物体に基づいてアニメーションを制御することができる。図示するように、光沢物体検出器26は、光沢のある物体の存在を検出するセンサー機構として使用することができ、これは来園者上の光沢のある物体を示すことができる。光沢物体検出器26(例えば、反射率センサー、金属物体検出器、光沢物体検出器、金属センサー)は、光沢物体検出データを生成する。本明細書では、材料及び/又は物体の反射率を検出する光沢物体検出器26を示して検討するが、光沢物体検出器26は、限定されるものではないが、宝石、ガラス、シーケンス、リング、ネックレス、ナイフ、キー、サングラス、腕時計などの光沢又は金属物体を含む、何らかの光沢のある物体、反射物体、金属物体、金属材料の検出を含むことができる。光沢物体検出器26、例えば、反射率センサーは、光センサーを使用して材料の反射率を評価し、反射率に基づいて、物体は光沢があると決定することができる。さらに、光沢物体検出器26は、1又は2以上の光学検出器、磁気検出器、赤外線検出器、又は誘導金属検出器を含むことができる。さらに、光沢物体検出器は、光センサーを使用して材料の反射率を評価し、反射率に基づいて、物体は光沢があり、対象の光沢物体である可能性があると決定するように構成された反射率センサーとすることができる。着用された物体(例えば、宝石類)である特定の種類の光沢のある物体は、他のもの(例えば、明るく白い歯)よりも重要とすることができる。白い歯の反射と宝石類とを区別するために、追加の分析を使用して(例えば、カメラデータを使用する)、指、耳、首、又は手首上の光沢のある物体の場所は、対象の光沢のある物体である可能性があるが、口の上又はその中の場所は可能性が低いと推定することができる。特定の身体の場所を重み付けする手法は、金属歯列矯正器(brace)を有する個人を捕捉できない可能性があるが、このような手法は、識別された光沢のある物体を対象の物体(例えば、着用された物体)の種類に拡充する。
1つの実施形態において、反射率センサーは、対象の物体の表面から反射した光の強さを測定するように構成された光センサーである。捕捉した物体が反射型であるか否かを決定する入力としてカメラ画像データが使用されるように、反射率センサーは、1又は2以上のカメラ32と一体化することができる。評価は画素単位基準で実行することができるので、個々の画素の反射率が評価される。個々の物体(例えば、同様の色特性を有する、可能性がある物体場所に位置する、又は所定に境界内にある)からであると識別された十分な数の隣接画素が反射率係数の閾値を上回る場合、物体は光沢があると分類される。1つの実施形態において、鏡面反射特性又は拡散反射特性を評価することができる。拡散反射性は、物体の表面積のより大きなパーセンテージにわたって観察することができるが、鏡面反射性は、画像捕捉位置及び利用可能な光源の位置に応じて、一定の範囲の角度で観察することができる。光沢のある物体は、両方のタイプの反射特性を含むことができる。従って、カメラデータは、物体内の高い反射性の(鏡面反射)、又は他方のタイプの反射性を圧倒する小さな光沢領域(例えば、カメラ画像内で明るいハローとして見えるキラキラ光るダイヤモンド形)を識別するために使用することができる。各個人は、環境内で移動しているので、個人及び着用された物体が鏡面反射角から離れる際にカメラデータが反射性の低下を示すとしても、時間ウィンドウ上のカメラデータを使用して、鏡面反射性を分離された時期で追跡して光沢のある物体を識別することができる。制御装置は、時間ウィンドウ内の1つ時点での推定された反射性が、隣接した時点で反射性が低下する状況にもかかわらず閾値を上回る場合、一時的に又は断続的に光沢のある物体を光沢のある物体と識別することができる。
さらに、光沢物体検出器26は、アニメ人物12から所定の近接距離でアトラクションのアニメ人物12上に又はその周りに配置することができるので、アニメーション制御装置30は、信号強度を測定することができる。従って、光沢のある物体が近接距離の範囲内で検出されると、光沢物体検出器26は、アニメーション制御装置30によって検出可能な信号パルスを送ることができる。信号は、アニメーション制御装置30が光沢のある物体の正確な検出を特定するのを可能にする方法で生成することができる。さらに、光沢物体検出器26は、移動する物体の検出を可能にする。従って、信号は、検出された光沢のある物体が来園者上にある可能性があることを示すことができる。このように、アニメ人物12の近くである可能性があるアトラクション16、14、18及び20などの遊園地10の静止した光沢のある物体(例えば、金属製の静止式ライド)は、検出されることはなく対象の光沢のある物体と誤って指示されない。
一部の実施構成において、光沢物体検出器26は、様々な種類の光沢のある物体に敏感とすることができる。例えば、光沢物体検出器26は、物体の反射率に関するユーザ定義閾値に基づいて、光沢のある物体を特定することができる光学又は光電センサーとすることができる。一般的に、光が物質又は媒質を通って進むときはいつも、光の一部は、例えば反射率によって記述されるように表面から反射し、光の残りは屈折する。従って、反射率は、反射率%又は屈折率によって測定することができる。屈折率は、光がどれくらいの速さで材料を通って伝播するかを記述するために無次元数を参照する。また、屈折率は、物質に入射する際に光の経路がどのくらい屈曲するか(例えば、屈折するか)を特定する。
一部の実施形態において、光沢のある物体を判定する閾値は、反射光量又は反射率に基づくことができる。一例として、砂岩材など、非光沢の物体を通過する際に反射する光量は、20~40%であるが、研摩されたアルミニウムの反射率は、80~87%である。従って、1つの実施形態において、反射率の閾値は、光が特定の物体を通過する際に少なくとも80%の反射率とすることができる。別の実施形態において、この閾値は、少なくとも光の70%が物体から反射するように少なくとも70%の反射率とすることができる。さらに、他の実施形態において、光沢のある物体を判定する閾値は、70%~100%の反射率などの反射する光の範囲に基づくことができる。
付加的に又は代替的に、この閾値は、反射率又は反射光量よりはむしろ屈折率に基づくことができる。一例として、アルミニウムの屈折率は、1.373であり、光は、真空中では金属通過の1.373倍の速さで進む。他の光沢のある物体の屈折率は、銀は0.266、ダイヤモンドは2.417などであるがこれらに限定されない。従って、光沢のある物体の判定は、少なくとも0.2又は0.2~2.5の範囲の物体の屈折率に基づいて光沢物体検出器26によって行うことができる。ダイヤモンドなどの一部の光沢のある物体は、銀金属物体などの他のものより有意に屈折率が高い場合がある。従って、反射率の特定の閾値を反射率パーセンテージ又は屈折率に基づいて判定するのが難しい場合がある。さらに、対象ではない非光沢の物体は、この反射率%又は屈折率閾値に入る場合もある。例えば、雪は、80%の反射率を有し、これは、一部の実施形態において閾値に基づいて光沢と分類される可能性があり、不正確な光沢物体判定がもたらされる。さらに、物体から反射する光量及び反射の仕方は。物体の表面の滑らかさ又は質感に左右される場合がある。例えば、欠陥が入射光の波長よりも小さい場合、実質的に全ての光は、同じように反射する。光沢のある物体の様々な反射率とともに、光沢のある物体の様々な生地及び質感に対応するために、光沢のある物体は、金属センサー、カメラなどのような本明細書で説明する追加のセンサー手段を使用して特定することができる。
例えば、光沢物体検出器26は、超低周波数(VLF)検出器又はパルス誘導(PI)検出器などの、光沢のある物体を判定する金属検出器を含むことができる。VLF検出器は、表面下に及び/又はそれより下方に磁場を生成する電流を送り、磁場と干渉する信号を受け取ることができる。高磁性物体(例えば、鋼又は鉄)又は低磁性物体(例えば、金)などの金属の種類に応じて、磁気パルス干渉が変化し、検出された金属の種類を示すことができる。別の実施例において、PI検出器は、電線コイルを通して電流をパルス化して各パルスで短時間の磁場を生成し、別の電流すなわちコイルを流れる反射パルスを引き起こすことができる。反射パルスは、短い(例えば、30マイクロ秒)。金属物体が検出される場合、パルスは、物体内に反対の磁場を生成し、金属の検出を示す、反射パルスを引き起こすか又はこれをより長い持続時間にわたって持続させる。従って、アニメーション制御装置30は、金属物体、従って光沢のある物体の特定の分類又は部類のパルス信号を解明することができる。例えば、検出されたネックレス、リング、及びブレスレットは、適切なアニメーションを判定する場合に対象とすることができる宝石類の分類グループに属することができる。金属検出器が分類を判定するために利用することができる特性は、限定されるものではないが、身体用宝石類に典型的に使用される金属の量、金属の種類(例えば、金)などを含むことができる。
図示するように、光沢物体検出器26は、ネックレス34を着用する来園者上の光沢のある物体及び小さなリング36を着用する子供を検出するために使用することができる。従って、アニメーション制御装置30は、例えば、アニメ人物12が宝石類に畏敬の念を抱いていること示すために顔の表情を変えることによって(例えば、検出された宝石類を指し示し、目を見開き、及び興奮して微笑む)、宝石類の検出を示すやり方でアニメ人物12が反応する信号を送ることができる。光沢物体検出器26は、光沢のある物体及び/又は光沢のある物体の分類を検出するために使用することができるが、光沢のある物体を正確に分類すること及び/又は来園者上の物体の位置を追跡することは難しい場合がある。続いて、小さな金属リング36を着用する子供に関する実施例では、小さな光沢のある物体を検出することは特に難しい場合がある。従って、光沢のある物体の分類を判定し及び/又は光沢のある物体を来園者上で追跡してアニメ人物12を正確にアニメ化することは、光沢物体検出器26などの反射率又は金属センサー又は検出器を使用しても難しい場合がある。
従って、アニメ人物12の周りに及び/又は遊園地10の周りに設置することができるカメラ32又は一連のカメラ32などの他のセンサー機構は、光沢物体検出データを提供するように構成されたセンサー(すなわち、反射率センサー又は金属検出器)と組み合わせて使用することができる。カメラ32は、アニメ人物12から所定の距離を隔てて配置することができる。所定の距離は、来園者が光沢のある物体を着用することができる来園者身体画像及び領域の全景を与える距離とすることができる。例えば、カメラ32は、アニメ人物12の周りの20フィート(例えば、6メートル)の周縁部を見ることができる。このように、アニメーションを引き起こすことができるアニメ人物12の近くの何らかの来園者を容易に検出することができる。付加的に又は代替的に、カメラ32は、アニメ人物12の身体に統合することができる。統合は、来園者がアニメ人物12の前方又は後方に配置されるかに関わらず、感知される来園者及び/又は光沢のある物体の明瞭な景色があるように位置付けることができる。例えば、カメラ32をアニメ人物12の目に組み込むと、アニメ人物12の前方で相互作用する来園者の検出を可能にすることができる。
また、カメラ32は、本明細書で提示するようなシステムの1又は2以上のプロセスの入力として使用されるデータを取り込むために使用することができる。1つの実施例において、カメラ32のデータは、人の存在を検出するためにアニメーション制御装置30によって使用することができる。すなわち、人物の取り込み画像の存在は、アニメーションを引き起こすために少なくとも部分的に使用される。別の実施例において、カメラデータは、骨格追跡、顔認識、及び/又は身体認識を使用して来園者を識別するために処理することができる。また、来園者検出及び/又は顔認識は、その後に来園者上の光沢のある物体を検出するために他のセンサー機構の起動を可能にすることができる。例えば、顔、従って来園者を検出した後、カメラ32は、光沢物体検出器26を初期化して来園者の近くで検出された光沢のある物体について報告するか又は光沢のある物体の入力を送ることができ、次に、これは、アニメ人物が、光沢のある物体及び/又は来園者を追跡して、反応するアニメーションを提供するのを可能にすることができる。骨格追跡は、カメラ32による来園者のリアルタイムの又は取り込まれた画像を使用すること、及び画像を認識された骨格モデルと比較して人の骨格検出を指示することを含むことができる。例えば、骨格モデルは、人の骨格の必須の関節、骨、及び手足の相対的な位置を含むことができる。従って、来園者の取り込み画像及び骨格モデルを比較すると、人の顔及び身体の検出が可能になる。骨格追跡データは、顔認識及び身体認識を使用して顔又は身体を正確に識別するためにさらに処理することができ、また、好ましい身体部分又は領域上の光沢のある物体を識別するために使用することができる。顔画像検出は、顔が正確に検出されたと判定するために複数の顔の特徴部を全体として考慮することができる。考慮される特徴部は、対象の顔の複数の地点及びその交差点(例えば、各々の目の間の地点で又はその近くで検出された、垂直線に沿った鼻に近接する水平線に沿って整列する2つの目)とすることができる。さらに、カメラ32は、全身の検出に使用することができるので、身体特徴部は、来園者を正確に識別し、その後に光沢のある物体の検出を引き起こすために使用することができる。例えば、身体検出特徴部は、顔、腕、及び脚などの身体特徴部及びそれらの交差点を考慮することができる。さらに、カメラ32は、体温を検出するための熱認識に使用することができ、これは来園者の存在をさらに正確に予測するために使用することができる。さらに、カメラ32は、赤外線(IR)能力を含むこともできるので、カメラは、暗視能力を提供することができ、その結果、来園者及び/又は物体は、昼夜を問わず形状認識(以下に説明する)によって検出される。
付加的に又は代替的に、カメラ32は、対象の光沢のある物体を識別するために形状認識に使用することができる。カメラ32は、来園者上にある光沢のある物体の共通要素を具体的に検出するように構成することができる。認識された形状は、円環、円形ネックレス、ベルトバックル、キー形状などとすることができる。カメラ32は、来園者上にある光沢のある物体の正確な識別を可能にするために骨格追跡、顔/身体認識。及び形状認識を順々に実行するように構成することができる。例えば、来園者を顔/身体認識又は体温認識によって検出した後、アニメ人物システムは、身体画像を判定し、その後、対象の光沢のある物体を有する可能性があると考えられる特定の身体領域に形状認識を適用することができる。例えば、金属物体の検索は、ベルト形状に関して特定された腰領域、リング形状に関して特定された手又は足指、ネックレス形状に関して特定された首又は顔などに限定することができる。さらに、検出された金属の追加の検証は、カメラデータを組み込むこともできる。光沢のある物体が特定された来園者の手で検出された場合、見込まれる光沢のある物体に対応する環状形状を示すカメラデータは、リングを示す。さらに、一部の実施構成において、カメラ32は、来園者の動き(例えば、ジェスチャー)を取り込んで、取り込んだ動きを使用してアニメ人物12のアニメーションをシミュレートすることもできる。従って、検出された光沢のある物体は、光沢のある物体自体に対する応答として知覚することができるアニメーションを提供するのではなく、来園者を正確に検出して追跡するために使用することもできる。
さらに、1又は2以上の追加のセンサー28(例えば、近接センサー、温度センサー、光センサー)は、人の存在を検出するために使用することもできる。追加のセンサー28は、ロボット又はアニメ人物12aの物理的な本体上に設置することができ、又はアニメ人物を表示するディスプレイ画面22の近く、その中、又はその上に統合することができる。このように、来園者がアニメ人物に触れると、アニメーション制御装置30は、それに応じて反応するようにアニメ人物12を動かすことができる。例えば、来園者がアニメ人物12の後ろ肩に触れた場合、アニメ人物に、例えば来園者から逃げ出すことによって、まるで怖がっているかのように反応するように指示することができる。また、追加のセンサー28は、光沢のある物体の検出を引き起こすために、カメラ32又は光沢物体検出器26などの他のセンサー機構と連係して使用することができる。従って、温度センサーによって検出された来園者存在の検出に基づいて、カメラ32は、来園者上の光沢のある物体を検出するために熱画像化及び形状認識を開始することができる。特定の実施形態において、追加のセンサー28は、来園者がアニメ人物12の範囲内にいるか否かを検出することができる。すなわち、感知された距離33が閾値未満である場合、及び/又は、来園者がアニメ人物12の仮想視野29の範囲内にいる場合、アニメーションを引き起こすことができる。
他のセンサー機構は、来園者のウェアラブルデバイス(例えば、ブレスレット)に組み込まれた無線周波数識別(RFID)タグ38を含むことができる。RFIDタグ38は、タグの存在を示すためにアトラクション及び/又はアニメ人物12の周りに組み込まれた電子読取装置と通信することができる。RFIDデータは、例えば光沢物体認識を起動して金属物体を検出して追跡するために、来園者の存在を指示するために利用することができる。
アニメ人物12は、来園者がいない場合のデフォルト指示の下では、休止状態であるか又は作動することができることを理解されたい。例えば、表示されたアニメ人物12cは、ディスプレイ画面22上でアクティブにすることができる。アニメ人物12は、一般的に、来園者の検出及び同時に起こる来園者上での又はその近くでの金属物体の検出に基づいて相互作用的なアニメーションが引き起こされるまで、来園者を捜し求めるか又は他の作業を実行することができる。
上述したように、来園者存在及び/又は光沢のある物体の検出を示す検出されたセンサー信号の組み合わせは、アニメーション制御装置30に送ることができ、アニメーション制御装置30は、その後、対応するアニメーションシーケンスを判定することができる。例示的に、図2は、アニメーション制御装置30及びアニメ人物12(例えば、アニメ人物12a、仮想アニメ人物12b、及び/又は表示されたアニメ人物12c)を有するアニメ人物システム50のブロック図を示す。アニメーション制御装置30(例えば、電子制御装置)は、メモリー52、プロセッサ54、通信回路56、及び入力デバイス53を含むことができる。特定の実施形態において、メモリー52は、命令、データ、及び/又は、アニメーション(例えば、データベース又は選択可能な利用可能なアニメーションオプション)のライブラリなどの情報を記憶するように構成される。付加的に又は代替的に、メモリー52は、反応するアニメーションのユーザ定義のアルゴリズムを含むことができる。例えば、アルゴリズムは、検出された光沢のある物体を、目などのアニメ人物12の特徴部を使用して追跡することを含むことができる。従って、アルゴリズムは、アニメ人物12の目に検出された光沢のある物体を追跡して追従させることができる。本明細書で提示する実施例は、アニメーションライブラリを説明するが、開示される手法は、他のアニメーション、アルゴリズム、又はその両方を使用することができ、アルゴリズムは、アニメ人物12に、記憶されたライブラリからアニメーションを選択するのではなく、光沢のある物体を追跡して反応(例えば、追従)させるものであり、アニメーションは、追跡された光沢のある物体に応答するように知覚することができるようになっていることに留意されたい。付加的に又は代替的に、アルゴリズムは、来園者を追跡する手段として光沢のある物体を追跡し、その後、来園者及び/又は来園者ジェスチャーに応答することができるアニメーションを提示することができる。さらに、本明細書で提示する実施例はアニメ人物12をアニメ人物12aとして説明するが、開示される手法は、限定されるものではないが、表示された仮想アニメ人物12b、表示されたアニメ人物12cなどの他のアニメ人物を使用することができる。
以下でさらに詳細に説明するように、特定の実施形態において、プロセッサ54は、入力デバイス53を介して、上述した1又は2以上のセンサーから来園者及び/又は光沢のある物体及び/又は来園者ジェスチャーの検出に関連する入力信号を受け取り、受け取った入力に基づいて、アニメーションライブラリからアニメーションを選択し、その後、受け取った入力及び/又は選択したアニメーションに基づいて、アニメ人物12のスピーカー68及び/又はアクチュエータ58に制御信号を供給するように構成される。このように、アニメーション制御装置30は、アニメ人物12のアニメーションを制御することができる。センサーデータは、上述のようなカメラ32、光沢物体検出器28(例えば、近接センサー又は熱センサー)、及び/又はRFIDタグ38によって入力デバイス53に提供することができる。例示するシステムは、単に例示的であることが意図されており、開示される実施形態に従って、特定の特徴部及び構成要素を省略すること及び遂行を助けるために様々な他の特徴部及び構成要素を追加することができることを理解されたい。
アニメーション制御装置30は、入力デバイス53からセンサーデータを受け取った後、センサーデータに基づいて、メモリー52内に記憶することができるアニメーションのライブラリからアニメーションを選択するためにプロセッサ54を使用してアニメ人物12の制御を助けることができる。アニメーションライブラリは、例えば、第1のアニメーションオプション(例えば、微笑む)、第2のアニメーションオプション(例えば、挨拶する)、第3のアニメーションオプション(例えば、笑って手を振る)、第4のアニメーションオプション(例えば、さよならを言う)などの利用可能なアニメーションのリストを含むことができる。特定の実施形態において、アニメーションオプションは、メモリー52内に記憶することができる。一部の実施構成において、プロセッサ54は、シーケンス(例えば、アニメーションシーケンス)で実行される1又は2以上のアニメーションを選択するように構成することができる。
特定の実施形態において、アニメーション制御装置30は、アニメ人物12の様々な構成要素を制御するために使用することができ、本明細書で開示される特徴部、機能、及び/又は技術のいずれも、何らかの適切な方法でアニメ人物12とアニメーション制御装置30との間で分散することができ、アニメーション制御装置30及びアニメ人物12は、アニメ人物12に一体化することができることを理解されたい。図示の実施形態において、アニメーション制御装置30のプロセッサ54は、メモリー52に記憶された命令を実行して、アニメ人物12上の実行するアニメーション(例えば、微笑む、話す、光沢のある物体を指し示す、光沢のある物体から逃げ出すなど)を選択するなどの動作を実行することができる。従って、一部の実施形態において、プロセッサ54は、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向けプロセッサ(ASIC)、1又は2以上のフィールドプログラマブルゲートアレイ(FPGA)、又はその何らかの組み合わせとすることができる。加えて、メモリー52は、プロセッサ54によって命令実行可能なファイル及びプロセッサ54によって処理されるデータを記憶する有形の非一時的コンピュータ可読媒体とすることができる。従って、一部の実施形態において、メモリー52は、ランダムアクセスメモリ(RAM)、読出し専用メモリー(ROM)、再書き込み可能不揮発性メモリー、フラッシュメモリー、ハードドライブ、光ディスクなどを含むことができる。
さらに、アニメーション制御装置30は、通信回路56がアニメ人物12に示す構成要素などの様々な他の電子デバイスとインタフェース接続することができる。例えば、通信回路56は、アニメーション制御装置30が、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、及び/又は広域ネットワーク(WAN)などのネットワークに通信可能に接続することができる。従って、一部の実施形態において、アニメーション制御装置30は、入力デバイス53からのデータを処理してアニメ人物12(例えば、アニメ人物12a)に通信回路56を介して伝達することができる。例えば、プロセッサ54は、入力デバイス53からのセンサーデータ入力を処理した後、通信回路56がデータをアニメ人物12に無線で送り、アニメ人物12の顔又は身体が1又は2以上のアニメーション(例えば、微笑む、話す、金属物体を指し示す、金属物体から逃げ出すなど)を作り出すのを可能にする。付加的に又は代替的に、プロセッサ54は、通信回路56がデータを仮想アニメ人物12bの仮想人物制御装置21に無線で送り、アニメーションを実行するのを可能にすることができる。同様に、センサーデータは、表示されたアニメ人物12cを制御するためにディスプレイ画面22のディスプレイ画面制御装置25に無線で送ることができる。明示されていないが、ディスプレイ画面制御装置25及び仮想人物制御装置21の各々は、アニメーション又はアニメーションを実行するアルゴリズムを記憶するアニメ人物12aの人物メモリー62と類似のメモリー、及び、アニメーションを処理してそれぞれのアニメ人物12b、12c上で実行するアニメ人物12aの人物プロセッサ60と類似のプロセッサを含むことができる。さらなる構成において、通信回路56は、アニメ人物12に無線接続すること又は有線接続を介して接続することができる。
一部の実施構成において、アニメーション制御装置30は、利用可能なアニメーション(例えば、メモリー52内でライブラリに記憶されたアニメーション又はアルゴリズムのリスト)の指示、ならびに、視覚化を目的としたアニメーション制御装置30のディスプレイ27((例えば、テキスト、画像、グラフィクスなどのディスプレイ)上に選択された動き、特徴部、及び/又はアニメーションの指示を表示するように構成することもできる。また、ディスプレイは、アニメーション制御装置30及び/又はアニメ人物12の管理変更を監視又は実行する監視システム31(図1を参照されたい)が利用することができる。従って、監視システム31を監視するオペレータは、可能性のあるアニメーションの視覚指示を得るためにディスプレイ27を見ることができ、その後、例えば、来園者とのアニメ人物12の相互作用を向上させるためにアニメーションオプションライブラリを拡張することによって、可能性のあるオプションを修正することができる。さらに、オペレータは、ディスプレイ27を使用して、1又は2以上の利用可能なアニメーションを無効にして、1又は2以上の感知された来園者による相互作用及び/又は光沢のある物体に割り当てることができる。従って、一部の実施形態において、ディスプレイ27上に提示された複数のアニメーションは、オペレータによって変更すること、修正すること、切り替えること、遅らせること、又は削除することができ、その結果、アニメーションの更新が可能である。一部の実施形態において、プロセッサ54は、ディスプレイ27に、視覚化を助長しかつ将来的なアニメーションの選択を助長するために、センサーデータに対応する以前に実行されたアニメーションのリストを表示するように指示するように構成することができる。
ディスプレイ27は、さらに、様々な他の情報を提示するために利用することができる。例えば、一部の実施形態において、カメラ32は、ディスプレイ27と通信して、来園者及び現在実行されるアニメーション(例えば、アニメ人物12の現在の動き)の画像(例えば、静止画像、又は、映像などリアルタイム画像)を示すことができ、これらは、通信回路56によってアニメ人物12に伝達されている場合がある。さらに、表示された画像は、アニメーションライブラリを修正するためにオペレータによって使用することができる。
アニメーション信号がアニメーション制御装置30からアニメ人物12(又はアニメ人物12を表示するディスプレイ画面22)に送られると、アニメ人物12は、対応するアニメーションを実行することができる。図示するように、アニメ人物12のアニメーションを実行するために使用される構成要素としては、アクチュエータ58、人物プロセッサ60、人物メモリー62、通信デバイス64、及びスピーカー68を挙げることができる。人物プロセッサ60は、アニメーション信号をアニメーション制御装置30から受け取ることができ、人物プロセッサ60は、信号を処理してアクチュエータ58及び/又はスピーカー68を相応に変更する命令を提供することができる。人物プロセッサ60は、アニメ人物12上で実行する完全な動きプロファイル(例えば、アニメーション)を判定するなどの、アニメーション制御装置30から受け取った動作を行うために、人物メモリー62内に記憶された命令を実行することができる。従って、一部の実施形態において、アニメ人物12は、1又は2以上の汎用マイクロプロセッサ、1又は2以上の特定用途向けプロセッサ(ASIC)、1又は2以上のフィールドプログラマブルゲートアレイ(FPGA)、又はその何らかの組み合わせとすることができる。加えて、人物メモリー62は、人物プロセッサ60によって命令実行可能な命令及び人物プロセッサ60によって処理されるデータを記憶する有形の非一時的コンピュータ可読媒体とすることができる。従って、一部の実施形態において、人物メモリー62は、ランダムアクセスメモリ(RAM)、読出し専用メモリー(ROM)、再書き込み可能不揮発性メモリー、フラッシュメモリー、ハードドライブ、光ディスクなどを含むことができる。
アクチュエータ58は、電気機械式アクチュエータ(例えば、リニアアクチュエータ、回転式アクチュエータなど)などの何らかの適切なアクチュエータとすることができる。アクチュエータ58は、アニメ人物12の内部に位置することができ、アニメ人物12の特定の特徴部又は部分(例えば、目、眉、頬、口、唇、耳、腕、脚など)を調整するように構成することができる。例えば、回転式アクチュエータは、アニメ人物12のリップ部の外側先端に沿ってアニメ人物12の内部に位置することができ。制御信号(例えば、人物プロセッサ60からの)に応答してアニメ人物12の顔を笑うようにさせる。さらなる実施例として、アニメ人物12は、制御信号に応答してアニメ人物12の眉の位置を駆動する(例えば、眉をひそめるように)電気リニアアクチュエータを収容することができる。同様のアクチュエータを使用して、例えばアニメ人物12の脚又は腕を動かすために、身体の他の特徴部の動きをもたらすことができる。一部の実施形態において、アクチュエータ58は、アニメ人物12が、様々な投射された顔又は身体の特徴部のジェスチャー、物理的にアニメ化された顔又は身体のジェスチャー、又はその組み合わせのいずれかを提供するのを可能にすることができる。さらに、スピーカー68は、アニメーションライブラリ内のアニメーションオプションとして事前に録音された語句を伝えることができる。
特定の実施形態において、アニメ人物12は、構成要素のステータス及び/又はアニメ人物12のステータスを監視するように構成された1又は2以上のステータスセンサー70を含むことができ(例えば、実行されたアニメーションが選択したアニメーションに対応していないかを判定するために)、ステータスの指示は、アニメーション制御装置30のディスプレイ27上に表示することができる。例えば、ステータスセンサー70は、各アクチュエータ58に関連付けされて、アクチュエータ58の位置及び/又は移動を検出するように構成することができ、これは、アクチュエータ58が適切に機能しているか(例えば、選択されたアニメーションに基づいて期待されるように動いているか)否かを示すことができる。特定の実施形態において、アニメーションシステムは、ディスプレイ27を介して、構成要素の故障、現在のアニメーション選択、次回のアニメーション選択、現在再生されているアニメーションなどの表示を提示するように構成することができる。
さらに、通信デバイス64は、アニメーション制御装置30の構成要素など、アニメ人物12が様々な他の電子デバイスとインタフェース接続することを可能にすることができる。例えば、通信デバイス64は、アニメ人物12が、パーソナルエリアネットワーク(PAN)、ローカルエリアネットワーク(LAN)、及び/又は広域ネットワーク(WAN)などのネットワークに通信可能に接続するのを可能にすることができる。さらなる実施形態において、アニメ人物12は、アニメ人物12及び/又はアニメーション制御装置30の様々な構成要素に有線(例えば、地上通信線)接続を介して通信可能に接続することができる。従って、一部の実施形態において、人物プロセッサ60は、アニメーション制御装置30の入力デバイス53が受け取った入力データに応答して、通信デバイス64が受け取ったデータを処理して通信回路56を介してアニメ人物12に送ることができる。例えば、アニメーション制御装置30は、適切なアニメーションを判定した後にアニメーション信号を自動的に無線で送るように構成することができる。付加的に又は代替的に、監視システム31(図1参照)を監視するオペレータは、アニメーションデータを無線で送ることもできる1又は2以上のボタンを選択することができる。
図3は、本開示の態様による、アニメーションを実行するアニメ人物12aとして示されているアニメ人物12の実施形態の概略図80であり、図示する実施形態は、光沢のある物体を着用する来園者と相互作用するアニメ人物12を含むことができる。図示するように、カメラ32は、アニメ人物12と、アニメ人物12からアニメーションを引き起こす所定の距離又は範囲81(例えば、近接センサー又はカメラ32によって推定されるような)に近づく可能性がある来園者とを見るように配置される。光沢物体検出器26は、同様にアニメーションを引き起こすことができる範囲に近づく可能性がある光沢のある物体を検出するように配置される。カメラ32及び光沢物体検出器26から提供された感知データは、アニメーション制御装置30に伝えることができる。具体的には、アニメーション制御装置30は、センサーデータ入力を用いて2次元(2D)XY平面マップを計算することができ、アニメ人物12は、XY平面範囲上のアニメ人物12の所定の範囲81の中で検出された来園者に対してアニメ化されるようになっている。例えば、マップは、アニメ人物12の光景と所定の範囲81を含むことができるので、アニメ人物12は起点であり、検出された何らかの来園者は、アニメ人物12からX距離(水平距離)及びY距離(垂直距離)にあると判定される。XY平面は、4つの象限を含むことができ、来園者は、XY平面上でアニメ人物12から負の距離(下方又は後方)で検出することができるが、依然として所定の範囲81の中にいる。アニメーション制御装置30は、XY平面データを使用して、アニメ人物12に対する来園者の位置を、固定式カメラ32を使用して来園者に焦点を定めて追跡するのではなく、センサーデータ(例えば、近接センサー)に基づいて推定することができる。推定結果は、アニメ人物12のアニメーションを引き起こすために使用することができる。
図1に描写されるネックレス34を着用する来園者及びリング36を着用する子供の実施例に続いて、2人の来園者は、アニメーションを引き起こす所定の範囲81の中にいる可能性がある。両方の来園者は、光沢のある物体を着用し、検出される範囲81の中にいるので、アニメ人物12は、アニメーション制御装置30によって(例えば、メモリー52に記憶されたユーザ定義のアルゴリズムを用いて)、アニメ人物12に最も近い来園者を追跡してその来園者に反応するように指示される場合がある。他の実施形態において、来園者が複数の光沢のある物体を着用している場合、アニメ人物は、第1の検出された光沢のある物体及び/又はより強い光沢信号(例えば、より強い金属検出又はより高い反射率)に反応するように指示される場合がある。付加的に又は代替的に、複数の光沢のある物体が所定の範囲81の中にある場合、アニメ人物は、来園者を追跡する所定の期間の後で、その追跡及び対応するアニメーションを、範囲81の中の次に強い光沢のある物体信号を生成する物体にリマップ(remap)することができる。
この実施例において、子供が、アニメ人物12によって位置決めされた光沢物体検出器26により接近するので、アニメ人物は。子供の身体上にある光沢のある物体に反応する場合があり、他の来園者上で検出された光沢のある物体を無視する場合がある。上述のように、アニメーション制御装置30は、限定されるものではないが、金属検出分類法又は形状認識などの様々な認識技術を使用して、着用された光沢のある物体がリング36であると判定することができる。一部の実施形態において、アニメ人物12は、宝石類に興味をもつキャラクタとすることができる。従って、アニメーション制御装置30は、アニメーションライブラリ内の対応する1又は複数のアニメーションを調べて、信号を通信回路56で送ることができる。ここでは、宝石類の検出は、アニメ人物12に、識別された宝石を追跡してその宝石の方を指さして驚いた表情をさせるアニメーションに対応することができる。付加的に又は代替的に、アニメーション命令は、アニメ人物12を検出された来園者及び/又は光沢のある物体と同じ高さにすることを含むこともできる。従って、アニメ人物12は、目82、鼻84、口86、腕88、指89、及び脚90などの、様々なアニメーションをサポートする可動の特徴部で設計することができる。特徴部は、制御信号に基づいて(例えば、アニメーション制御装置30のプロセッサ54から受け取った)、アニメ人物12内のそれぞれのアクチュエータ58を用いて作動させることができる。上述したように、スピーカー68はまた、アニメーションの一部として来園者と相互作用するために単語及び/又は語句を発することを可能にする。
従って、この実施例において、脚90は、膝を曲げてアニメ人物12を子供と同じ高さになるように作動させることができ、腕88及び指89は、リング36を追跡してリング36の方を指さし続けるように作動させることができる。さらに、目82は、より大きくなるように作動させることができ、口86は、開いて円形になるように作動させることができる。従って、アニメ人物12の特徴部は、アニメーションライブラリから選択されたアニメーションを実行するように作動させることができる。上述したように、アニメーションをアニメーションライブラリから選択するのではなく、アルゴリズムは、アニメ人物12に検出された光沢のある物体を凝視して、光沢のある物体を認識可能に追跡させる(例えば、目でリング36を追跡させる)ことができるように実行されることができる。来園者が検出範囲の外に移動した場合、アニメ人物12は、初期位置に戻るように指示される場合があり、可動の特徴部は、相応に作動させることができる。このように、アニメ人物12は、光沢のある物体が所定の範囲81の中にある限り、追跡される来園者及び/又は来園者上で認められた追跡される光沢のある物体に基づいて、来園者と相互作用することができる。
図4は、アニメーションをアニメ人物12に出力する方法100のプロセスフロー図である。方法100は、アニメ人物12及び/又はアニメーション制御装置30を有するアニメ人物システム50などの、自動化された手順としてシステムによって実行することができることに留意されたい。フロー図は、ステップを特定の順序で示すが、ステップは、何らかの適切な順番で実行することができ、特定のステップは、適切な場合には同時に実行することができることを理解されたい。さらに、方法100の特定のステップ又は部分は省略することができ、他のステップを追加することができる。方法100は、センサーデータ入力によって検出された(例えば、カメラ32、光沢物体検出器26、追加のセンサー28及び/又はRFIDタグ38などによって)来園者及び/又は光沢のある物体に応答して実行することができる。
例示するように、方法100は、全体として、1又は2以上の利用可能なアニメーションオプションをアニメ人物12に提供するステップ(ブロック102)と、センサー入力を受け取るステップ(ブロック104)と、受け取ったセンサー入力に基づいて対応するアニメーションを選択するステップ(ブロック106)と、アニメ人物12で選択されたアニメーションを作動させるステップ(ブロック104)とを含む。
より詳細には、方法100は、1又は2以上の利用可能なアニメーションオプションをアニメ人物12に提供することができる(ブロック102)。上記で詳述したように、アニメ人物12上で実行することができる、アニメーションライブラリ(例えば、メモリー52に記憶され、さらにディスプレイ27上に表示することができる)からの利用可能なアニメーションオプション(例えば、微笑む、話す、手を振るなど)のリストが存在することができる。さらに、ライブラリではなくメモリー52に記憶することができるアニメーションオプションは、検出された光沢のある物体をアニメ人物12の特徴部によって追跡する(例えば、目を動かして光沢のある物体に追従する)ことを含むことができる。さらに、アニメーションオプションは、付加的に又は代替的に、追跡される来園者上の光沢のある物体を利用して来園者を追跡することを含むことができる。アニメーションオプションは、アニメーション制御装置30のプロセッサ54を用いて自動的に判定することができる。付加的に又は代替的に、アニメーションはディスプレイ27によってオペレータに提示することができる。アニメーションライブラリの利用可能なアニメーションオプションは、利用可能なアニメーションオプション(例えば、微笑むなどの第1のアニメーションオプション、挨拶を言うなどの第2のアニメーションオプション、笑って手を振るなどの第3のアニメーションオプション)の各々を表示するリストとし、オプションに関連したアニメ人物の特徴部のリスト(例えば、口86の位置の変化、目82の位置の変化、腕88の位置の変化など)として、アニメーションオプションを表示するネットワークとして、又は、アニメーションオプションを表示する及び/又はアニメーションオプションの検討及び/又は選択を助ける何らかの他の適切な方法として、体系化することができる。複数の感知入力に関連したより多くのアニメーションオプションは、来園者のアニメ人物12との相互作用の全体的な有効性を強化することができる。
方法100は、アニメーションを選択するために使用されたセンサー入力の組み合わせを受け取る(ブロック104)。上述したように、入力は、1又は2以上のカメラ32からの感知データとすることができる。従って、入力は、アニメーション制御装置30によって判定される顔又は身体の認識を使用して及びカメラ32によって取り込まれたデータを使用して検出された来園者の身体の輪郭又は画像に関するデータを含むことができる。また、入力は、光沢物体検出、並びに形状認識を含むことができ、光沢物体検出は、結果として、光沢物体検出器26(例えば、反射率センサー及び/又は金属検出器)からのデータを含むことができ、形状認識は、カメラ32から取り込んだカメラデータを使用し、詳細には身体上の光沢のある物体を検出する。さらに、感知入力は、光沢物体検出器26、追加のセンサー28、及び/又はRFIDタグ38によって検出されるデータを含むこともできる。光沢物体検出器26は、光沢のある物体をアニメ人物12の近くで検出するために使用することができる。従って、身体又は顔認識と光沢物体検出との組み合わせは、来園者、及び/又は来園者上の光沢のある物体の位置を正確に検出するためのセンサー入力として使用することができる。
次に、受け取ったセンサー入力に基づいてアニメーションを選択することができる(ブロック106)。アニメーションは、アニメ人物12の人物プロセッサ60によって処理されるアニメーション信号(例えば、制御信号)として送ることができる。
アニメ人物12がアニメーション制御装置30から選択されたアニメーションを受け取って処理すると、アニメーションは、アニメ人物12によって実行される。アニメーションをアニメ人物12の物理的構造体で実行することは、アニメーションをアニメ人物12の様々なアクチュエータ58で作動させることを含むことができる(プロセスブロック108)。例えば、作動させることは、制御信号をアクチュエータ58に供給することで、アニメ人物12に、物理的特徴部の位置を変更して、眉をひそめる、微笑む、音を発する、金属物体を追従するなどをさせることができる。従って、作動は、アニメ人物12が、検出された来園者及び/又は特定の光沢のある物体に反応する又は特有のやり方で動作するとして来園者に知覚させることができる。
本明細書では本発明の実施形態の特定の特徴のみを図示して説明したが、当業者であれば多くの修正例及び変更例を想定できるはずである。従って、特許請求の範囲は、本開示の真の精神に該当する全ての当該修正例及び変更例を包含することが意図されていると理解される。
本明細書に示して特許請求する技術は、本技術分野を確実に改善する、従って抽象的なもの、無形のもの又は純粋に理論的なものではない実際的性質の有形物及び具体例を参照し、これらに適用される。さらに、本明細書の最後に添付するいずれかの請求項が、「...[機能]を[実行]する手段」又は「...[機能]を[実行]するステップ」として指定されている1又は2以上の要素を含む場合、このような要素は米国特許法112条(f)に従って解釈すべきである。一方で、他のいずれかの形で指定された要素を含むあらゆる請求項については、このような要素を米国特許法112条(f)に従って解釈すべきではない。
12 アニメ人物(仮想人物)
21 仮想人物制御装置
22 ディスプレイ画面
25 ディスプレイ画面制御装置
26 光沢物体検出器
27 ディスプレイ
28 追加のセンサー
30 アニメーション制御装置
32 カメラ
38 RFIDタグ
52 メモリー
53 入力デバイス
54 プロセッサ
56 通信回路
58 アクチュエータ
60 人物プロセッサ
62 人物メモリー
64 通信デバイス
68 スピーカー
70 ステータスセンサー

Claims (28)

  1. アニメ人物と、
    複数のセンサーと、
    プロセッサ及びメモリーを含むアニメーション制御装置と、
    を備える、アニメーションシステムであって、
    前記メモリーは、前記プロセッサによって実行可能な命令を記憶し、前記命令は、前記アニメーション制御装置に、
    前記複数のセンサーから、前記アニメ人物の近くの来園者の存在を示す来園者検出データを受け取り、
    前記複数のセンサーから光沢物体検出データを受け取り、
    前記来園者検出データ及び光沢物体検出データに基づいて、前記アニメ人物のアニメーションシーケンスを判定し、前記アニメーションシーケンスは、前記来園者検出データ及び前記光沢物体検出データに基づいて前記来園者上の又はその近傍で検出された光沢のある物体に反応し、前記アニメーションシーケンスは、リアルタイムの反応、事前にプログラムされた反応、又はこれらの組み合わせを含むものであり、
    前記アニメ人物に前記アニメーションシーケンスを実行するようにさせる前記アニメーションシーケンスを示す制御信号を送る、
    ようにさせるように構成される、アニメーションシステム。
  2. 前記受け取られた来園者検出データは、前記複数のセンサーのうちの1又は2以上のカメラからの情報に基づいており、前記情報は、骨格追跡を使用して前記来園者の骨格を識別する、顔認識を使用して前記来園者の顔を識別する、身体認識を使用して前記来園者の身体部分を識別する、又はこれらの組み合わせを使用して識別するために使用される、請求項1に記載のアニメーションシステム。
  3. 前記アニメーション制御装置は、骨格追跡、顔認識、又はその組み合わせによって判定されたような前記来園者の前記識別された顔に最も近い前記光沢のある物体を選択することによって、前記光沢物体検出データに基づいて識別された複数の光沢のある物体の中で前記光沢のある物体を選択するように構成される、請求項2に記載のアニメーションシステム。
  4. 前記アニメーション制御装置は、前記光沢物体検出データに基づいて識別された前記複数の光沢のある物体の中で、前記来園者上に又はその近くに配置されていない判定された他の光沢のある物体を無視するように構成される、請求項3に記載のアニメーションシステム。
  5. アニメーション制御装置は、前記骨格追跡、身体認識、又はその組み合わせから判定されたような前記来園者の識別された腕又は手に最も近い前記光沢のある物体を選択することによって、前記光沢物体検出データに基づいて識別された複数の光沢のある物体の中で前記光沢のある物体を選択するように構成される、請求項2に記載のアニメーションシステム。
  6. 前記光沢物体検出データは、1又は2以上の反射率センサー、磁場、赤外線、光学、又は誘導金属検出センサーからの光沢のある物体データ、1又は2以上のカメラからの形状データ、又はこれらの組み合わせを含む、請求項1に記載のアニメーションシステム。
  7. 前記アニメーションシーケンスは、前記アニメ人物に、前記光沢のある物体を追跡するためにその頭部を回転させる、又は前記光沢のある物体の検出を示すために反応させる、請求項1に記載のアニメーションシステム。
  8. 前記メモリーは、複数のアニメーションシーケンスを記憶し、前記アニメーションシーケンスを判定することは、前記複数のアニメーションシーケンスから個別のアニメーションシーケンスを選択することを含む、請求項1に記載のアニメーションシステム。
  9. 前記アニメーションシーケンスは、前記アニメ人物の所定の範囲内に前記来園者がもはやいないことを示す前記来園者検出データに応答して停止する、請求項1に記載のアニメーションシステム。
  10. 前記アニメーションシーケンスは、所定の期間の経過後に停止する、請求項1に記載のアニメーションシステム。
  11. 前記アニメーション制御装置は、所定の期間の経過後に、所定の範囲内の次に最も近い来園者又は光沢のある物体に基づいて前記アニメーションシーケンスを変えるように構成される、請求項1に記載のアニメーションシステム。
  12. 複数のセンサーから、アニメ人物の近くの来園者の存在を示す来園者検出データを受け取るステップと、
    金属物体又は光沢のある物体を検出するように構成された複数のセンサーから、光沢物体検出データを受け取るステップと、
    前記受け取った来園者検出データ及び前記受け取った光沢物体検出データに基づいて、前記来園者上の又はその近くの金属物体又は光沢のある物体の存在を判定するステップと、
    前記アニメ人物に、前記金属物体又は前記光沢のある物体の前記存在に基づいて、アニメーションを実行させる制御信号を送るステップと、
    を含み、
    前記アニメーションは、リアルタイムの反応、事前にプログラムされた反応、又はこれらの組み合わせを含む、方法。
  13. 前記来園者上の又はその近くの前記金属物体又は前記光沢のある物体の存在を判定するステップは、前記複数のセンサーのうちの1又は2以上のカメラから受け取られた情報に基づき、前記情報は、骨格追跡を使用して前記来園者の骨格を識別する、顔認識を使用して前記来園者の顔を識別する、身体認識を使用して前記来園者の身体部分を識別する、又はこれらの組み合わせを使用して識別するために使用され、前記金属物体又は前記光沢のある物体は、骨格追跡を使用して前記来園者の身体上に又はその近くにあると判定され、前記顔認識によって前記来園者の前記顔上に又はその近くにあると判定され、又は前記身体認識によって前記来園者の手足上にあると判定される、請求項12に記載の方法。
  14. 前記金属物体又は前記光沢のある物体の存在を判定するステップは、前記骨格追跡又は身体認識によって判定されたような、前記来園者の前記識別された身体部分上の又はその近くの対象の地点に最も近い前記金属物体を選択することによって、前記光沢物体検出データに基づいて識別された複数の金属物体の中で前記金属物体を選択するステップを含む、請求項13に記載の方法。
  15. 前記対象の地点は、腰領域、手、足指、首、顔、又はこれらの組み合わせを含む、請求項14に記載の方法。
  16. 前記光沢物体検出データに基づいて、追加の金属物体又は光沢のある物体を識別するステップと、前記来園者検出データを使用して前記対象の地点から離れた前記追加の金属物体又は光沢のある物体の位置を判定することに基づいて、前記追加の金属物体又は光沢のある物体を無視するステップとを含む、請求項14に記載の方法。
  17. 前記光沢物体検出データは、1又は2以上の反射率センサー、磁場、赤外線、光学、又は誘導金属検出センサーからのデータ、1又は2以上のカメラからの形状データ、又はこれらの組み合わせを含む、請求項12に記載の方法。
  18. 前記アニメーションは、前記アニメ人物の所定の範囲内に前記来園者がもはやいないことを示す来園者検出データを受け取ることに応答して停止する、請求項12に記載の方法。
  19. 前記アニメーションは、所定の期間の経過後に停止する、請求項12に記載の方法。
  20. 所定の期間の経過後に、所定の範囲内の次に最も近い来園者又は光沢のある物体に基づいて前記アニメーションを変えるステップを含む、請求項12に記載の方法。
  21. アニメ人物を表示するように構成されたディスプレイ画面と、
    1又は2以上のカメラと、
    プロセッサ及びメモリーを含むディスプレイ制御装置と、
    を備える、表示アニメ人物システムであって、
    前記メモリーは、前記プロセッサによって実行可能な命令を記憶し、前記命令は、前記ディスプレイ制御装置に、
    前記アニメ人物の所定の範囲内の来園者の存在を示す来園者検出データを受け取り、
    前記1又は2以上のカメラから画像データを受け取り、
    前記来園者検出データに基づいて前記ディスプレイ画面に対する来園者の位置を判定し、
    前記画像データに基づいて前記来園者上の又はその近くの光沢のある物体を識別し、
    前記来園者の位置及び前記光沢のある物体の識別に基づいて前記ディスプレイ画面上に表示する前記アニメ人物のアニメーションシーケンスを判定し、前記アニメーションシーケンスは、前記画像データに基づく前記来園者上の又はその近くの前記光沢のある物体の識別及び前記来園者検出データに基づく前記来園者の位置に反応し、前記アニメーションシーケンスは、リアルタイムの反応、又は事前にプログラムされた反応を含むものであり、
    前記ディスプレイ画面に前記アニメーションシーケンスを表示するようにさせる前記アニメーションシーケンスを示す制御信号を送る、
    ようにさせるように構成される、表示アニメ人物システム。
  22. 前記命令は、前記受け取った来園者検出データが前記所定の範囲内に前記来園者がもはやいないことを示すことに応答して、前記アニメ人物に、初期位置に戻るようにさせるように構成される、請求項21に記載の表示アニメ人物システム。
  23. 前記命令は、所定の期間の経過後に、次に最も強い検出された光沢のある物体に基づいて、来園者追跡のリマッピングを引き起こすように構成される、請求項21に記載の表示アニメ人物システム。
  24. 前記画像データは、前記所定の範囲内の他の来園者に関連した追加の識別された光沢のある物体を示す、請求項21に記載の表示アニメ人物システム。
  25. 前記ディスプレイ制御装置は、前記光沢のある物体の識別が、前記追加の光沢のある物体に対して前記ディスプレイ画面に最も近い光沢のある物体に関連するとの判定に基づいて、前記アニメーションシーケンスを判定するように構成され、前記追加の識別された光沢のある物体は、前記アニメーションシーケンスを判定するために使用されない、請求項24に記載の表示アニメ人物システム。
  26. 前記ディスプレイ制御装置は、所定の期間の経過後に、所定の範囲内の次に最も近い来園者又は光沢のある物体に基づいて前記アニメーションシーケンスを変えるように構成される、請求項25に記載の表示アニメ人物システム。
  27. 前記来園者検出データは、前記1又は2以上のカメラから判定される、請求項21に記載の表示アニメ人物システム。
  28. 前記来園者検出データは、1又は2以上の近接センサーから判定される、請求項21に記載の表示アニメ人物システム。
JP2021533556A 2018-12-13 2019-12-12 物体追跡アニメ人物システム及び方法 Active JP7489388B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024077804A JP2024119807A (ja) 2018-12-13 2024-05-13 物体追跡アニメ人物システム及び方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862779373P 2018-12-13 2018-12-13
US62/779,373 2018-12-13
US16/269,471 US10679397B1 (en) 2018-12-13 2019-02-06 Object tracking animated figure systems and methods
US16/269,471 2019-02-06
PCT/US2019/066068 WO2020123863A1 (en) 2018-12-13 2019-12-12 Object tracking animated figure systems and methods

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024077804A Division JP2024119807A (ja) 2018-12-13 2024-05-13 物体追跡アニメ人物システム及び方法

Publications (3)

Publication Number Publication Date
JP2022513800A JP2022513800A (ja) 2022-02-09
JPWO2020123863A5 JPWO2020123863A5 (ja) 2022-12-05
JP7489388B2 true JP7489388B2 (ja) 2024-05-23

Family

ID=70973283

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021533556A Active JP7489388B2 (ja) 2018-12-13 2019-12-12 物体追跡アニメ人物システム及び方法
JP2024077804A Pending JP2024119807A (ja) 2018-12-13 2024-05-13 物体追跡アニメ人物システム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024077804A Pending JP2024119807A (ja) 2018-12-13 2024-05-13 物体追跡アニメ人物システム及び方法

Country Status (8)

Country Link
US (3) US10679397B1 (ja)
EP (1) EP3894994A1 (ja)
JP (2) JP7489388B2 (ja)
KR (1) KR20210100179A (ja)
CN (1) CN118550412A (ja)
CA (1) CA3121243A1 (ja)
SG (1) SG11202105148SA (ja)
WO (1) WO2020123863A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11654375B2 (en) 2019-08-07 2023-05-23 Universal City Studios Llc Systems and methods for detecting specular surfaces
KR20220005922A (ko) * 2020-07-07 2022-01-14 삼성전자주식회사 디스플레이 모듈 및 그 제조 방법
US11964214B2 (en) 2020-08-19 2024-04-23 Universal City Studios Llc Systems and methods for adjusting an operation of an attraction system
US20220327754A1 (en) * 2021-04-09 2022-10-13 Universal City Studios Llc Systems and methods for animated figure display
WO2023220310A1 (en) * 2022-05-11 2023-11-16 Universal City Studios Llc Guest-specific artificial intelligence entity systems and methods

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012111038A (ja) 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2014042190A (ja) 2012-08-23 2014-03-06 Sony Corp 制御システムおよびプログラム
JP2014520469A (ja) 2011-06-24 2014-08-21 エントロピック・コミュニケーションズ・インコーポレイテッド ディスプレイ光のシーン照明を使用して反射物体を高信頼度で検出するための方法及びシステム
JP2018067785A (ja) 2016-10-19 2018-04-26 前川 博文 コミュニケーションロボットシステム
JP2018074281A (ja) 2016-10-26 2018-05-10 大日本印刷株式会社 画像プリントシステム
JP2018156404A (ja) 2017-03-17 2018-10-04 エイディシーテクノロジー株式会社 展示装置

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6070269A (en) 1997-07-25 2000-06-06 Medialab Services S.A. Data-suit for real-time computer animation and virtual reality applications
CN1357131A (zh) 1999-11-12 2002-07-03 法格电子公司 用于识别打印带上的标记的传感器
NO329603B1 (no) 2007-11-22 2010-11-22 Integrated Optoelectronics As Fremgangsmate og system for maling og bestemmelse / gjenkjenning av ulike materialer
US8121351B2 (en) * 2008-03-09 2012-02-21 Microsoft International Holdings B.V. Identification of objects in a 3D video using non/over reflective clothing
KR101685922B1 (ko) 2010-04-05 2016-12-13 삼성전자주식회사 가상 세계 처리 장치 및 방법
US20110306397A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Audio and animation blending
US8749396B2 (en) 2011-08-25 2014-06-10 Satorius Stedim Biotech Gmbh Assembling method, monitoring method, communication method, augmented reality system and computer program product
US9656392B2 (en) * 2011-09-20 2017-05-23 Disney Enterprises, Inc. System for controlling robotic characters to enhance photographic results
US8874444B2 (en) * 2012-02-28 2014-10-28 Disney Enterprises, Inc. Simulated conversation by pre-recorded audio navigator
US9747495B2 (en) * 2012-03-06 2017-08-29 Adobe Systems Incorporated Systems and methods for creating and distributing modifiable animated video messages
JP2014002190A (ja) 2012-06-15 2014-01-09 Dainippon Printing Co Ltd コンピュータ装置及びプログラム
US9200790B2 (en) * 2012-06-29 2015-12-01 Hallmark Cards, Incorporated Decorative object that produces a complimentary shadow design
US10207193B2 (en) * 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
JP6573078B2 (ja) 2016-07-06 2019-09-11 住友電装株式会社 電気接続箱の排水構造
US10105619B2 (en) 2016-10-14 2018-10-23 Unchartedvr Inc. Modular solution for delivering a virtual reality attraction
US10775880B2 (en) * 2016-11-30 2020-09-15 Universal City Studios Llc Animated character head systems and methods
US10861267B2 (en) * 2017-08-04 2020-12-08 James Andrew Aman Theme park gamification, guest tracking and access control system
US10402240B2 (en) * 2017-12-14 2019-09-03 Disney Enterprises, Inc. Mediating interactions among system agents and system clients
US11669726B2 (en) * 2018-07-02 2023-06-06 Magic Leap, Inc. Methods and systems for interpolation of disparate inputs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014520469A (ja) 2011-06-24 2014-08-21 エントロピック・コミュニケーションズ・インコーポレイテッド ディスプレイ光のシーン照明を使用して反射物体を高信頼度で検出するための方法及びシステム
JP2012111038A (ja) 2012-03-21 2012-06-14 Advanced Telecommunication Research Institute International アンドロイド制御システム
JP2014042190A (ja) 2012-08-23 2014-03-06 Sony Corp 制御システムおよびプログラム
JP2018067785A (ja) 2016-10-19 2018-04-26 前川 博文 コミュニケーションロボットシステム
JP2018074281A (ja) 2016-10-26 2018-05-10 大日本印刷株式会社 画像プリントシステム
JP2018156404A (ja) 2017-03-17 2018-10-04 エイディシーテクノロジー株式会社 展示装置

Also Published As

Publication number Publication date
CN113168237A (zh) 2021-07-23
WO2020123863A1 (en) 2020-06-18
US20220292754A1 (en) 2022-09-15
EP3894994A1 (en) 2021-10-20
CA3121243A1 (en) 2020-06-18
US10679397B1 (en) 2020-06-09
US20200193669A1 (en) 2020-06-18
JP2022513800A (ja) 2022-02-09
CN118550412A (zh) 2024-08-27
JP2024119807A (ja) 2024-09-03
US11907414B2 (en) 2024-02-20
US20200258281A1 (en) 2020-08-13
KR20210100179A (ko) 2021-08-13
US11354842B2 (en) 2022-06-07
SG11202105148SA (en) 2021-06-29

Similar Documents

Publication Publication Date Title
JP7489388B2 (ja) 物体追跡アニメ人物システム及び方法
US9911240B2 (en) Systems and method of interacting with a virtual object
US20240057746A1 (en) Smart mirror system and methods of use thereof
CN106164818B (zh) 使用随着时间的眼睛注视评估进行选择
US20230410358A1 (en) Object orientation detection system
US20200336705A1 (en) Smart mirror system and methods of use thereof
CA3062541A1 (en) Contextual applications in a mixed reality environment
CN106104650A (zh) 经由凝视检测进行远程设备控制
EP3062195A1 (en) Interactive mirror
CN110022954A (zh) 动画角色头部系统和方法
US20230342024A1 (en) Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space
EP3037916B1 (en) Monitoring
CN113168237B (zh) 物体跟踪的动画形象的系统及方法
JP2022546254A (ja) 相互作用型アトラクションシステム及びオブジェクトとユーザとを関連付ける方法
CN116529652A (zh) 增强现实空间音频体验
JPWO2020123863A5 (ja)
WO2020057570A1 (en) System and process for identification and illumination of anatomical sites of a person and articles at such sites
Ghali et al. Vision-mediated interaction with the Nottingham caves
CN116472559A (zh) 镜面反射表面映射

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240513

R150 Certificate of patent or registration of utility model

Ref document number: 7489388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150