JP2009521758A - モーションキャプチャにおけるグループトラッキング - Google Patents

モーションキャプチャにおけるグループトラッキング Download PDF

Info

Publication number
JP2009521758A
JP2009521758A JP2008547787A JP2008547787A JP2009521758A JP 2009521758 A JP2009521758 A JP 2009521758A JP 2008547787 A JP2008547787 A JP 2008547787A JP 2008547787 A JP2008547787 A JP 2008547787A JP 2009521758 A JP2009521758 A JP 2009521758A
Authority
JP
Japan
Prior art keywords
group
motion capture
marker
frame
markers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008547787A
Other languages
English (en)
Other versions
JP5356036B2 (ja
Inventor
ゴードン,デミアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2009521758A publication Critical patent/JP2009521758A/ja
Application granted granted Critical
Publication of JP5356036B2 publication Critical patent/JP5356036B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Road Signs Or Road Markings (AREA)

Abstract

フレームシーケンス中のモーションキャプチャマーカグループをトラッキングする方法では:現フレーム中の複数のモーションキャプチャマーカの間のグループ関係を設定し;そして現フレーム中の複数のモーションキャプチャマーカにグループ関係を使用してラベル付けする。
【選択図】図1

Description

本発明は概して、モーションキャプチャ(motion capture)に関するものであり、特にモーションキャプチャマーカデータに対してグループごとにトラッキングを行なう方法及びシステムに関するものである。
通常のモーションキャプチャシステムは、空間ボリュームを取り囲む複数の固定カメラを含む。これらのカメラは、人のようなターゲットに取り付けられるマーカ群の動きを記録する。記録した動きに基づいて、ターゲットの動きのモデルを作成し、そして次に、当該モデルを使用して、映画またはビデオゲームにおけるような該当する動きのグラフィカル表示を生成することができる。
モーションキャプチャシステムの一の実施形態では、撮影画像上のマーカ群にラベル付けしてマーカが何を表わしているかの確認を容易にする。非常に多くの画像を特定のシーンに関して撮影することができ、これらの画像に基づいて、ボリュームデータの連続フレームが生成される。シーンの中の各マーカを、連続フレームに渡って個々にトラッキングして、当該マーカの動きのグラフィカル表示を生成する。
トラッキング作業は、例えばアクターに取り付けられる幾つかのマーカの軌跡を、非常に多くのフレーム(ボリューム)に渡ってトラッキングする必要がある場合に複雑になる。この作業は、複数のマーカを取り付けた複数のアクター及び/又はオブジェクトがシーンにおいて交錯する場合には極めて複雑になる。
従って、必要なのは、複数のモーションキャプチャマーカを従来の方法を使用して上述のようにトラッキングする際に確認されるこれらの深刻な問題を解決するシステム及び方法である。
本発明は、モーションキャプチャデータフレームシーケンス中のモーションキャプチャマーカデータに対するグループごとのトラッキングを可能にする。
一の実施形態においては、フレームシーケンス中のモーションキャプチャマーカグループをトラッキングする方法では:現フレーム中の複数のモーションキャプチャマーカの間のグループ関係を設定し;そして現フレーム中の複数のモーションキャプチャマーカに、グループ関係を使用してラベル付けする。
別の実施形態では、フレームシーケンス中のモーションキャプチャマーカグループをトラッキングするシステムは:基準モーションキャプチャマーカグループ情報を生成する基準グループモジュールと;そしてラベル付けされたマーカグループ軌跡データを基準モーションキャプチャマーカグループ情報を使用して生成するグループ軌跡ラベル付けモジュールと、を備える。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図を吟味することにより一層容易に理解できるものと思われる。
ここに開示する所定の実施形態によって、連続するモーションキャプチャデータボリュームにおけるモーションキャプチャマーカ群の軌跡をトラッキングする方法及びシステムが実現する。一の実施形態では、個々のモーションキャプチャマーカをトラッキングする操作は、個々のモーションキャプチャマーカを含むグループをトラッキングし、そしてグループ関係情報を利用することにより極めて容易になる。
例えば、ここに開示する一つの方法によって、グループ関係をモーションキャプチャデータの基準フレーム内で設定し、当該グループのマーカ群にラベル付けし、そして次に、他のモーションキャプチャデータフレーム群のマーカ群に、基準フレーム内で設定されたグループ関係情報を使用してラベル付けすることができる。グループ関係は基準フレーム内で、注目マーカ群に関する情報を使用して設定することができる、または所定のマーカグループ関係を適用することにより設定することができる。更に、グループ関係情報は、拡張分析を含む形状分析によって補完することができ、これによって他のフレーム群のマーカ群にラベル付けすることができる。
別の例では、コンピュータ上でホストされるグループトラッキングシステムは、基準グループモジュールと、そしてグループ軌跡ラベル付けモジュールと、を含む。システムは、ボリュームマーカ位置データを含むフレームデータを受信し、基準グループ情報をマーカ位置データに基づいて生成し、そしてラベル付けされたマーカグループ軌跡データを生成する。システムは更に、形状分析モジュールと、そして拡張分析モジュールと、を含む。
この記述を一読した後に、この技術分野の当業者には、本発明をどのようにして種々の別の実施形態、及び別のアプリケーションにおいて実施すればよいかが明らかになるであろう。しかしながら、本発明の種々の実施形態をここに説明するが、これらの実施形態は例示としてのみ提示されるのであって、本発明を制限するために提示されるのではないことを理解されたい。従って、種々の別の実施形態に関するこの詳細記述は、添付の請求項に示される本発明の技術範囲または特許の広さ(breadth)を制限するものとして捉えられるべきではない。
図1は、例示としてのモーションキャプチャシステム100を示すブロック図である。図示のように、モーションキャプチャ(MOCAP)システム100は、撮影空間110と、モーションキャプチャカメラ120A〜Cと、モーションキャプチャ処理システム130と、グループトラッキングシステム132と、マーカ140A〜Cと、そしてアクター160と、を含む。
撮影空間110はボリュームであり、このボリュームの中で、モーションキャプチャカメラ120A〜Cが動きを撮影する。マーカ140A〜Cはアクター160に取り付けられ、そしてアクター160は撮影空間110の内部で演技する。モーションキャプチャ処理システム130は、画像データの複数のフレームシーケンスをモーションキャプチャカメラ120A〜Cから受信し、そしてこれらのフレームシーケンスを合成して、演技中のアクターの動きのモデルを表わす3次元(3D)ボリュームデータを生成する。ボリュームデータの一つのフレームシーケンスは、「ビート(beat)」と表記される。モーションキャプチャ処理システム130は通常さらに、インターフェースモジュール及びディスプレイモジュール(図示せず)を含む。
一の実施形態では、アクター160のボディ(体)に取り付けられるマーカ140A〜Cは小さい逆反射球である。撮影空間110は高出力照明光源によって照明され、そしてマーカ140A〜Cは照明光を明るい照明ポイントとして反射し、これらの照明ポイントは、モーションキャプチャカメラ120A〜Cが生成する画像データとして撮影される。
図1に示す例では、マーカ140A〜Cは、アクター160の左上腕に取り付けられる。マーカ140A〜Cによって一つのグループ150が定義される。上部前腕はボディ(体)の比較的硬い部分であるので、マーカ140A〜Cは、アクター160が演技している間は、互いに対して非常に安定した位置に留まることになる。従って、局所座標系をグループ150に関して定義することができ、この局所座標系では、マーカ140A〜Cの相対的な位置関係は、対象物体(上腕)の並進運動及び回転運動が変化した場合でもフレームごとにほとんど変化することがない。
グループトラッキングシステム132はビートデータをモーションキャプチャ処理システム130から受信し、そしてグループトラッキング機能をビートに撮影されているマーカデータに対して実行する。マーカ群に固有の形でラベル付けされ、これにより、これらのマーカの軌跡をビートの連続3次元ボリュームとして撮影し、そして仮想アクターまたはオブジェクトに適用することができる。グループトラッキングでは、注目マーカ群を個々にではなくグループとしてトラッキングすることにより、汎用マーカトラッキングプロセスの精度及び効率を高めることができる。
図2は、グループトラッキングを行なう例示としての方法200のフローチャートである。グループ関係を設定するためのラベル付けされたデータの単一フレームを使用して、グループトラッキング機能では、ビートの開始フレームの前または後の全てのフレームのグループに属する、ラベル付けされていないマーカ群にラベル付けしようとする。一般的に、既にラベル付けされているマーカ群に対してラベル付けし直すことはない。
データフレームを判断ボックス210で受信する。受信データフレームは通常、ラベル付けされていない複数のモーションキャプチャマーカデータポイントを含み、これらのポイントに基づいて、基準グループを作成する。データフレームはビートの第1データフレームとすることができる、当該データフレームは最終データフレームとすることができる、または当該データフレームは、第1データフレームと最終データフレームとの間のいずれかのデータフレームとすることができる。基準グループは判断ボックス220で設定され(図3A及び3Bを参照)、そしてデータフレームに含まれる複数のマーカから選択される少なくとも所定最小数のマーカを含む。これらのマーカは、データフレームによって表わされるボリュームの中のこれらのマーカの位置によって特定される。マーカグループは固有の形状も有し、固有の形状は他のデータフレームに含まれるマーカ群にラベル付けするために使用される。グループのマーカ群に判断ボックス230でラベル付けする。ラベル付けでは、固有の識別情報をグループの各マーカに関連付けて、グループ内での区別を容易にする。判断ボックス240では、ビートの他のデータフレーム群に含まれるマーカグループ群を、初期データフレームに含まれる基準グループと一致するように設定する(図4A及び4Bも参照)。他のデータフレーム群の各データフレーム中の該当するグループに含まれるマーカ群に、基準グループのマーカ群に関連付けられる固有ラベル群と一致するようにラベル付けする。基準グループの各マーカの軌跡はこのようにして、データフレームシーケンスに基づいて作成され、この場合、各マーカは、当該マーカに固有のラベルによって特定される。
図3A及び3Bは、基準マーカグループを、図2に示すフローチャートの判断ボックス220に従って行なわれるように設定する例示としての方法のフローチャートである。図3Aでは、判断ボックス300において、注目マーカ群を初期データフレーム内に特定する。例えば、図1によれば、アクター160の上腕に配置される3つのマーカ140A〜Cを初期データフレーム内で選択して一つのマーカ基準グループを定義することにより、ビートのデータフレーム群全体に対するトラッキングを行なうことができる。これらの注目マーカは種々の方法で選択される。例えば、ソフトウェアツールによってユーザは、基準グループをコンピュータ画面に表示されるカーソルマーカを使用して選択を行なうことにより設定することができる。判断ボックス310では、マーカ基準グループに固有の座標系を設定する。局所座標系を使用して、次のフレームデータのマーカ群に対するラベル付けを、分析を行なう際のボリューム中のマーカ群の相対的な位置関係が、対象物体(上腕)の並進運動及び回転運動が変化した場合でも変化することがないようにすることにより容易にする。このような座標系は多くの方法で、この技術分野の当業者によって作成することができることを理解されたい。
図3Bは、基準マーカグループを、図2に示す方法の判断ボックス220に従って行なわれるように設定する別の方法のフローチャートである。判断ボックス320では、所定の基準グループを受信する。一つの例では、図1によれば、特定のアクター160の上腕に配置されるマーカ140A〜Cを含む基準グループを設定し、そして保存する。保存した基準グループを呼び出し、そして当該特定のアクター160が後の時点で演技している間に生成される上腕マーカデータに適用することができる。基準グループデータのデータベースは、モーションキャプチャシーンにおけるいずれのアクターまたはオブジェクトに関しても維持し、そしてアクセスすることができるので、マーカトラッキングを簡易化することができ、そして一貫性のあるマーカトラッキングを行なうことができる。判断ボックス330では、マーカ基準グループに固有の座標系を、判断ボックス310に関連して上に議論したように設定する。
図4A及び4Bは、モーションキャプチャフレームシーケンス中のマーカグループ群に、図2に示すフローチャートの判断ボックス240に従って行なわれるようにラベル付けする例示としての方法のフローチャートである。次のデータフレームを判断ボックス400で受信する。次のデータフレームは、ラベル付けされていないマーカ群を含み、そしてシーケンス中で後に続くことができる、またはシーケンス中で先行することができる。次のデータフレームは、シーケンス中で隣接することもできる、またはシーケンス中で現フレームから離された一つ以上のフレームとすることができる。一旦、次フレームが受信されると、当該フレームは「現フレーム」と表記される。
判断ボックス410では、マーカ基準グループに含まれるマーカ群に対応する現フレーム中のラベル付けされていないマーカ群にラベル付けする(図5も参照されたい)。検査を判断ボックス420で行なって、グループトラッキングにより処理すべき更に多くのデータフレームがビートの中に残っているかどうかを判断する。現フレームが、ビート中の処理すべき最後のフレームではない場合、判断ボックス400を再度実行し、そして次のデータフレームを受信する。
図4Bは、モーションキャプチャフレームシーケンス中のマーカグループ群に、図2に示すフローチャートの判断ボックス240に従って行なわれるようにラベル付けする別の方法のフローチャートである。幾つかの数のデータフレームを予め分析して、グループ内の幾つかのマーカが一つのフレームに、または別のフレームに含まれていないかどうかを判断すると有用である場合が多い。例えば、一つのマーカに一つのデータフレームにおいてラベル付けすることができるが、次に当該マーカが次フレームにおいてのみ「消えて」、当該次フレームの後の後続フレームに「再び現われる」。或るデータフレーム中の該当するマーカに対するラベル付けを行なわないように判断して、より理想的に適した該当するマーカが後続データフレームに含まれるときに当該マーカが或るデータフレームにおいて欠落している状態になるようにすることができる。更に、範囲外の或るマーカ、または不適合の或るマーカに、グループの一部として不正にラベル付けして欠落マーカを埋め合わせようとするような試みは行なわれない。
複数の次のデータフレームを判断ボックス430で受信する。複数の次のデータフレームは、ラベル付けされていないマーカ群を含み、そしてシーケンス中で現フレームの後に続く、またはシーケンス中で現フレームに先行するデータフレーム群とすることができる。次に、複数の受信データフレームの内の一つのデータフレームが選択され、そして判断ボックス440で現フレームになる。
判断ボックス410では、マーカ基準グループに含まれるマーカ群に対応する現フレーム中のラベル付けされていないマーカ群にラベル付けする(図5も参照されたい)。検査を判断ボックス450で行なって、判断ボックス430で受信した複数のデータフレームの中に処理すべきデータフレームが更に残っているかどうかについて判断する。データフレームが更に残っていて処理する必要がある場合、判断ボックス440で一つのデータフレームを選択して現フレームとする。データフレームが更に残ってはいない場合、別の検査を判断ボックス420で行なって、データフレームがビート中に更に残っていて、グループトラッキングによって処理すべきかどうかについて判断する。現フレームが、ビート中の処理すべき最後のフレームではない場合、判断ボックス430を再度実行し、そして別のセットの複数の次のデータフレームを受信する。
図5は、或るモーションキャプチャフレーム中のマーカグループ群に、図4に示すフローチャートの判断ボックス410に従って行なわれるようにラベル付けする例示としての方法のフローチャートである。現データフレーム中のラベル付けされていないマーカ群のグループを判断ボックス500で設定する(図6も参照されたい)。
一の実施形態では、形状分析を用いて不正確なマーカラベル付けを無くす、またはほぼ最小限に抑える。従って、形状分析を判断ボックス510で行なう(図7も参照されたい)。基準グループの形状からのラベル付けされていないマーカ群(グループの)の形状のずれの指標を判断ボックス510で生成し、そして判断ボックス520で一つ以上の許容値と比較する形で検査する。ずれ指標が許容値(群)に収まる場合、グループを構成するラベル付けされていないマーカ群に判断ボックス530でラベル付けする。ずれ指標が許容値(群)に収まらない場合、次のデータフレームを判断ボックス560で受信する。一の実施形態では、図4Aに示す方法に従って、次のデータフレームを判断ボックス400と同じようにして判断ボックス560で受信する。別の実施形態では、図4Bに示す方法に従って、次のデータフレームを、データフレームを複数の次の受信データフレームの中から判断ボックス440で選択する方法と同じようにして判断ボックス560で受信する。いずれの実施形態の場合においても、受信データフレームは現フレームとなり、この場合、マーカグループを判断ボックス500で設定する。
グループを構成するラベル付けされていないマーカ群に判断ボックス530でラベル付けした後、検査を判断ボックス540で行なって、グループが十分な数のラベル付けされたマーカ、及びラベル付けされていないマーカを含んでいるかどうかを判断する。一つの例では、マーカ(ラベル付けされたマーカ、及びラベル付けされていないマーカ)の最小数を3として、局所座標系を適切に定義する。ラベル付けされたマーカ、及びラベル付けされていないマーカの数が最小数を下回る場合、グループを次フレームにおいて再設定する試みを行なう。従って、判断ボックス550を実行してマーカグループを再設定する(図8も参照されたい)。
図6は、モーションキャプチャマーカグループを、図5に示すフローチャートの判断ボックス500に従って行なわれるように設定する例示としての方法のフローチャートである。判断ボックス600では、或るボリューム領域を決定し、このボリューム領域内には、基準マーカグループのラベル付けされたマーカ群が配置される。一の実施形態では、この領域は、基準グループが判断ボックス220(図3A及び3Bを参照)で最初に設定されるときに事前に決定される。領域については、基準グループ情報の中で記述されることになる。領域は、ラベル付けされたマーカ群の全てを取り込み、そして残りのマーカ群を除外する操作を容易にするいずれかの形状を有することができる。普通、球のような容易に描くことができる形状が使用される。領域内に配置される、現フレーム中のラベル付けされていないマーカ群は、他の全てのラベル付けされていないマーカ群から分離される。領域の内部に配置されるマーカ群は判断ボックス610で位置が特定され、そしてグループの一部分として保持される。一の実施形態では、局所座標系は現フレーム中で、図3A及び3Bの判断ボックス310及び330のそれぞれと同様に判断ボックス620で設定される。
図7は、モーションキャプチャマーカグループを、図5に示すフローチャートの判断ボックス510に従って行なわれるように形状分析する例示としての方法のフローチャートである。現フレーム中のラベル付けされていないマーカ群を基準グループ内の該当するマーカ群に判断ボックス700で関連付ける。マーカ群の位置によって、グループの「形状」を局所座標系の中で定義する。従って、対象物体の並進運動的に、及び回転運動的に不変量の比較が、基準グループにおけるラベル付けされていないマーカ群の位置と、ラベル付けされたマーカ群の位置との間で行なうことができる。ラベル付けされたマーカ群に最も近接して配置されるラベル付けされていないマーカ群は、現フレーム内のグループ構成マーカ候補群として選択される。
ラベル付けされた各マーカが示し、かつデータフレームシーケンス全体における当該マーカの軌跡から抽出される運動特性によって、ラベル付けされていないマーカ群をラベル付けされたマーカ群に関連付け易くすることができる。例えば、処理済みデータフレームシーケンス全体におけるマーカの運動を特徴付ける速度情報及び慣性情報を現フレームに伝搬させ、該当するマーカが配置される可能性のある場所を予測することができる。
ラベル付けされていないマーカ群をラベル付けされたマーカ群に関連付ける操作は、現フレーム中の注目グループに対する、関連付けられていない他のマーカグループ群の相対位置を利用する「補助グループトラッキング(assisted group tracking)」によって更に容易になる。
一の実施形態では、処理は、ラベル付けされていないマーカ群及びラベル付けされたマーカ群の関連付けによって、現フレーム中の2つ以上のラベル付けされていないマーカを、基準グループ内の一つ以上のラベル付けされたマーカに一致させる複数の解が得られる場合に中止することができる。従って、ユーザが介入し、そして例えば現フレーム中の最良のマーカを手動で選択してラベル付けを行なうことができる。
拡張分析を現フレーム内のグループ(現グループ)に対して判断ボックス710で行なう。一の実施形態では、簡易な拡張分析によってグループ拡張を所定のグループ拡張値と、或る+/−許容範囲内で比較する。すなわち、形状を現グループ内で定義するマーカ群の位置は、基準グループの形状によって定義される形状から許容範囲内でずれることが許容される。
別の実施形態では、学習型拡張分析(learned stretch analysis)を用いる。既にラベル付けされているフレーム群中の基準グループの形状情報を使用してグループ拡張値(例えば、或る+/−許容範囲の)を定義する。この情報を提供するフレーム群は、現ビートの一部分とすることができる、または外部ストレージソースから読み込むことができる。これらのフレームは現ビートまたは別のビートにおいて既にラベル付けされていて、この場合、マーカ群はほぼ同じ場所に配置される。ユーザは拡張距離値を、グループが定義される或るフレームシーケンスに関して保存する。次に、拡張距離をグループ追跡格納部に、これらのマーカの所定の拡張値として保存する。幾つかのこのような所定の拡張値はこのようにして、ユーザが定義するいずれかの所定のマーカグループに関して保存し、そして取り出すことができる。
別の実施形態では、顔面表情記号化システム(facial action coding system:FACS)を拡張する手法を用いる。動き、及び/又は筋肉運動を記録するためにアクターの顔に取り付けられたマーカ群及び/又は電極群を利用して撮影される顔の動きを使用して、顔モデルを作成し、そしてアニメートする(例えば、2004年11月8日出願の「顔の筋肉及び眼の動きをトラッキングしてコンピュータグラフィックスにアニメートするシステム及び方法」と題する米国特許出願第10/984,488号を参照されたく、この特許出願をここで参照することにより、当該出願の内容が本明細書に組み込まれる)。マーカグループ群がどのようにして特定のアクターの顔の上を移動するかについてのFACS情報を使用して、拡張分析をグループに対して、FACSに加えられる制限に基づいて実行することができる。一の実施形態では、ユーザは、複数のFACSグループ内のマーカ群を選択する必要がある。各アクター及び各マーカグループに関するルックアップテーブルによって、動的なグループ拡張及びグループ定義が可能になって、現グループのマーカ群に正しくラベル付けすることにより局所座標系を維持し、そして「入れ替わり(swap)」(この場合、一つのグループの或るマーカが別のグループの或るマーカに非常に近接するようになり、そしてこれらのマーカのラベルが間違った形で相互に割り当てられる)を回避する。
別の実施形態では、拡張分析を使用して、ラベル付けを継続すべきか、または全て中止すべきかについての判断も行なう。例えば、グループ拡張が許容範囲を超えると判断されると、ラベル付けが停止する。
図8は、図5に示すフローチャートの判断ボックス550に従って行なわれるように、基準マーカグループを再設定する例示としての方法のフローチャートである。次のデータフレームを判断ボックス800で受信する。受信した次のデータフレームが現フレームになる。判断ボックス810では、基準グループのマーカ群の運動を特徴付ける速度及び慣性のような運動情報を処理済みデータフレームシーケンスに乗せて送信する。一の実施形態では、運動情報を各現フレームで求めることにより、当該運動情報を計算するのではなく、直近に更新された送信情報に簡単にアクセスすることができる。次に、当該情報を使用して、現フレームのどの部分に、グループ内のラベル付けされていないマーカ群が配置されている可能性があるかについて予測する。このようにして位置が特定されたマーカ群に判断ボックス820でラベル付けする。
図9Aは、コンピュータシステム900及びユーザ902を表わす図を示している。ユーザ902はコンピュータシステム900を使用することによりグループトラッキングを行なうことができる。コンピュータシステム900はグループトラッキングシステム916(図1に示すグループトラッキングシステム132と同様に機能する)を収容し、そして実行し、グループトラッキングシステム916はモーションキャプチャフレームデータを処理する。
図9Bは、グループトラッキングシステム916のホストとなるコンピュータシステム900を示す機能ブロック図である。コントローラ910はプログラマブルプロセッサであり、そしてコンピュータシステム900及び当該システムのコンポーネントの動作を制御する。コントローラ910は命令をメモリ920または埋め込みコントローラメモリ(embedded controller memory:図示せず)から読み込み、そしてこれらの命令を実行してシステムを制御する。コントローラ機能を実行するために、コントローラ910はグループトラッキングシステム916をソフトウェアシステムとして実現する。別の構成として、このサービスは、コントローラ910内の、またはコンピュータシステム900内の別のコンポーネントとして実装することができる。
メモリ920はデータを一時的に保存して、コンピュータシステム900の他のコンポーネントが使用することができるようにする。一の実施形態では、メモリ920はRAMとして実装される。別の実施形態では、メモリ920は更に、フラッシュメモリ及び/又はROMのような長期メモリまたは永久メモリを含む。
ストレージ930は、コンピュータシステム900の他のコンポーネントが使用することができるようにデータを一時的に、または長期間に渡って保存する、例えばグループトラッキングシステム916が使用するデータを保存する。一の実施形態では、ストレージ930はハードディスクドライブである。
メディア装置940は取り外し可能な媒体を受け入れ、そして挿入媒体に対するデータの読み出し、及び/又は書き込みを行なう。一の実施形態では、メディア装置940は光ディスクドライブである。
ユーザインターフェース950は、ユーザ入力をコンピュータシステム900のユーザから受け入れ、そして情報をユーザに対して提示するコンポーネントを含む。一の実施形態では、ユーザインターフェース950はキーボード、マウス、オーディオスピーカ、及びディスプレイを含む。コントローラ910はユーザからの入力を使用してコンピュータシステム900の動作を調整する。
I/Oインターフェース960は、外部ストレージまたは補助装置(例えば、プリンタまたはPDA)のような該当するI/O装置との接続を行なう一つ以上のI/Oポートを含む。一の実施形態では、I/Oインターフェース960のポートは:USBポート、PCMCIAポート、シリアルポート、及び/又はパラレルポートのようなポートを含む。別の実施形態では、I/Oインターフェース960は、外部デバイスと無線通信する無線インターフェースを含む。
ネットワークインターフェース970は、イーサネット(登録商標)接続をサポートするRJ−45または「Wi−Fi」インターフェース(これに制限されないが、802.11を含む)のような有線及び/又は無線ネットワーク接続を含む。
コンピュータシステム900は、コンピュータシステムでは普通の更に別のハードウェア及びソフトウェア(例えば、電源システム、冷却システム、オペレーティングシステム)を含むが、これらのコンポーネントは図を簡単にするために、図9Bには詳細には示されていない。他の実施形態では、コンピュータシステムの異なる構成を使用することができる(例えば、異なるバスまたはストレージ構成、或いはマルチプロセッサ構成)。
図10は、図9に示す例示としてのグループトラッキングシステム916を示す機能ブロック図である。グループトラッキングシステム916は、基準グループモジュール1000及びグループ軌跡ラベル付けモジュール1010を含む。基準グループモジュール1000は、ビートの初期フレームに含まれ、かつラベル付けされていないマーカ群を含むフレームデータを受信する。初期フレームはビート中のいずれかのデータフレームとすることができ、データフレームは、第1データフレーム、最終データフレーム、及び第1データフレームと最終データフレームとの間のいずれかのフレームを含む。フレームデータに基づいて、基準グループモジュール1000は基準グループ情報を生成する。一の実施形態では、基準グループモジュール1000は図2に示す判断ボックス210,220,及び230で処理を実行する。
グループ軌跡ラベル付けモジュール1010は基準グループ情報及びフレームデータを受信し、そしてラベル付けされたマーカグループ軌跡データ(図11も参照されたい)を生成する。ラベル付けされたマーカグループ軌跡データは、ビートの少なくとも一部分の連続データフレームに渡ってトラッキングされる一つ以上のグループのラベル付けされたマーカ群の軌跡を含む。一つの例では、ラベル付けされたマーカ群のグループの軌跡は、アクター160がモーションキャプチャ空間110で行なう演技の間のマーカ群(例えば、図1に示す140A〜C)の動きを表わす。マーカ140A〜Cの軌跡は、アクター160の上腕の動きを表わし、そしてこれらの軌跡を当該動きに合わせて使用し、アニメーション中の仮想キャラクタの上腕の動きに指示を出すことができる。
図11は、図10に示す例示としてのグループ軌跡ラベル付けモジュール1010を示す機能ブロック図である。グループ軌跡ラベル付けモジュール1010は、グループ設定モジュール1100、形状分析モジュール1110、グループラベル付けモジュール1120、拡張分析モジュール1130、及び軌跡モジュール1140を含む。
グループ設定モジュール1100は基準グループ情報(例えば、基準グループモジュール1000からの)及びフレームデータを受信し、そしてフレームデータの中のラベル付けされていないどのマーカがグループに含まれているかに関する情報を生成する。グループ設定モジュール1100は一の実施形態において普通、図6に示すマーカグループを設定する方法を実行する。
グループマーカ情報を形状分析モジュール1110に渡し、形状分析モジュール1110は、ラベル付けされていないマーカ群にラベル付けすべきかどうかに関する情報を、ラベル付けされていないマーカ群の形状及びグループ拡張性に基づいて生成する。この情報をグループラベル付けモジュール1120に渡す。形状分析モジュール1110は普通、図7に記述される方法を実行する。従って、形状分析モジュール1110は形状及びマーカ情報を拡張分析モジュール1130に渡す。今度は、拡張分析モジュール1130が、ラベル付けされていないマーカ群の拡張性に関する情報を形状分析モジュール1110に返送する。
グループラベル付けモジュール1120は、いずれのマーカ群にラベル付けすべきかについての情報を形状分析モジュール1110から受信し、そしてこの情報に従って、マーカ群にラベル付けする(または、ラベル付けしない)。グループラベル付けモジュール1120は普通、図5の判断ボックス530で処理を実行する。(ラベル付けされた、そしてラベル付けされていない)マーカ群及びグループ群に関する情報を軌跡モジュール1140に渡し、軌跡モジュール1140は、ビートの連続データフレームに渡ってトラッキングされる一つ以上のグループのラベル付けされたマーカ群の軌跡を含むラベル付けされたマーカグループ軌跡データを生成する。
本発明の一の実施形態は、或るグループ軌跡のシーケンス群を無視し、そして無視する代わりに、ラベル付けが行なわれようとしていて、かつ拡張値を上回っている軌跡「終了」フレームで停止する機能を含む。従って、ユーザは、既にラベル付けされているマーカ群を有するデータフレーム群を処理し直す必要を回避しながら、問題のあるデータフレームに辿り着いて介入することができる。この場合、例えばユーザに対して表示される現フレームは、グループトラッキング器がラベル付けを中止した位置のフレームである。
別の実施形態は、軌跡全体にラベル付けする機能、または別の構成として、軌跡データの各データフレームを分析して新規データの各フレームがグループトラッキング要件を満たすことを確認する機能のいずれかを含む。
別の実施形態では、マーカの入れ替わり状態(marker swap condition)を検出し易くするために、拡張値をグループ内で上回るグループ軌跡を含むラベル付けされたフレーム群のシーケンスの中のいずれのフレームでも停止する機能を提供する。非ラベル付けモード(non−labeling mode)を更に設定し、このモードでは、入れ替わり状態を検出し、そしてグループの既にラベル付けされているフレーム群の中で修復するが、グループの外のラベル付けされていない、または既知のマーカ群にラベル付けする試みは行なわれない。従って、ユーザは入れ替わり状態の修復のみに集中することができ、更に別の処理がマーカラベル付けに必要になることがない。
更に別の変形例及び実施形態を用いることもできる。更に、モジュール、ブロック、またはステップの内部での機能群のグループ化が、記述を分り易くするために行なわれていることを理解されたい。特定の機能群またはステップ群は、一つのモジュールから別のモジュールに本発明から逸脱しない限り移動させることができる。
開示した実施形態に関する上の記述は、この技術分野のどのような当業者でも本発明を作製する、または使用することができるように行なわれる。これらの実施形態に対する種々の変更は、この技術分野の当業者であれば容易に想到し得るものであり、そして本明細書に記載される一般的原理は他の実施形態に、本発明の技術思想または技術範囲から逸脱しない限り適用することができる。従って、本明細書において提供される記述及び図は、本発明の現時点で好適な実施形態を表わしているので、本発明が広義に意図する主題を表わすことを理解されたい。更に、本発明の技術範囲は、この技術分野の当業者が想到し得る他の実施形態を完全に包含するものであり、従って本発明の技術範囲は、添付の請求項によってのみ規定されることを理解されたい。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図を分析することにより部分的に明らかになり、これらの図では、同様の参照番号は同様の構成要素を指す。
モーションキャプチャマーカグループを含む例示としてのモーションキャプチャシーンを示している。 グループごとのトラッキングを行なう例示としての方法のフローチャートである。 図Aは基準マーカグループを設定する例示としての方法のフローチャートであり、図Bは基準マーカグループを設定する別の方法のフローチャートである。 モーションキャプチャフレームシーケンス中のマーカグループ群にラベル付けする例示としての方法のフローチャートである。 モーションキャプチャフレームシーケンス中のマーカグループ群にラベル付けする別の方法のフローチャートである。 一つのモーションキャプチャフレーム中のマーカグループ群にラベル付けする例示としての方法のフローチャートである。 モーションキャプチャマーカグループを設定する例示としての方法のフローチャートである。 モーションキャプチャマーカグループの形状分析を行なう例示としての方法のフローチャートである。 モーションキャプチャマーカグループを再設定する例示としての方法のフローチャートである。 図Aは、コンピュータシステム及びユーザを示し、図Bは、コンピュータシステムをホストとする例示としてのグループトラッキングシステムを示す機能ブロック図である。 例示としてのグループトラッキングシステムを示す機能ブロック図である。 例示としてのグループ軌跡ラベル付けモジュールを示す機能ブロック図である。

Claims (38)

  1. フレームシーケンス中のモーションキャプチャマーカグループをトラッキングする方法であって:
    現フレーム中の複数のモーションキャプチャマーカの間のグループ関係を設定し;
    前記現フレーム中の前記複数のモーションキャプチャマーカに、前記グループ関係を使用してラベル付けする、
    方法。
  2. 更に、
    次フレーム中のラベル付けされていない複数のモーションキャプチャマーカに前記グループ関係を使用してラベル付けする、
    請求項1記載の方法。
  3. 前記次フレームは後続フレームである、請求項2記載の方法。
  4. 前記次フレームは先行フレームである、請求項2記載の方法。
  5. 前記グループ関係を使用して、前記次フレーム中のラベル付けされていない前記複数のモーションキャプチャマーカにラベル付けする操作では、形状分析を行なう、請求項2記載の方法。
  6. 前記形状分析は拡張分析を含む、請求項5記載の方法。
  7. 前記拡張分析では、FACS(facial action coding system:顔面表情記号化システム)を拡張して用いる、請求項6記載の方法。
  8. 前記複数のモーションキャプチャマーカには、グループ拡張からのずれが最も小さくなるようにラベル付けされる、請求項6記載の方法。
  9. 前記グループ拡張は別のフレームにおいて定義される、請求項8記載の方法。
  10. 更に、
    前記現フレームと前記次フレームとの間に配置される中間フレーム中の複数のモーションキャプチャマーカへのラベル付けを省略する、
    請求項2記載の方法。
  11. 特定のマーカに対するラベル付けは、前記特定のマーカに関するラベル付け問題の解が複数存在する場合には行なわれない、請求項2記載の方法。
  12. 前記グループ関係は、
    少なくとも所定数のモーションキャプチャマーカを含む、請求項1記載の方法。
  13. 前記所定数は3である、請求項12記載の方法。
  14. 前記グループ関係が所定数のモーションキャプチャマーカよりも少ないモーションキャプチャマーカを含む場合、前記グループ関係は、次フレーム中の複数のモーションキャプチャマーカの間で再設定される、請求項1記載の方法。
  15. 前記所定数は3である、請求項14記載の方法。
  16. 別のグループ関係を使用して、前記次フレームにおける前記グループ関係の再設定を容易にする、請求項14記載の方法。
  17. 更に、
    座標系を設定する、請求項1記載の方法。
  18. 更に、
    前記座標系を構成して、前記グループ関係が並進運動により変化しないようにする、請求項17記載の方法。
  19. 更に、
    前記座標系を構成して、前記グループ関係が回転運動により変化しないようにする、請求項17記載の方法。
  20. 請求項1記載の方法を使用して生成される少なくとも一つの画像を格納するように構成される記憶媒体。
  21. 前記少なくとも一つの画像は動画像を形成するように構成される、請求項20記載の記憶媒体。
  22. フレームシーケンス中のモーションキャプチャマーカグループをトラッキングするシステムであって:
    基準モーションキャプチャマーカグループ情報を生成する基準グループモジュールと;
    ラベル付けされたマーカグループ軌跡データを前記基準モーションキャプチャマーカグループ情報を使用して生成するグループ軌跡ラベル付けモジュールと、
    を備えるシステム。
  23. 前記基準グループモジュールは、前記基準モーションキャプチャマーカグループ情報を、選択された注目モーションキャプチャマーカを使用して生成するように構成される、請求項22記載のシステム。
  24. 前記基準グループモジュールは、前記基準モーションキャプチャマーカグループ情報を、所定の基準グループを使用して生成するように構成される、請求項22記載のシステム。
  25. 前記グループ軌跡ラベル付けモジュールは更に、
    現フレーム中の複数のモーションキャプチャマーカの間のグループ関係を設定するグループ設定モジュールを含む、
    請求項22記載のシステム。
  26. 前記グループ軌跡ラベル付けモジュールは更に、
    モーションキャプチャマーカグループにラベル付けするグループラベル付けモジュールを含む、
    請求項22記載のシステム。
  27. 前記グループ軌跡ラベル付けモジュールは更に、
    形状分析情報を生成して、ラベル付けされたマーカグループ軌跡データを生成する前記操作を容易にする形状分析モジュールを含む、
    請求項22記載のシステム。
  28. 前記グループ軌跡ラベル付けモジュールは更に、
    形状分析情報を生成する前記操作を容易にする拡張分析モジュールを含む、
    請求項27記載のシステム。
  29. 請求項22記載のシステムを使用して生成される少なくとも一つの画像を格納するように構成される記憶媒体。
  30. 前記少なくとも一つの画像は動画像を形成するように構成される、請求項29記載の記憶媒体。
  31. フレームシーケンス中のモーションキャプチャマーカグループをトラッキングする装置であって:
    現フレーム中の複数のモーションキャプチャマーカの間のグループ関係を設定する手段と;
    前記現フレーム中の前記複数のモーションキャプチャマーカに前記グループ関係を使用してラベル付けする手段と、
    を備える装置。
  32. 更に、
    次フレーム中のラベル付けされていない複数のモーションキャプチャマーカに前記グループ関係を使用してラベル付けする手段を備える、
    請求項31記載の装置。
  33. 更に、
    前記現フレームと前記次フレームとの間に配置される中間フレーム中の複数のモーションキャプチャマーカへのラベル付けを省略する手段を備える、
    請求項32記載の装置。
  34. 更に、
    座標系を設定する手段を備える、
    請求項31記載の装置。
  35. 更に、
    前記座標系を構成して前記グループ関係が並進運動により変化しないようにする手段を備える、
    請求項34記載の装置。
  36. 更に、
    前記座標系を構成して前記グループ関係が回転運動により変化しないようにする手段を備える、
    請求項34記載の装置。
  37. 請求項31記載の装置を使用して生成される少なくとも一つの画像を格納するように構成される記憶媒体。
  38. 前記少なくとも一つの画像は動画像を形成するように構成される、請求項37記載の記憶媒体。
JP2008547787A 2005-12-23 2006-12-22 モーションキャプチャにおけるグループトラッキング Expired - Fee Related JP5356036B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US75338605P 2005-12-23 2005-12-23
US60/753,386 2005-12-23
US11/614,867 US8224025B2 (en) 2005-12-23 2006-12-21 Group tracking in motion capture
US11/614,867 2006-12-21
PCT/US2006/062573 WO2007076487A2 (en) 2005-12-23 2006-12-22 Group tracking in motion capture

Publications (2)

Publication Number Publication Date
JP2009521758A true JP2009521758A (ja) 2009-06-04
JP5356036B2 JP5356036B2 (ja) 2013-12-04

Family

ID=38193057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008547787A Expired - Fee Related JP5356036B2 (ja) 2005-12-23 2006-12-22 モーションキャプチャにおけるグループトラッキング

Country Status (8)

Country Link
US (1) US8224025B2 (ja)
EP (1) EP1964067A4 (ja)
JP (1) JP5356036B2 (ja)
KR (1) KR101431840B1 (ja)
AU (1) AU2006330458B2 (ja)
CA (1) CA2634933C (ja)
NZ (1) NZ569287A (ja)
WO (1) WO2007076487A2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7989689B2 (en) * 1996-07-10 2011-08-02 Bassilic Technologies Llc Electronic music stand performer subsystems and music communication methodologies
US7297856B2 (en) * 1996-07-10 2007-11-20 Sitrick David H System and methodology for coordinating musical communication and display
JP5627439B2 (ja) 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
US9323346B2 (en) 2012-12-31 2016-04-26 Futurewei Technologies, Inc. Accurate 3D finger tracking with a single camera
FR3016721A1 (fr) 2014-01-23 2015-07-24 Univ Lyon 1 Claude Bernard Procede de determination de la trajectoire d'un point d'un objet mobile
US10147218B2 (en) * 2016-09-29 2018-12-04 Sony Interactive Entertainment America, LLC System to identify and use markers for motion capture

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
US5767861A (en) * 1994-08-11 1998-06-16 Kabushiki Kaisha Sega Enterprises Processing apparatus and method for displaying a moving figure constrained to provide appearance of fluid motion
JP2000200088A (ja) * 1998-12-29 2000-07-18 Nagase & Co Ltd カラオケ装置
US6335977B1 (en) * 1997-05-28 2002-01-01 Mitsubishi Denki Kabushiki Kaisha Action recognizing apparatus and recording medium in that action recognizing program is recorded
US20020102010A1 (en) * 2000-12-06 2002-08-01 Zicheng Liu System and method providing improved head motion estimations for animation
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20040095352A1 (en) * 2000-11-27 2004-05-20 Ding Huang Modeling object interactions and facial expressions
US20040155962A1 (en) * 2003-02-11 2004-08-12 Marks Richard L. Method and apparatus for real time motion capture
US20040166954A1 (en) * 2002-08-12 2004-08-26 Callaway Golf Company Static pose fixture
US6819410B2 (en) * 2002-01-16 2004-11-16 National Rejectors, Inc. Gmbh Process for identifying an embossed image of a coin in an automatic coin tester
US20050163342A1 (en) * 2001-05-31 2005-07-28 Denx America, Inc. Image guided implantology methods
JP2005258891A (ja) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3dモーションキャプチャ方法および装置
US20060055699A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the expression of a performer
US7129927B2 (en) * 2000-03-13 2006-10-31 Hans Arvid Mattson Gesture recognition system
US20070166669A1 (en) * 2005-12-19 2007-07-19 Raydon Corporation Perspective tracking system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836219A (en) * 1987-07-08 1989-06-06 President & Fellows Of Harvard College Electronic sleep monitor headgear
US5517021A (en) * 1993-01-19 1996-05-14 The Research Foundation State University Of New York Apparatus and method for eye tracking interface
US6026321A (en) * 1997-04-02 2000-02-15 Suzuki Motor Corporation Apparatus and system for measuring electrical potential variations in human body
WO2000015157A1 (en) * 1998-09-14 2000-03-23 Rutgers, The State University Of New Jersey Prosthetic, orthotic, and other rehabilitative robotic assistive devices actuated by smart materials
US6774885B1 (en) * 1999-01-20 2004-08-10 Motek B.V. System for dynamic registration, evaluation, and correction of functional human behavior
WO2001073689A2 (en) * 2000-03-27 2001-10-04 Massachusetts General Hospital Method and system for viewing kinematic and kinetic information
US6673027B2 (en) * 2000-04-13 2004-01-06 Peter Fischer Posture measurement and feedback instrument for seated occupations
US6720984B1 (en) * 2000-06-13 2004-04-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Characterization of bioelectric potentials
US20050261559A1 (en) * 2004-05-18 2005-11-24 Mumford John R Wireless physiological monitoring system
US7447541B2 (en) * 2004-06-30 2008-11-04 Instrumentarium Corporation Monitoring subcortical responsiveness of a patient

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5227985A (en) * 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
US5767861A (en) * 1994-08-11 1998-06-16 Kabushiki Kaisha Sega Enterprises Processing apparatus and method for displaying a moving figure constrained to provide appearance of fluid motion
JPH09330424A (ja) * 1996-06-07 1997-12-22 Matsushita Electric Ind Co Ltd 3次元骨格構造の動き変換装置
US6335977B1 (en) * 1997-05-28 2002-01-01 Mitsubishi Denki Kabushiki Kaisha Action recognizing apparatus and recording medium in that action recognizing program is recorded
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
JP2000200088A (ja) * 1998-12-29 2000-07-18 Nagase & Co Ltd カラオケ装置
US7129927B2 (en) * 2000-03-13 2006-10-31 Hans Arvid Mattson Gesture recognition system
US20040095352A1 (en) * 2000-11-27 2004-05-20 Ding Huang Modeling object interactions and facial expressions
US20020102010A1 (en) * 2000-12-06 2002-08-01 Zicheng Liu System and method providing improved head motion estimations for animation
US20050163342A1 (en) * 2001-05-31 2005-07-28 Denx America, Inc. Image guided implantology methods
US6819410B2 (en) * 2002-01-16 2004-11-16 National Rejectors, Inc. Gmbh Process for identifying an embossed image of a coin in an automatic coin tester
US20030215130A1 (en) * 2002-02-12 2003-11-20 The University Of Tokyo Method of processing passive optical motion capture data
US20040166954A1 (en) * 2002-08-12 2004-08-26 Callaway Golf Company Static pose fixture
US20040155962A1 (en) * 2003-02-11 2004-08-12 Marks Richard L. Method and apparatus for real time motion capture
JP2005258891A (ja) * 2004-03-12 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3dモーションキャプチャ方法および装置
US20060055699A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the expression of a performer
US20070166669A1 (en) * 2005-12-19 2007-07-19 Raydon Corporation Perspective tracking system

Also Published As

Publication number Publication date
WO2007076487A2 (en) 2007-07-05
US20070146370A1 (en) 2007-06-28
JP5356036B2 (ja) 2013-12-04
EP1964067A4 (en) 2017-03-01
AU2006330458B2 (en) 2012-06-07
AU2006330458A1 (en) 2007-07-05
KR101431840B1 (ko) 2014-08-25
NZ569287A (en) 2011-11-25
WO2007076487A3 (en) 2008-01-03
EP1964067A2 (en) 2008-09-03
CA2634933A1 (en) 2007-07-05
US8224025B2 (en) 2012-07-17
CA2634933C (en) 2014-10-28
KR20080085185A (ko) 2008-09-23

Similar Documents

Publication Publication Date Title
Joo et al. Panoptic studio: A massively multiview system for social motion capture
US8860760B2 (en) Augmented reality (AR) system and method for tracking parts and visually cueing a user to identify and locate parts in a scene
US10699165B2 (en) System and method using augmented reality for efficient collection of training data for machine learning
JP5356036B2 (ja) モーションキャプチャにおけるグループトラッキング
US10726620B2 (en) Image processing apparatus, image processing method, and storage medium
JP2005123824A (ja) 映像オブジェクト軌跡合成装置、その方法及びそのプログラム
CN102725038B (zh) 组合多传感输入以用于数字动画
Gerke et al. Soccer player recognition using spatial constellation features and jersey number recognition
JP2015520470A (ja) データベース生成及び更新に深度ベースのトラッキングを用いた顔認識自己学習
JP7164045B2 (ja) 骨格認識方法、骨格認識プログラムおよび骨格認識システム
JP4418935B2 (ja) 光学マーカシステム
Elhayek et al. Fully automatic multi-person human motion capture for vr applications
CN109934873B (zh) 标注图像获取方法、装置及设备
JP7230345B2 (ja) 情報処理装置及び情報処理プログラム
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
US20210019900A1 (en) Recording medium, object detection apparatus, object detection method, and object detection system
JP2002366958A (ja) 画像認識方法および画像認識装置
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
HanbyulJoo et al. Panoptic studio: A massively multiview system for social interaction capture
US10853952B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2017058657A (ja) 情報処理装置、制御方法、コンピュータプログラム及び記憶媒体
WO2023145571A1 (ja) 情報処理装置、情報処理方法、データ構造及びプログラム
Mancas et al. People groups analysis for ar applications
WO2023037451A1 (ja) 画像処理装置、方法およびプログラム
US20220101491A1 (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091111

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100630

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111205

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120305

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120312

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120405

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120412

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120507

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120723

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121023

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130828

R150 Certificate of patent or registration of utility model

Ref document number: 5356036

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees