JP2012142031A - 1次マーカ及び2次マーカを使用するモーションキャプチャ - Google Patents

1次マーカ及び2次マーカを使用するモーションキャプチャ Download PDF

Info

Publication number
JP2012142031A
JP2012142031A JP2012101136A JP2012101136A JP2012142031A JP 2012142031 A JP2012142031 A JP 2012142031A JP 2012101136 A JP2012101136 A JP 2012101136A JP 2012101136 A JP2012101136 A JP 2012101136A JP 2012142031 A JP2012142031 A JP 2012142031A
Authority
JP
Japan
Prior art keywords
marker
primary
markers
secondary marker
trace
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012101136A
Other languages
English (en)
Inventor
Gordon Demian
ゴードン,デミアン
J Hauck Dennis Jr
ハウク,デニス,ジェイ.,ジュニア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Pictures Entertainment Inc
Original Assignee
Sony Corp
Sony Pictures Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Pictures Entertainment Inc filed Critical Sony Corp
Publication of JP2012142031A publication Critical patent/JP2012142031A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】従来のシステムにおいて見られるマーカの識別及びトラッキングに関する深刻な問題を解決する。
【解決手段】ターゲットの動きを撮影する。一つの方法は:複数の1次マーカをターゲットに取り付けるステップと;少なくとも一つの2次マーカをターゲットに取り付けるステップと;複数の1次マーカデータポイントを、各1次マーカデータポイントが複数の1次マーカの一つの1次マーカに対応するように撮影するステップと;少なくとも一つの2次マーカ跡を、各マーカ跡が前記少なくとも一つの2次マーカの各2次マーカに対応し、かつ各マーカ跡によって各2次マーカを固有に特定する形で撮影するステップと;そして複数の1次マーカを、前記少なくとも一つの2次マーカ跡を使用して特定するステップと、を含む。
【選択図】図1

Description

本出願は、「アクティブマーカ及びパッシブマーカを使用するモーションキャプチャ」と題する同時係属中の米国仮特許出願第60/711,923号、及び「モーションキャプチャに使用される個人携行可能なデジタイザ」と題する同時係属中の米国仮特許出願第60/711,905号の優先権の利益を主張するものであり、これらの米国仮特許出願は両方ともに2005年8月26日に出願されている。上記参照特許出願の開示内容は本明細書において参照することにより本明細書に組み込まれる。
本発明は概して、モーションキャプチャ(motion capture)に関するものであり、特に1次マーカ及び2次マーカを使用して3次元グラフィックス及びアニメーションを作成するモーションキャプチャに関するものである。
モーションキャプチャシステムを使用して実際のオブジェクトの動きを撮影し、そしてこの動きをアニメートする方法として、この動きをコンピュータにより表現されるオブジェクトにマッピングする。このようなシステムは、コンピュータグラフィックス(CG)アニメーションを作成するためのソースデータとして使用する人のデジタル表現を生成して、動画及びビデオゲームの作成に使用されることが良くある。通常のシステムでは、アクターが、マーカを種々の位置に取り付けた(例えば、小さな光反射マーカを体及び四肢に取り付けた)衣服を纏い、そして複数のデジタルカメラがアクターの動きを異なるアングルから、マーカを照明しながら記録する。次に、システムは画像を分析してアクターの衣服に取り付けられたマーカの位置(例えば、空間座標として)及び向きを各フレームで求める。これらのマーカの位置をトラッキングすることにより、システムはこれらのマーカに関する時間軸を考慮した空間表示を行ない、そして動いているアクターのデジタル補表現を実現する。次に、この動きをデジタルモデルに適用し、次にこのデジタルモデルで質感を表現し、そしてモデルをレンダリングして、アクター及び/又は演技の完全なCG表示を実現することができる。この技法は、非常にリアルなアニメーションを多くの人気のある映画に収めるために特殊効果会社によって使用されている。
或るモーションキャプチャシステムが、キーフレーミングのような従来のアニメーション技法よりも優れる利点は、可視化をリアルタイムに行なうことができることである。製品開発チームはアクターの動きの空間表示をリアルタイムまたはほぼリアルタイムに精査することができ、これによって、アクターは肉体的な演技を変更するので、最適データを撮影することができる。更に、モーションキャプチャシステムは他のアニメーション技法を使用して容易に再生することができない肉体的な動きの微妙な差異を検出することにより、自然な動きをより正確に表わすデータを生成する。その結果、モーションキャプチャシステムを使用して収集されるソース情報を使用するアニメーションが多くの場合、ずっと真に迫った外観を呈するようになる。
モーションデータを撮影する従来の方法では、長い時間を要する手作業工程を採用する必要がある。例えば、或る方法では、小さな光反射球であるマーカを利用する。撮影空間のランプが光反射球を照明し、そして複数のカメラが、結果として発生する反射を撮影する。マーカが球体であるので、単一のランプからの光をほとんど全方向に、入射光に関与する半球によって反射することができ、その結果、反射を撮影空間の種々の位置に配置される多数のカメラによって撮影することができる。このようにして、マーカの空間座標を求めることができる。各データポイントはフレームごとに個々にトラッキングして、所望のアニメーションを作成するための基盤となるモーション履歴を作成する必要もある。このようにして球状マーカによって反射される光が、撮影空間における明瞭かつ正確なデータポイントとなるという同じ理由により、撮影データポイントが非常に小さくて、外見がほとんど同じになってしまう恐れもある。個々の撮影データポイントを区別する操作は非常に難しく、従って個々のデータポイントをフレームごとにトラッキングする操作は極めて複雑になる。自動トラッキング方法は、トラッキング対象の撮影データポイント(すなわち、マーカ)をほとんど見分けることができない場合に問題となるので、確実に、各撮影データポイントをフレームごとに正確に区別し、かつ当該ポイント自体に正しく関連付けるためには、当該方法ではなく、長時間を要し、かつ多量のリソースを消費する手作業処理が必要になる場合が多い。また、非常に多くのマーカが、アニメートされたCGアクターの表面を表わす高解像度の3次元表面メッシュの頂点に関連付けられる動きをできるだけ細かい要素に分解するために必要にもなるので、自動トラッキングの問題及び手動トラッキングの問題が膨大な量のデータによって悪化させてしまう。
従って、必要なのは、従来のシステムにおいて見られるマーカの識別及びトラッキングに関するこれらの深刻な問題を解決する方法及びシステムである。
本発明の実施形態では、動きを、1次マーカ及び2次マーカをモーションキャプチャカメラとともに使用して撮影する。
一の実施形態では、一つの方法が提供され、本方法は:複数の1次マーカをターゲットに取り付けるステップと;少なくとも一つの2次マーカを前記ターゲットに取り付けるステップと;複数の1次マーカデータポイントを、各1次マーカデータポイントが複数の1次マーカの一つの1次マーカに対応するように撮影するステップと;少なくとも一つの2次マーカ跡を、各マーカ跡が少なくとも一つの2次マーカの各2次マーカに対応し、かつ各マーカ跡によって各2次マーカを固有に特定するように撮影するステップと;そして複数の1次マーカを、少なくとも一つの2次マーカ跡を使用して特定するステップと、を含む。
別の実施形態では、少なくとも一つの2次マーカ跡を撮影する前記ステップは、少なくとも一つの2次マーカの固有属性を取得するステップを含む。
更に別の実施形態では、照明を周期的なゲート期間の中で制御して、照明のオン状態及びオフ状態を生成し;そして照明に対する反射を照明のオン状態の間に撮影し;そして固有属性を照明のオフ状態の間に取得する。更に別の実施形態では、照明に対する反射は明るいマーカからの反射として撮影され;そして固有属性は暗いマーカから取得される。
本発明の他の特徴及び利点は、この技術分野の当業者であれば、次の詳細な記述、及び添付の図を吟味することにより一層容易に理解できるものと思われる。
本発明の構造及び動作の両方に関する本発明の詳細は、添付の図を分析することにより部分的に明らかになり、これらの図では、同様の参照番号は同様の構成要素を指す。
一の実施形態によるモーションキャプチャシステムを示す図である。 1次マーカデータポイント及び2次マーカ跡を撮影する、一の実施形態による方法を示すフローチャートである。 交互フレームを使用して1次マーカデータポイント及び2次マーカ跡を撮影する、一の実施形態による方法を示すフローチャートである。 2次マーカ識別情報を使用して1次マーカにラベル付けする、一の実施形態による方法を示すフローチャートである。 2次マーカ識別情報を使用し、1次マーカに交互フレームの使用によりラベル付けする、一の実施形態による方法を示すフローチャートである。 一の実施形態による1次マーカ及び2次マーカの物理的配置を示す図である。 別の実施形態による形状属性を持つ1次マーカ及び2次マーカの物理的配置を示す図である。 異なる実施形態において使用される典型的なゲートトリガーを示す図である。 一の実施形態による撮影空間を示す図であり、撮影空間には、一つのゲート光源と、そして2台の同期ゲートモーションキャプチャカメラが含まれ、一方のカメラは1次マーカデータポイントを撮影し、そして他方のカメラは2次マーカデータポイントを撮影する。 一の実施形態による撮影空間を示す図であり、撮影空間には、一つのゲート光源と、そして2台の同期ゲートモーションキャプチャカメラが含まれ、両方のカメラが同期して1次マーカデータポイント及び2次マーカデータポイントを撮影する。
以下に更に詳細に説明するように、本発明は、マーカに対するフレームごとの一層確実なトラッキングを可能にするモーションキャプチャシステムに対する要求を満たす。以下に示す詳細な記述では、同様の要素番号を使用して、添付の図の内の一つ以上の図に示される同様の要素を指す。
本記述を一読した後、この技術分野の当業者には、本発明をどのようにして種々の別の実施形態及び別のアプリケーションにおいて実施するかが明らかになるであろう。しかしながら、本発明の種々の実施形態についてここで説明するが、これらの実施形態は単なる例示として示され、制限的に解釈されるべきではないことを理解されたい。従って、種々の別の実施形態についてのこの詳細な記述は、添付の請求項に示す本発明の技術範囲または権利範囲を制限するものとして捉えられるべきではない。
マーカは、ほとんどの形態のモーションキャプチャに不可欠な構成要素であり、そしておおまかに2つのカテゴリーに分けられる:すなわちアクティブマーカ及びパッシブマーカを含む。パッシブマーカの忠実度及び分解能は他のマーカよりも高いので、パッシブマーカを多くのアプリケーションにおいて使用することが好ましい。しかしながら、パッシブマーカを使用するためのデータ処理には困難が伴ない、かつマニュアル作業が必要になるので、2つの異なるタイプのマーカをハイブリッドシステムにおいて組み合わせることが有用である。
例えば、或る実施形態では、モーションキャプチャによる所望の結果は、アクティブマーカ及びパッシブマーカの両方を含むハイブリッドシステムを使用することにより達成することができる。通常、パッシブマーカはトラッキングを必要とし、アクティブマーカはトラッキングを必要としない。他の実施形態では、1次マーカ及び2次マーカをハイブリッドシステムにおいて使用して、モーションキャプチャによる所望の結果を達成する。これらの他の実施形態では、1次マーカは、パッシブマーカと同様にトラッキングを必要とするマーカであり、そして2次マーカは、アクティブマーカと同様にトラッキングを必要としないマーカである。しかしながら、他の実施形態では、アクティブマーカが1次マーカとして使用され、そしてパッシブマーカが2次マーカとして使用される。
アクティブマーカは普通、電源を使用して或るタイプのエネルギーを放出するものとして特徴付けられる。アクティブマーカまたはアクティブ要素の例として、LED,アクティブRFID(無線周波数識別情報)タグ、データグローブ、ポテンショメータ、加速度計、人体に装着可能な外骨格(exoskeleton)、及び超音波チャープ発信器を挙げることができる。パッシブマーカは通常、電源を必要としない。パッシブマーカまたはパッシブ要素の一つの例が、小さな光沢球をほぼ構成する再帰反射球であり、この球に眩しい光を浴びせると、光学手段によって容易に撮像される小さな高輝度の光ドットが形成される。パッシブマーカの他の例として、パッシブRFIDタグ、暗闇で光るパッチ、成形テープ、及び電磁的な痕跡を実現する電磁タグを挙げることができる。別の区別を、「明るい」マーカと「暗い」マーカとの間で行なうことができる。再帰反射球は、例えば「明るい」マーカとして特徴付けられ、そして暗闇で光るマーカは「暗い」マーカとして特徴付けられる。
モーションキャプチャデータのリアルタイムの可視化はアクティブマーカによって実現し、次にこれらのマーカによって生成される骨格データを使用して、モーションキャプチャシステムによって生成されるパッシブマーカデータにラベル付けすることができる。これにより、事前の可視化がリアルタイムに行なわれ、事後処理における手動のクリーンアップ作業が大幅に減って、高品質の光学モーションキャプチャデータが生成される。従って、ハイブリッドシステムはリアルタイム機能を提供するとともに、動きに関する忠実度を高めることができる。
図1を参照すると、本発明の一の実施形態によるハイブリッドモーションキャプチャシステム100は、ユーザワークステーション120に接続されるモーションキャプチャプロセッサ110を含む。図示の実施形態では、モーションキャプチャプロセッサ110は画像撮影モジュール112と、再構成モジュール114と、1次マーカトラッキングモジュール116と、デジタルモデリングモジュール118と、そしてストレージモジュール158と、を含む。モーションキャプチャプロセッサ110に接続されるのは、2つのモーションキャプチャカメラ130,132である。本発明の一の実施形態では、2台よりもずっと多いモーションキャプチャカメラが種々のユーザ要求及びアニメーション関連の要求に従って使用される。モーションキャプチャカメラ130,132は撮影空間140に焦点を合わせ、この空間では、ターゲット150(図1に任意の形状のオブジェクトとして示す)が空間座標によって定義される一つの位置を占める。
図1に示す実施形態に示すように、ターゲット150には、複数の1次マーカ152A〜C、及び1つの2次マーカ154が取り付けられている。カメラ130,132を画像撮影モジュール112によって制御することにより、これらのカメラで1次マーカ152A〜C及び2次マーカ154のフレームごとの画像を撮影し、そしてこれらの画像をモーションキャプチャプロセッサ110の画像撮影モジュール112に渡すことができる。一の実施形態では、カメラ130,132は、1次マーカ152A〜Cの画像、及び2次マーカ154の画像を交互に画像フレームに撮影する。別の実施形態では、カメラ130,132は、1次マーカ152A〜Cの画像、及び2次マーカ154の画像を同じフレームに撮影する。このようにして撮影される画像フレームはストレージモジュール158に格納することができる。別の構成として、または上記構成と並行して、これらの画像フレームをリアルタイムでユーザがワークステーション120で閲覧することができる。
一の実施形態では、カメラ130,132からのデータは、「ビート(beats)」と呼ばれるデータ集合に取り込まれる。一つのビートは、1シーンショット、または1シーンショットの一部分に対応する一つの期間に亘って撮影されるデータに対応する。各カメラ130,132は、一つの個別ファイルを各ビートに関して生成することができる。従って、単一のビートに関して、一つのファイルが一方のカメラ130及び他方のカメラ132の各々に対応して生成されることになる。ここで、非常に多くの台数のカメラ130,132が使用される場合、各ビートは該当する多数の個別データファイルを、各カメラに対して1個のファイルの割合で含むことになることが分かるであろう。更に、各カメラ130,132に、多数の校正データが対応することになり、これらの校正データとして、例えば撮影空間140におけるカメラの3次元位置、カメラの焦点方向(例えば、3次元「光線」であり、この3次元「光線」に沿って、カメラ130,132が焦点を合わせている)、及びカメラの現時点の被写界深度に関する情報を挙げることができる。ここで、校正データの他のアイテムを、ここで議論する例示としてのデータに付け加える、またはデータの代わりに用いることができることが分かるであろう。
一の実施形態では、再構成モジュール114は、一つのビートに関して生成される複数のファイル(「ビートファイル」)の幾つか、または全て、及び適切なカメラ130,132に関する該当する校正データを読み込み、そしてカメラデータを統合して、ラベル付けされていないデータの生の3次元「ポイント集合(point clouds)」とするように動作することができる。これらのデータはストレージ158に保存することができる、または1次マーカトラッキングモジュール116に直接供給することができる。
以下に更に詳細に説明するように、1次マーカトラッキングモジュール116は、生の3次元ポイント集合データフレームを受信する、または保存ポイント集合データフレームをストレージモジュール158から取り出す。1次マーカトラッキングモジュール116は更に、トラッキング処理をフレーム群に対して実行して、各フレームの1次マーカを当該フレームの前後両方のフレーム群に、2次マーカ識別情報を、個々の1次マーカをフレームごとにラベル付けするための支援手段として使用してマッピングする。一旦、ラベル付けが完了すると、ラベル付けされたデータをデジタルモデリングモジュール118に渡す。デジタルモデリングモジュール118は各フレームに関して、ターゲット150を表わすモデル化表面を含む頂点座標系を仮想空間に設定する。一つのフレームに撮像された1次マーカ152A〜Cは、次のフレームの同じ1次マーカ152A〜Cとして正しくラベル付けされるので、これらの1次マーカがこのようにしてフレームごとに関連付けられ、そしてモデル化された表面の動きをスムーズに与える(レンダリングする)ことができる。
図1に示すように、本発明の少なくとも一つの実施形態によれば、2次マーカ154は、特定の1次マーカ152Bに非常に近接して配置することができる。別の実施形態では、2次マーカ154は、どの特定の1次マーカ152A〜Cとも近接して配置する必要はない。一の実施形態では、1次マーカ152A〜Cと2次マーカ154との間にそれぞれ、多数対1の対応付けが行なわれる。2次マーカ154に対する1次マーカ152の比は1対1から、現在の実施形態に適するいずれの比にも変化するようにすることができる。これらの比のような様々な態様をユーザが実行することにより、1次マーカ152を、一つのフレームから次のフレームにマッピングする(すなわち、トラッキングする)際に予測される容易さ、または難しさを調整することができる。例えば、一の実施形態では、数百個の1次マーカを使用してヒトの顔及び体のかすかな動きを撮影する。
図2(a)は1次マーカデータポイント及び2次マーカ跡を撮影する一の実施形態による方法を示すフローチャートである。本方法では、1次マーカ152をターゲット150に、ステップ210で取り付ける。一つ以上の2次マーカをターゲット150に、ステップ212で取り付ける。一の実施形態では、ステップ210及び212での取り付ける操作では、塗料または他の反射コーティングをターゲット150に塗布する。次に、ステップ214では、現フレームを使用して1次マーカデータポイントを撮影する。一の実施形態では、1次マーカ152A〜Cは光反射球であり、そしてこれらの球の表面に位置して照明される反射ポイントがほぼ1次マーカデータポイントを構成する。すなわち、1次マーカ152Aからの一つの反射が、例えば一つの1次マーカデータポイントを構成する。2次マーカ跡の位置を含む2次マーカ154の跡をステップ216で撮影する。一の実施形態では、1次マーカデータポイント及び2次マーカ跡は、ほぼ同時に撮影される。
通常、2次マーカは極めて固有の形で識別することができ、そして各2次マーカは、或る特徴付けモードに従って非常に珍しい跡を残す。例えば、一の実施形態では、2次マーカは一つの形状によって特徴付けられる。別の実施形態では、2次マーカは一つの色によって特徴付けられる。別の実施形態では、2次マーカは、当該マーカが暗闇で光るときの強度のような輝度によって特徴付けられる。更に、2次マーカは、LEDのような可視デバイス、超音波チャープ発信器またはアクティブRFID発信器のような不可視デバイスを含むアクティブマーカとすることができる。更に別の実施形態では、2次マーカは、形状、色、輝度、及び発信動作(チャープ信号の発信またはRFID発信器による識別信号の発信)のような上述のパッシブ特性及びアクティブ特性の幾つか、または全てのいずれかの組み合わせによって特徴付けられる。すなわち、2次マーカは、上述したものに類似するいずれかの固有に識別可能な跡だけでなく、高周波エネルギーの跡及び電磁的な痕跡のような他の不可視特性によって特徴付けることができる。更に、複数の異なるタイプの2次マーカを同時に単一の実施形態で使用することができる。
1次マーカは、上に議論した種々のタイプのマーカのいずれかをユーザの要求に従って含むことができることも理解されたい。
或る実施形態では、1次−2次、アクティブ−パッシブ、及び「明るい」−「暗い」のようなマーカのペアリングを使用して、一方を他方の基準とするのではなく、撮影対象の被写体の各部分または各領域を区別する。例えば、一の実施形態では、明るいマーカをボディ(body)の動きの撮影に使用し、そして暗いマーカを顔の動きの撮影に使用する。従って、この実施形態では、「明るい」−「暗い」というマーカのペアリングを使用して、顔及びボディの撮影データポイントを区別する。
ステップ220で、現フレームが最後のフレームではないと判断される場合、ステップ222で次のフレームに進み、そして当該フレームが新規の現フレームとなる。次に、本方法をステップ214に進め、新規の現フレームを使用して次の一連の1次マーカデータポイントを撮影する。本方法では上述したように、現フレームが最後のフレームであると判断されるまで処理を進める。この実施形態によれば、1次マーカデータ及び2次マーカ跡がこのようにしてフレームごとに獲得される。
図2(b)は、1次マーカデータポイント及び2次マーカ跡を撮影する別の実施形態による方法を示すフローチャートである。図2(a)において説明した方法と同様にして、本方法では、1次マーカ152A〜Cをターゲット150にステップ230で取り付ける。一つ以上の2次マーカ154をターゲット150にステップ232で取り付ける。ステップ234では、現フレームを使用して1次マーカデータポイントを撮影する。次に、ステップ240では、現フレームが最後のフレームであるかどうかを判断する。現フレームが最後のフレームではない場合、ステップ242において、次のフレームに進んで、当該フレームを新規の現フレームとする。ステップ244では、2次マーカ跡を撮影する。ステップ250で、現フレームが最後のフレームではないと判断される場合、ステップ252で次のフレームに進み、そして当該フレームが新規の現フレームとなる。次に、本方法をステップ234に進め、新規の現フレームを使用して次の一連の1次マーカデータポイントを撮影する。本方法では上述したように、現フレームが最後のフレームであるとステップ240,250で判断されるまで処理を進める。この実施形態によれば、1次マーカデータ及び2次マーカ跡がこのようにしてフレームごとに交互に獲得される。
図3(a)は、一の実施形態による、2次マーカ識別情報を使用して1次マーカデータポイントにラベル付けする方法を示すフローチャートである。一の実施形態では、本方法は主として、データの事後処理中にステップ340で行なわれ、このステップは、図1の1次マーカトラッキングモジュール116が行なうラベリングタスクにほぼ相当する。図3(a)に示す方法では、ステップ310において、1次マーカデータポイント及び2次マーカ跡を、モーションキャプチャカメラを使用して考察対象のフレームについて撮影し、そして撮影データポイント及びマーカ跡を保存する。別の実施形態では、このようにして撮影されるデータの保存は、リアルタイムの処理、またはほぼリアルタイムの処理で同時に行なうことができる。別の構成として、撮影データはリアルタイムまたはほぼリアルタイムで同時に保存及び処理することができる。次に、再構成をステップ312で行なって、3次元生データポイント集合を生成する。
ラベル付けは第1フレームをステップ314で現フレームとして選択することから始まる。1次マーカデータポイントの位置を現フレームでステップ316において特定する。2次マーカ識別情報(「IDs」)をステップ318で、フレームで撮影される2次マーカ跡の固有属性から求める。非常に独特の固有の2次マーカ識別情報(IDs)を使用することができるが、これは、これらの識別情報を求めるときの基礎となる2次マーカ跡自体が非常に独特で識別し易いからである。例えば、一の実施形態では、2次マーカは個々に固有のバーコードを含むことができる。次に、2次マーカ識別情報(IDs)をステップ320で、適切な1次マーカデータポイントに関連付ける。2次マーカ識別情報(ID)は固有の痕跡となるので、非常に容易にトラッキングすることができ、これに対して1次マーカデータポイントだけでは、これらのデータポイントを互いから区別することは難しい。一の実施形態では、1次マーカデータポイントとの関連付けは、1次マーカデータポイントに対する2次マーカの空間的近接性に従って行なわれる。別の実施形態では、一つの2次マーカを、近接1次マーカデータポイントグループに関する統一的な位置基準として使用する。従って、個々にはほとんど区別することができない1次マーカデータポイント群のグループは、更に別の位置情報が2次マーカ識別情報(ID)を追跡することにより推定されるので、一層容易にトラッキングすることができる。別の実施形態では、一つの1次マーカデータポイントは、当該1次マーカデータポイントの非常に近くに位置すると特定される2次マーカ群に対応する2つ以上の2次マーカ識別情報(IDs)に関連付けることができる。例えば、このようにして位置特定される2つ以上の2次マーカの識別情報(IDs)は非常にユニークであるので、表示される空間パターンによって特定することもできる。一つ以上の1次マーカデータポイントを一つ以上の2次マーカ識別情報(IDs)に、多数対1、多数対多数、及び1対多数の関係で、手動及び自動のどちらでも関連付けることができるためには他の手法を選択することができることを理解されたい。
次に、1次マーカデータポイントに固有のラベル付けをステップ322で、関連付けされた一つ以上の2次マーカ識別情報(IDs)に従って行なう。更に、1次マーカデータポイントに、既にラベル付けされている一つ以上の他の1次マーカデータポイントに従ってラベル付けすることができる。次に、ステップ324で、ラベル付けされている1次データポイントを、現フレームに対応させて保存する。次に、ターゲット150の仮想モデルを1次マーカデータポイントに基づいてステップ326で構築する。別の構成として、1次マーカデータポイントを使用して既存のモデルをターゲット150に合わせることができる。ステップ330で、このフレームが考察対象の最後のフレームではないと判断される場合、ステップ332で次のフレームに進んで、当該フレームを新規の現フレームとする。次に、1次マーカデータポイントの位置をステップ316で新規の現フレームで特定し、そして本方法では、上に議論したように、最後のフレームであるとの判断が下されるまで処理を進める。
図3(b)は、2次マーカ識別情報を使用して1次マーカに、フレームを交互に使用することによりラベル付けする別の実施形態による方法を示すフローチャートである。一の実施形態では、本方法は主として、事後処理390を行なっている間に行なわれ、この事後処理は、図1の1次マーカトラッキングモジュール116が行なうタスクにほぼ対応する。本方法では、ステップ310において、1次マーカデータポイント及び2次マーカ跡を、モーションキャプチャカメラを使用して考察対象のフレームについて撮影し、そして保存する。次に、再構成をステップ312で行なって、3次元生データポイント集合を生成する。
第1フレームを現フレームとしてステップ352で選択する。現フレームの1次マーカデータポイントの位置をステップ354で特定する。ステップ360で、現フレームが考察対象の最後のフレームではないと判断される場合、ステップ362で次のフレームに進んで、当該フレームを新規の現フレームとする。2次マーカ識別情報(「IDs」)をステップ364で、フレームで撮影された2次マーカ跡の固有属性から求める。非常にユニークな2次マーカ識別情報(IDs)を使用することができるが、これは、これらの識別情報を求めるときの基礎となる2次マーカ跡自体が非常にユニークであるので識別することができるからである。次に、2次マーカ識別情報(IDs)をステップ366で、適切な1次マーカデータポイントに関連付ける。一の実施形態では、1次マーカデータポイントとの関連付けは、1次マーカデータポイントに対する2次マーカの空間的近接性に従って行なわれる。別の実施形態では、一つの1次マーカデータポイントを、当該1次マーカデータポイントの非常に近くに位置すると特定される2次マーカ群に対応する2つ以上の2次マーカ識別情報(IDs)に関連付けることができる。例えば、このようにして位置特定される2つ以上の2次マーカの識別情報(IDs)は非常にユニークであるので、これらの2次マーカが示す空間パターンによって特定することもできる。一つの1次マーカデータポイントを一つ以上の2次マーカ識別情報(IDs)に関連付けるためには多くの方法があることを理解されたい。次に、1次マーカデータポイントに対してステップ368で、各1次マーカデータポイントに関連付けられる一つ以上の2次マーカ識別情報(IDs)に従って固有のラベル付けを行なう。次に、ステップ370で、ラベル付けされている1次データポイントを、現フレームに対応させて保存する。次に、ターゲット150の仮想モデルを1次マーカデータポイントに基づいてステップ326で構築する。ステップ380で、現フレームが考察対象の最後のフレームではないと判断される場合、ステップ382で次のフレームに進んで、当該フレームを新規の現フレームとする。次に、1次マーカデータポイントの位置を新規の現フレームでステップ354において特定し、そして本方法では上に議論したように、最後のフレームであるとの判断がステップ360,380で下されるまで処理を進める。
図4は、本発明の一の実施形態に従って、1次及び2次マーカを変形可能な表面に物理的に配置する様子を示している。表面は、例えばアクターがモーションキャプチャシーケンスにおいて装着するボディスーツの一部分とすることができる。表面は変形グリッド400によって表わされる。この実施形態におけるグリッド400の頂点は、1次マーカ410が表面に取り付けられる位置を定義する。図4では、図示される24個の1次マーカはほぼ同じ光反射球である。図を分かり易くするために、3つの球にのみインデックスを付けている。3つの2次マーカ420が同じ楕円として描かれている。図示のように、2次マーカ420は、1次マーカ410の間の空き領域に1対多数の対応関係でそれぞれ配置することができる。別の構成として、2次マーカ群420を一つの1次マーカ410に非常に近接して配置することができる。これまでに議論してきたように、2次マーカ420はいずれかのタイプのアクティブマーカ及びパッシブマーカ、またはアクティブマーカ及びパッシブマーカの組み合わせを含むことを理解されたい。
一の実施形態では、一つのフレームの1次マーカ410及び2次マーカ420をステップ310で撮影する。再構成をステップ312で行なうことにより、上に議論したように、多数のカメラ130,132によって生成される統合ビートファイルを表わす生ポイント集合を3次元で生成する。3次元ポイント集合は、1次データポイント及び2次マーカ跡を含む。一の実施形態では、2次マーカ識別情報(IDs)を2次マーカ跡から求め(2次マーカ跡が種々の2次的な痕跡の中では非常にユニークであることを思い起こされたい)、そして該当する1次マーカデータポイントを、当該ポイントに最も近い(最近接近法に基づいて)2次マーカの識別情報(IDs)に関連付ける(ステップ320)。すなわち、一つの1次マーカデータポイントに一つのラベルを、1次マーカデータポイントを撮影した対象となった1次マーカ410に最も近い2次マーカ420の2次マーカ識別情報(ID)に従って割り当てる。別の実施形態では、2次マーカ420の固有空間パターンは、2次マーカ420の固有の特異性を、2次マーカの空間位置と組み合わせることにより生成することができる。従って、1次マーカ群は、単一の2次マーカ420に対するこれらの1次マーカの位置に従って特定することができるだけでなく、複数の2次マーカ420により形成される空間パターンに従って特定することができる。
一の実施形態では、2次マーカの跡を固有の形状を使用することにより残す。図5は、1次マーカ510、及びこのような実施形態による形状属性を持つ2次マーカ522,524,526の物理的配置を示している。2次マーカ522は三角形であり、2次マーカ524は六角形であり、そして2次マーカ526は5極星形である。一つの表面は変形グリッド500により表現される。この例におけるグリッド500の頂点によって、1次マーカ510を表面に取り付ける位置も定義される。図4に示すように、24個の1次マーカがほぼ同じ光反射球として示されている。この例では、3個の2次マーカ522,524,526が1次マーカ群510の間の複数の領域に配置される。3個の2次マーカ522,524,526は全て、固有の形状に形成されるので、独特な光跡を残す。
一の実施形態では、一つのフレームの1次マーカ510及び2次マーカ522,524,526をステップ310で撮影する。再構成をステップ312で行なうことにより、上に議論したように、多数のカメラ130,132によって生成される統合ビートファイルを表わす生ポイント集合を3次元で生成する。3次元ポイント集合は、1次マーカ510に対応する1次データポイント、及び2次マーカ522,524,526に対応する2次マーカ跡を含む。次に、2次マーカ識別情報(IDs)を、2次マーカ固有の形状を利用した光跡に従って割り当てることができる。次に、該当する1次マーカデータポイントを、1次マーカに最も近い(最近接近法に基づいて)2次マーカの識別情報(IDs)に関連付ける(ステップ320)。2次マーカ522,524,526は固有の特異性を示すので、1次マーカ510を更に、複数の2次マーカによって形成される固有の空間パターンを基準にして特定することができる。別の実施形態では、使用状態における2次マーカ522,524,526は個々に非常にユニークである訳ではないが、それでも、局所的に非常にユニークなパターンを形成し、これらのパターンを基準にして、1次マーカ510にラベル付けすることができる。
図6は、幾つかの実施形態において使用される典型的なゲートトリガー信号600を示す図である。このようなゲートトリガー信号は公知である。図示のように、一つの信号はハイ状態610,620,630、及びロー状態612,622,632を有し、ハイ状態及びロー状態はON状態及びOFF状態にそれぞれ対応する。ゲートトリガーは、例えばストローブ光のような光源のON/OFFサイクル制御として使用される。
図7は一の実施形態による撮影空間700を示す図であり、撮影空間700には、一つのゲート光源と、そして2台の同期ゲートモーションキャプチャカメラ720,730が含まれ、一方のカメラ720は1次マーカデータポイントを撮影し、そして他方のカメラ730は2次マーカ跡を撮影する。別の実施形態では、両方のカメラ720,730を使用して1次マーカデータポイント及び2次マーカ跡の両方を撮影することができる。
図7に示す実施形態では、ゲート710は第1ゲート信号712及び第2ゲート信号714を供給する。第1ゲート信号712は、第2ゲート信号714と逆相で駆動するように作用する。第1ゲート信号712によって第1モーションキャプチャカメラ720及び照明光源722を駆動する。従って、第1ゲート信号712がON状態になると、照明光源722がONの半サイクルの期間に亘ってオンになり、そして第1モーションキャプチャカメラ720が撮影空間700の画像フレームを撮影する。第1ゲート信号712がON状態になっている間、第2ゲート信号714はOFF状態になっているので、信号714によって駆動される第2モーションキャプチャカメラ730はOFF状態になっている。これらの状態は、ゲート信号が半サイクルだけ進むと反転する。第1ゲート信号712がOFF状態に変化すると、照明光源722及び第1モーションキャプチャカメラ720がOFF状態になる。第2ゲート信号714がON状態に変化すると、これによって第2モーションキャプチャカメラ730が駆動されて撮影空間700の画像フレームを撮影する。従って、第1モーションキャプチャカメラ720は、撮影空間700を照明するときに画像フレームを撮影し、そして第2モーションキャプチャカメラ730は、撮影空間700を照明していないときに画像フレームを撮影する。
一の実施形態では、ターゲット740には、1次マーカを構成する小さな光反射球750(9個の光反射球が示され、2個に参照番号を付けている)、及び2次マーカを構成し、かつ暗闇で光るパッチ752を取り付けている。図を分かり易くするために、図7に示す2次マーカ752が視覚的に同じように見えるようにしているが、2次マーカは本質的に、非常にユニークであるので識別することができることを思い起こされたい。この例では、暗闇で光る2次マーカは特異な痕跡を種々の形状、色、及び輝度を利用して残すことができ、更に2次マーカにバーコードのような可視パターンを用いることができる。
図7に示す実施形態を参照すると、第1ゲート信号712がオンになると、照明光源722が作動し、そして撮影空間700を照明するので、光反射球750が小さな明るい光点を撮影空間700において反射するようになる。第1モーションカメラ720も同時に作動するので、明るい光点を画像フレームで撮影する。従って、第1モーションキャプチャカメラ720は、上に説明した1次マーカデータポイントを撮像する。第1ゲート信号712及び第2ゲート信号714が状態を次の反サイクルで反転させると、照明がオフになる。照明が消えると、光反射球が暗くなるが、暗闇で光る2次マーカ752は輝いて見えるようになる。第2モーションキャプチャカメラ730はこの半サイクルの間に同時に作動してON状態になるので、この時点で暗くなっている撮影空間700で輝く2次マーカ752を含む画像フレームを撮影する。すなわち、第2モーションキャプチャカメラは2次マーカ752の跡(例えば、輝き)を撮影する。従って、第1モーションキャプチャカメラ720及び第2モーションキャプチャカメラ730によって撮影される2つの画像フレーム列を統合して、1次マーカデータポイント及び2次マーカ跡を含む交互フレーム列を構成する。一の実施形態では、動きを撮影したこのフレーム列を次に、図3(b)に示す方法のような方法に従って処理する。
図8は一の実施形態による撮影空間800を示す図であり、撮影空間800には、一つのゲート光源と、そして2台の同期ゲートモーションキャプチャカメラ820,830が含まれ、両方のカメラが同期して1次マーカデータポイント及び2次マーカ跡を撮影する。図8に示すように、ゲート810は第1ゲート信号812及び第2ゲート信号814を供給する。図7に示す実施形態と対比すると、この実施形態における第2ゲート信号814は第1ゲート信号812と位相が同じである。更に、モーションキャプチャカメラ820,830を作動させて、画像フレームを、第1ゲート信号812及び第2ゲート信号814のON状態及びOFF状態の両方で撮影させる。前の例と同じように、第1ゲート信号812は、照明光源822をON状態の間だけ作動させるように作用する。従って、第1ゲート信号812がON状態になると、照明光源822がONの半サイクルの期間に渡ってオンになり、そして第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830の両方が、照明されている撮影空間800の画像フレームを撮影する。第1ゲート信号812及び第2ゲート信号814がOFF状態に変化すると、照明光源822がOFFの半サイクルの期間に渡ってオフになり、そして第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830の両方が、暗くなった撮影空間800の画像フレームを撮影する。すなわち、第1ゲート信号812及び第2ゲート信号814の位相が同期することにより、第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830が一斉に作動する。従って、モーションキャプチャカメラ820,830の両方で、撮影空間800の明るい図柄及び暗い図柄が交互に繰り返す構成のフレーム列を撮影する。
本発明の一の実施形態では、ターゲット840には、1次マーカを構成する小さな光反射球850、及び2次マーカを構成し、かつ暗闇で光るパッチ852を取り付けている。図を分かり易くするために、図8に示す2次マーカ852が視覚的に同じように見えるようにしているが、2次マーカは通常、非常にユニークであるので識別することができることを思い起こされたい。この例では、図7に関連して示した2次マーカと同じように、暗闇で光る2次マーカは特異な痕跡を種々の形状、色、及び輝度を利用して残すことができる、または2次マーカにバーコードのような可視パターンを用いることができる。
図8に示す実施形態では、第1ゲート信号812及び第2ゲート信号814が変化してオンになると、照明光源822が作動し、そして撮影空間800を照明する。これによって、光反射球850は小さな明るい光点を撮影空間800において反射するようになる。第1モーションカメラ820及び第2モーションカメラ830も同時に作動するので、明るい光点をそれぞれの画像フレームで撮影する。すなわち、第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830は、上に説明した1次マーカデータポイントを撮像する。第1及び第2ゲート信号が状態を次の反サイクルで反転させると、照明光源822がオフになる。照明が消えると、光反射球850が暗くなるが、暗闇で光る2次マーカ852は輝いて見えるようになる。第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830が同時にOFF状態によって、この半サイクルの間に作動するので別の画像フレームを撮影し、この場合は、この時点で暗くなっている撮影空間800で見ることができる2次マーカ852の跡を撮影する。すなわち、第1モーションキャプチャカメラ820及び第2モーションキャプチャカメラ830の両方で、1次マーカデータポイント及び2次マーカ跡を含み、かつ交互に繰り返す構成のフレーム列を撮影する。一の実施形態では、このフレーム列を次に、図3(a)に示す方法のような方法に従って処理する。
更に別の実施形態では、モーションキャプチャに使用されるパーソナルウェアラブルデジタイザー(personal wearable digitizer)が開示される。パーソナルウェアラブルデジタイザーは、身体部位の動きを捕捉する要素を備えるスーツを含む。ウェアラブルデジタイザーは、ボディ表面(頭部、顔、体)のデジタル表示を光学撮影を行なうことなく提供することができる。例えば、圧電片(piezoelectric strips)を保持したボディスーツは、ボディ表面をデジタル処理するように機能する。別の例では、「シェイプテープ」を貼付したボディスーツがボディ表面をデジタル処理するように機能する。テープを曲げたときに光学特性を変える光ファイバを使用することができる。
ウェアラブルデジタイザーによって取得される非光学データをモーションキャプチャ処理システムに渡し、モーションキャプチャ処理システムがこのデータを使用してターゲット(またはターゲット群)の動きを求める。処理システムは位置情報を使用して、ターゲット(群)を表わす3次元モデル(ポイント集合またはメッシュ)を構築し、そして更新する。
本発明の種々の例示としての実施形態を開示してきた。しかしながら、この技術分野の当業者であれば、更に別の実施形態を本発明の技術範囲から逸脱しない限り用いることもできることが理解できるであろう。例えば、一つの変形例では、異なる方法を使用して1次マーカデータポイントを2次マーカ跡に、2つのデータセットの間の1対1、1対多数、及び多数対1の関係を使用して関連付けることができる。更に、図7及び8に示すシステムを種々の形で組み合わせることにより、ユーザからの種々の要求を満たすことができる。
従って、本発明は、上に説明した実施形態のみに制限されるのではない。

Claims (25)

  1. 複数の1次マーカをターゲットに取り付けるステップと;
    少なくとも一つの2次マーカを前記ターゲットに取り付けるステップと;
    複数の1次マーカデータポイントを撮影するステップであって、各1次マーカデータポイントが前記複数の1次マーカの一つの1次マーカに対応するものである、ステップと、;
    少なくとも一つの2次マーカ跡を、各マーカ跡が前記少なくとも一つの2次マーカの各2次マーカに対応し、かつ各マーカ跡によって各2次マーカを固有に特定する形で撮影するステップと;
    前記複数の1次マーカを、少なくとも一つの2次マーカ跡を使用して特定するステップと、を含む方法。
  2. 前記複数の1次マーカデータポイントを撮影するステップは:
    前記複数の1次マーカを照明するステップと;
    前記照明に対する前記複数の1次マーカの反応を撮影するステップと、を含む、請求項1記載の方法。
  3. 前記複数の1次マーカは複数の光反射マーカを含み;
    前記反応は、前記照明に対する前記複数の光反射マーカからの反射を含む、請求項2記載の方法。
  4. 前記少なくとも一つの2次マーカ跡を撮影するステップは:
    前記少なくとも一つの2次マーカの固有属性を撮像するステップを含む、請求項3記載の方法。
  5. 前記固有属性は形状である、請求項4記載の方法。
  6. 前記固有属性は色である、請求項4記載の方法。
  7. 前記固有属性は電磁的な痕跡である、請求項4記載の方法。
  8. 前記固有属性は高周波エネルギーの跡である、請求項4記載の方法。
  9. 前記固有属性はバーコードである、請求項4記載の方法。
  10. 前記照明は、前記照明のオン状態及びオフ状態を形成するための周期的なゲートにしたがって制御され、;
    前記照明の反射は、前記照明のオン状態の間に撮影され、;
    前記固有属性は、前記照明のオフ状態の間に撮像される、請求項3記載の方法。
  11. 前記照明の反射は明るいマーカから撮影され;
    前記固有属性は暗いマーカから撮像される、請求項10記載の方法。
  12. 少なくとも一つのセンサが前記照明の反射、及び前記固有属性を撮像し;
    前記少なくとも一つのセンサは、前記周期的なゲートと同期しており、前記少なくとも一つのセンサが明るい前記マーカからのデータフレームをオン状態の間に撮影し、そして暗い前記マーカからのデータフレームを前記オフ状態の間に撮影するようにする、請求項11記載の方法。
  13. 前記少なくとも一つのセンサは、少なくとも一つのモーションキャプチャカメラを含む、請求項12記載の方法。
  14. 前記少なくとも一つのセンサの第1センサは、前記周期的なゲートと同期し、前記照明の反射を、前記複数のオン状態の各オン状態の間に撮影し;
    前記少なくとも一つのセンサの第2センサは、前記周期的なゲートと同期し、前記固有属性を、前記複数のオフ状態の各オフ状態の間に撮像する、請求項12記載の方法。
  15. 前記第1センサは、前記複数の光反射マーカからの前記反射を撮影するように構成される第1モーションキャプチャカメラを含み;
    前記第2センサは、前記固有属性を撮像するように構成される第2モーションキャプチャカメラを含む、請求項14記載の方法。
  16. 前記照明はストローブ光によって行なわれる、請求項10記載の方法。
  17. ターゲットに取り付けられる複数の1次マーカと;
    前記ターゲットに取り付けられる少なくとも一つの2次マーカであって、前記少なくとも一つの2次マーカの各マーカが2次マーカ跡によって固有に特定される構成の少なくとも一つの2次マーカと;
    複数の1次マーカデータポイントを、各1次マーカデータポイントが前記複数の1次マーカの一つの1次マーカに対応するように撮影するように構成される画像撮影モジュールであって、少なくとも一つの2次マーカ跡を、各2次マーカ跡が前記少なくとも一つの2次マーカの各2次マーカに対応し、かつ各2次マーカ跡によって各2次マーカを固有に特定する形で撮影するように構成される画像撮影モジュールと;
    前記複数の1次マーカを、前記少なくとも一つの2次マーカ跡を使用して特定するように構成される1次マーカトラッキングモジュールと、を備えるシステム。
  18. 前記少なくとも一つの2次マーカは、暗闇で光るマーカを含む、請求項17記載のシステム。
  19. 前記複数の1次マーカは複数のパッシブマーカを含み、
    前記少なくとも一つの2次マーカは、少なくとも一つのアクティブマーカを含む、請求項17記載のシステム。
  20. 前記複数の1次マーカは複数のアクティブマーカを含み、
    前記少なくとも一つの2次マーカは、少なくとも一つのパッシブマーカを含む、請求項17記載のシステム。
  21. 前記複数のアクティブマーカは、LED,アクティブRFIDタグ、ポテンショメータ、データグローブ、加速度計、人体に装着可能な外骨格、及び超音波チャープ発信器の内の少なくとも一つを含む、請求項20記載のシステム。
  22. 前記少なくとも一つのパッシブマーカは、パッシブRFIDタグ、暗闇で光るパッチ、シェイプテープ、及び電磁タグの内の少なくとも一つを含む、請求項20記載のシステム。
  23. 更に、前記ターゲットを表わすモデル化表面を含む頂点座標系を仮想空間に設定するように構成されるデジタルモデリングモジュールを備える、請求項17記載のシステム。
  24. コンピュータ読み取り可能な記憶媒体に格納されてターゲットの動きを撮影するコンピュータプログラムであって、プログラムは実行可能命令を含み、実行可能命令によってコンピュータは:
    複数の1次マーカデータポイントを撮影する処理であって、各1次マーカデータポイントが、前記ターゲットに取り付けられる複数の1次マーカの一つの1次マーカに対応するものである、処理を実行し;
    少なくとも一つの2次マーカ跡を撮影する処理であって、各2次マーカ跡が、前記ターゲットに取り付けられる前記少なくとも一つの2次マーカの各2次マーカに対応し、かつ各2次マーカ跡によって各2次マーカを固有に特定するものである、処理を実行し;
    前記複数の1次マーカを、前記少なくとも一つの2次マーカ跡を使用して特定する処理を実行する、コンピュータプログラム。
  25. 複数の1次マーカデータポイントを撮影する手段であって、各1次マーカデータポイントが、ターゲットに取り付けられる複数の1次マーカの一つの1次マーカに対応するものである、手段と;
    少なくとも一つの2次マーカ跡を撮影する手段であって、各2次マーカ跡が、前記ターゲットに取り付けられる前記少なくとも一つの2次マーカの各2次マーカに対応し、かつ各2次マーカ跡によって各2次マーカを固有に特定するものである、手段と;
    前記複数の1次マーカを、前記少なくとも一つの2次マーカ跡を使用して特定する手段と、を備える装置。
JP2012101136A 2005-08-26 2012-04-26 1次マーカ及び2次マーカを使用するモーションキャプチャ Pending JP2012142031A (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US71192305P 2005-08-26 2005-08-26
US71190505P 2005-08-26 2005-08-26
US60/711,923 2005-08-26
US60/711,905 2005-08-26
US11/467,494 2006-08-25
US11/467,494 US7720259B2 (en) 2005-08-26 2006-08-25 Motion capture using primary and secondary markers

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008528256A Division JP5202316B2 (ja) 2005-08-26 2006-08-28 1次マーカ及び2次マーカを使用するモーションキャプチャ

Publications (1)

Publication Number Publication Date
JP2012142031A true JP2012142031A (ja) 2012-07-26

Family

ID=37772540

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008528256A Expired - Fee Related JP5202316B2 (ja) 2005-08-26 2006-08-28 1次マーカ及び2次マーカを使用するモーションキャプチャ
JP2012101136A Pending JP2012142031A (ja) 2005-08-26 2012-04-26 1次マーカ及び2次マーカを使用するモーションキャプチャ

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008528256A Expired - Fee Related JP5202316B2 (ja) 2005-08-26 2006-08-28 1次マーカ及び2次マーカを使用するモーションキャプチャ

Country Status (9)

Country Link
US (2) US7720259B2 (ja)
EP (1) EP1924968A4 (ja)
JP (2) JP5202316B2 (ja)
KR (1) KR101250607B1 (ja)
CN (1) CN101496031B (ja)
AU (1) AU2006282765B2 (ja)
CA (1) CA2620505C (ja)
NZ (1) NZ566392A (ja)
WO (1) WO2007025301A2 (ja)

Families Citing this family (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10425134B2 (en) 2004-04-02 2019-09-24 Rearden, Llc System and methods for planned evolution and obsolescence of multiuser spectrum
US8654815B1 (en) 2004-04-02 2014-02-18 Rearden, Llc System and method for distributed antenna wireless communications
US9819403B2 (en) 2004-04-02 2017-11-14 Rearden, Llc System and method for managing handoff of a client between different distributed-input-distributed-output (DIDO) networks based on detected velocity of the client
US10277290B2 (en) 2004-04-02 2019-04-30 Rearden, Llc Systems and methods to exploit areas of coherence in wireless systems
US9826537B2 (en) 2004-04-02 2017-11-21 Rearden, Llc System and method for managing inter-cluster handoff of clients which traverse multiple DIDO clusters
US20060055706A1 (en) * 2004-09-15 2006-03-16 Perlman Stephen G Apparatus and method for capturing the motion of a performer
US7720259B2 (en) * 2005-08-26 2010-05-18 Sony Corporation Motion capture using primary and secondary markers
US8659668B2 (en) 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
US7661199B2 (en) * 2006-05-19 2010-02-16 The Boeing Company Coded target for use with combination laser and photogrammetry targets
WO2007136745A2 (en) 2006-05-19 2007-11-29 University Of Hawaii Motion tracking system for real time adaptive imaging and spectroscopy
US7667767B2 (en) * 2006-06-07 2010-02-23 Onlive, Inc. System and method for three dimensional capture of stop-motion animated characters
WO2008016645A2 (en) * 2006-07-31 2008-02-07 Onlive, Inc. System and method for performing motion capture and image reconstruction
US7889197B2 (en) * 2007-01-26 2011-02-15 Captivemotion, Inc. Method of capturing, processing, and rendering images
WO2009007917A2 (en) * 2007-07-10 2009-01-15 Koninklijke Philips Electronics N.V. Object motion capturing system and method
KR100919616B1 (ko) * 2008-09-03 2009-09-30 (주)상상돔 이미지맵과 모션트래킹을 이용한 전방위 운동시스템
ES2742173T3 (es) * 2008-11-09 2020-02-13 3D Systems Inc Soportes personalizados, moldes, dispositivos y métodos de diseño y fabricación
US8509479B2 (en) * 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US9019349B2 (en) * 2009-07-31 2015-04-28 Naturalpoint, Inc. Automated collective camera calibration for motion capture
US8606848B2 (en) 2009-09-10 2013-12-10 Opentv, Inc. Method and system for sharing digital media content
US8686734B2 (en) * 2010-02-10 2014-04-01 Disney Enterprises, Inc. System and method for determining radio frequency identification (RFID) system performance
US9519976B1 (en) * 2011-01-28 2016-12-13 Lucasfilm Entertainment Company Ltd. Calibrating stereoscopic cameras
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US9799136B2 (en) * 2011-12-21 2017-10-24 Twentieth Century Fox Film Corporation System, method and apparatus for rapid film pre-visualization
US11232626B2 (en) 2011-12-21 2022-01-25 Twenieth Century Fox Film Corporation System, method and apparatus for media pre-visualization
US11189917B2 (en) 2014-04-16 2021-11-30 Rearden, Llc Systems and methods for distributing radioheads
US9386393B2 (en) * 2012-11-29 2016-07-05 Symbol Technologies, Llc System and method for automatically activating a function of a mobile device with another device
US9323346B2 (en) 2012-12-31 2016-04-26 Futurewei Technologies, Inc. Accurate 3D finger tracking with a single camera
KR101371384B1 (ko) * 2013-01-10 2014-03-07 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
WO2014116868A1 (en) * 2013-01-24 2014-07-31 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
WO2014120734A1 (en) 2013-02-01 2014-08-07 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US9973246B2 (en) 2013-03-12 2018-05-15 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US9923657B2 (en) 2013-03-12 2018-03-20 Rearden, Llc Systems and methods for exploiting inter-cell multiplexing gain in wireless cellular systems via distributed input distributed output technology
US10488535B2 (en) 2013-03-12 2019-11-26 Rearden, Llc Apparatus and method for capturing still images and video using diffraction coded imaging techniques
RU2767777C2 (ru) 2013-03-15 2022-03-21 Риарден, Ллк Системы и способы радиочастотной калибровки с использованием принципа взаимности каналов в беспроводной связи с распределенным входом - распределенным выходом
EP3157422A4 (en) 2014-03-24 2018-01-24 The University of Hawaii Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US11297284B2 (en) 2014-04-08 2022-04-05 Udisense Inc. Monitoring camera and mount
US9813850B2 (en) 2014-04-09 2017-11-07 Senaya, Inc. Asset tracking system having primary and secondary tracking devices
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
KR101482965B1 (ko) * 2014-08-24 2015-01-21 연합정밀주식회사 움직임 감지 정확도를 향상시킨 모션 트래커 시스템
KR101530340B1 (ko) * 2014-12-05 2015-06-22 연합정밀주식회사 모션 트래커 시스템 및 자세방위 시스템을 통합하여 3차원 가상공간에서 손의 위치 및 자세 정보를 구현하는 움직임 감지 시스템
US9924103B2 (en) * 2015-04-09 2018-03-20 The Boeing Company Automated local positioning system calibration using optically readable markers
KR101643690B1 (ko) 2015-04-21 2016-08-10 한국과학기술원 휴대 단말 기반의 보행 자세 복원 장치 및 방법
US9947196B2 (en) 2015-04-29 2018-04-17 Senaya, Inc. Wireless asset tracking systems with heterogeneous communication
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
EP3380007A4 (en) 2015-11-23 2019-09-04 Kineticor, Inc. SYSTEMS, DEVICES, AND METHODS FOR MONITORING AND COMPENSATING A MOVEMENT OF A PATIENT DURING MEDICAL IMAGING SCAN
US9916496B2 (en) 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
US10071306B2 (en) 2016-03-25 2018-09-11 Zero Latency PTY LTD System and method for determining orientation using tracking cameras and inertial measurements
US10486061B2 (en) 2016-03-25 2019-11-26 Zero Latency Pty Ltd. Interference damping for continuous game play
US10717001B2 (en) 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US10421012B2 (en) 2016-03-25 2019-09-24 Zero Latency PTY LTD System and method for tracking using multiple slave servers and a master server
US10751609B2 (en) 2016-08-12 2020-08-25 Zero Latency PTY LTD Mapping arena movements into a 3-D virtual world
KR20180041890A (ko) * 2016-10-17 2018-04-25 삼성전자주식회사 가상 객체를 표시하는 방법 및 장치
TWI775777B (zh) 2017-02-20 2022-09-01 美商3M新設資產公司 光學物品及與其交互作用之系統
US10066929B1 (en) 2017-04-25 2018-09-04 The Boeing Company Method for measuring residual strain for cured composite part
WO2019064108A1 (en) 2017-09-27 2019-04-04 3M Innovative Properties Company PERSONAL PROTECTIVE EQUIPMENT MANAGEMENT SYSTEM USING OPTICAL PATTERNS FOR EQUIPMENT AND SECURITY MONITORING
WO2019104108A1 (en) * 2017-11-22 2019-05-31 Udisense Inc. Respiration monitor
CN112639875A (zh) * 2018-03-30 2021-04-09 株式会社Zozo 尺寸测定系统
CA3113602C (en) 2018-09-21 2024-02-20 ZOZO, Inc. Size measurement system
WO2022019776A1 (en) * 2020-07-22 2022-01-27 Weta Digital Limited Sealed active marker for performance capture
US11308644B2 (en) * 2020-08-28 2022-04-19 Weta Digital Limited Multi-presence detection for performance capture
CN112515661B (zh) * 2020-11-30 2021-09-14 魔珐(上海)信息科技有限公司 姿态捕捉方法、装置、电子设备及存储介质
CN112416133B (zh) * 2020-11-30 2021-10-15 魔珐(上海)信息科技有限公司 手部动作捕捉方法、装置、电子设备及存储介质
WO2022190217A1 (ja) * 2021-03-09 2022-09-15 株式会社Zozo 情報処理装置、情報処理方法及び情報処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002505412A (ja) * 1997-12-05 2002-02-19 ノーザン・デジタル・インコーポレーテッド 複数の物体の空間位置と方向とを検出するシステム
JP2003106812A (ja) * 2001-06-21 2003-04-09 Sega Corp 画像情報処理方法、その方法を利用したシステム及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5550928A (en) 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
US5828770A (en) 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US6144366A (en) 1996-10-18 2000-11-07 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
JP3374175B2 (ja) * 2000-01-27 2003-02-04 名古屋大学長 位置表示用データ送信機能付きデータ送信装置、(以下[発明の名称の続き]欄に記載)
GB0015147D0 (en) 2000-06-21 2000-08-09 Jacobs Michael Tracking system
CA2334495A1 (en) * 2001-02-06 2002-08-06 Surgical Navigation Specialists, Inc. Computer-aided positioning method and system
US7266150B2 (en) 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
US20040063480A1 (en) * 2002-09-30 2004-04-01 Xiaoling Wang Apparatus and a method for more realistic interactive video games on computers or similar devices
US7009561B2 (en) * 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7218320B2 (en) * 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
JP2005221365A (ja) * 2004-02-05 2005-08-18 Olympus Corp レンズ性能検査装置
US8194093B2 (en) 2004-09-15 2012-06-05 Onlive, Inc. Apparatus and method for capturing the expression of a performer
US7633521B2 (en) * 2005-02-25 2009-12-15 Onlive, Inc. Apparatus and method improving marker identification within a motion capture system
US7720259B2 (en) * 2005-08-26 2010-05-18 Sony Corporation Motion capture using primary and secondary markers

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002505412A (ja) * 1997-12-05 2002-02-19 ノーザン・デジタル・インコーポレーテッド 複数の物体の空間位置と方向とを検出するシステム
JP2003106812A (ja) * 2001-06-21 2003-04-09 Sega Corp 画像情報処理方法、その方法を利用したシステム及びプログラム

Also Published As

Publication number Publication date
US20100188401A1 (en) 2010-07-29
JP2009508193A (ja) 2009-02-26
EP1924968A4 (en) 2012-11-28
CA2620505A1 (en) 2007-03-01
US7720259B2 (en) 2010-05-18
KR101250607B1 (ko) 2013-04-03
CA2620505C (en) 2015-05-05
CN101496031A (zh) 2009-07-29
AU2006282765B2 (en) 2011-05-26
US8107682B2 (en) 2012-01-31
EP1924968A2 (en) 2008-05-28
AU2006282765A1 (en) 2007-03-01
JP5202316B2 (ja) 2013-06-05
KR20080060228A (ko) 2008-07-01
US20070206832A1 (en) 2007-09-06
WO2007025301A3 (en) 2009-04-16
CN101496031B (zh) 2012-07-04
WO2007025301A2 (en) 2007-03-01
NZ566392A (en) 2011-02-25

Similar Documents

Publication Publication Date Title
JP5202316B2 (ja) 1次マーカ及び2次マーカを使用するモーションキャプチャ
US10565731B1 (en) Pose tracking system with multi device shared scene map
CN101681423B (zh) 捕获、处理、以及绘制图像的方法
CN100409261C (zh) 实时运动捕捉的方法和设备
JP4880350B2 (ja) 実マーカオブジェクトを識別する拡張現実システム
US8106911B2 (en) Mobile motion capture cameras
EP2824923B1 (en) Apparatus, system and method for projecting images onto predefined portions of objects
KR20150103723A (ko) 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스
AU2007317448A1 (en) Capturing surface in motion picture
KR20120114398A (ko) 모션 픽처에서의 세그먼트 트랙킹
US9955120B2 (en) Multiuser telepresence interaction
CN111386554B (zh) 形成增强图像数据的方法和装置
CN108257177A (zh) 基于空间标识的定位系统与方法
US20190254413A1 (en) Toothbrush Tracking Apparatus and Method
Xiang et al. Tsfps: An accurate and flexible 6dof tracking system with fiducial platonic solids
CN114419162A (zh) 一种光学手指捕捉的标记定位方法
CN108346183A (zh) 一种用于ar基准定位的方法及系统
Barca et al. A new illuminated contour-based marker system for optical motion capture
JP2011092657A (ja) 複数の光源を使って操作を行うゲームシステム
KR20050041525A (ko) 모션 캡쳐 시스템
Klinker Augmented Reality: A problem in need of many computer vision-based solutions
CN107551551A (zh) 游戏效果构建方法及装置
Kowalski Fault-tolerant Pose Estimation Using Inexpensive Hardware
Nii et al. Illumination sensitive dynamic virtual sets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130425

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130924