JP2007241725A - データ取得装置 - Google Patents

データ取得装置 Download PDF

Info

Publication number
JP2007241725A
JP2007241725A JP2006064257A JP2006064257A JP2007241725A JP 2007241725 A JP2007241725 A JP 2007241725A JP 2006064257 A JP2006064257 A JP 2006064257A JP 2006064257 A JP2006064257 A JP 2006064257A JP 2007241725 A JP2007241725 A JP 2007241725A
Authority
JP
Japan
Prior art keywords
image
invisible
matching
visible image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006064257A
Other languages
English (en)
Inventor
Yuiko Yamauchi
結子 山内
Hideki Mitsumine
秀樹 三ツ峰
Takashi Fukaya
崇史 深谷
Hidehiko Okubo
英彦 大久保
Seiki Inoue
誠喜 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2006064257A priority Critical patent/JP2007241725A/ja
Publication of JP2007241725A publication Critical patent/JP2007241725A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】モーションデータ、3次元モデルデータおよびテクスチャデータを同時に取得することのできるデータ取得装置を提供する。
【解決手段】被写体の可視画像および不可視画像を取得する複数の画像取得手段11と、被写体に取り付けられた複数の不可視マーカの不可視マーカ画像パターンおよび不可視マーカが取り付けられた箇所の可視画像パターンを登録する画像パターン登録手段12と、不可視画像と不可視マーカ画像パターンとのマッチング、および、可視画像と可視画像パターンとのマッチングを行う画像マッチング手段13と、可視画像に基づいてテクスチャデータおよび3次元モデルデータを生成するとともに、画像マッチング手段13によって得られた不可視マーカの3次元位置からモーションデータを生成するデータ生成手段14とを含む。
【選択図】図1

Description

本発明は、データ取得装置に係り、特に、モーションデータ、テクスチャデータおよび三次元モデルデータを同時に取得することの可能なデータ取得装置に関する。
映像制作では、コンピュータグラフィックス(CG)を使用したり、実際のカメラで撮影した実写映像とCGを連動させたりする演出などが行われる。その際、CGの自然な映像を実現するためには、実物の3次元モデルデータ、テクスチャデータ、およびモーションデータに基づいてCGを制作する必要がある。
3次元モデルデータとテクスチャデータを同時に取得する手法は、既に提案されており、映像フレームごとにテクスチャデータ付きの3次元モデルを作成することによって、連続的に被写体のテクスチャデータ付きの3次元モデルを取得している(例えば、非特許文献1参照)。
また、赤外光を発光する小型光源を使用し、赤外光の波長で小型光源を識別するモーションキャプチャ方法も既に提案されている(例えば、特許文献1参照)。
さらに、1台のカメラで赤外マーカを識別し、3次元モデルデータおよびモーションデータを取得する3Dデータ表示装置も既に提案されている(例えば、特許文献2参照)。
特開2003−168115号公報([0007]−[0014]、図3) 特開2005−256232号公報([0007]−[0012]、図1) 冨山仁博、外3名、「視体積交差法とステレオマッチング法を用いた多視点画像からの3次元動オブジェクト生成手法」、映像情報メディア学会誌、2004年、第58巻、第6号、p.797−806
しかしながら、非特許文献1に開示された手法では、動作する被写体の各部位の位置データであるモーションデータを3次元モデルデータおよびテクスチャデータと同時に取得できないという課題があった。
また、特許文献1に開示された手法では、各部位のモーションデータを取得する際に赤外光を発光する小型光源を身体に着ける必要があり、小型光源が可視画像に撮影されてしまうため、テクスチャデータを取得する際に支障となるという課題があった。
また、特許文献2に開示された手法では、3次元モデルデータおよびモーションデータを同時に取得できるものの、被写体のテクスチャデータを取得できないという課題があった。
従って、従来の手法では、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することができないという課題があった。
本発明は、従来の課題を解決するためになされたものであって、モーションデータ、3次元モデルデータおよびテクスチャデータを同時に取得することにより、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することが可能な3次元映像データを取得することができるデータ取得装置を提供することを目的とする。
本発明のデータ取得装置は、被写体の可視画像および不可視画像を取得する複数の画像取得手段と、前記被写体に取り付けられた複数の不可視マーカの不可視マーカ画像パターン、および、前記不可視マーカが取り付けられた箇所の可視画像パターンを登録する画像パターン登録手段と、前記不可視画像と前記不可視マーカ画像パターンとのマッチング、および、前記可視画像と前記可視画像パターンとのマッチングを行う画像マッチング手段と、前記可視画像に基づいてテクスチャデータおよび3次元モデルデータを生成するとともに、前記画像マッチング手段によって得られた前記不可視マーカの3次元位置からモーションデータを生成するデータ生成手段とを含む構成を有している。
この構成により、モーションデータ、3次元モデルデータおよびテクスチャデータを同時に取得することができることとなる。
本発明のデータ取得装置は、各前記画像取得手段が、前記被写体の前記不可視画像を取得する不可視画像取得部と、前記被写体の前記可視画像を取得する可視画像取得部とを含み、前記画像パターン登録手段が、前記被写体に取り付けられた複数の前記不可視マーカの前記不可視マーカ画像パターンを登録する不可視マーカ画像パターン登録部と、前記不可視マーカが取り付けられた箇所の前記可視画像パターンを登録する可視画像パターン登録部とを含む構成を有している。
この構成により、各画像取得手段が被写体の同一範囲を不可視画像および可視画像として取得することができ、画像パターン登録手段が、被写体の同一範囲の不可視マーカ画像パターンと可視画像パターンを登録することができることとなる。
本発明のデータ取得装置は、前記画像マッチング手段が、前記不可視画像取得部によって取得された前記不可視画像と前記不可視マーカ画像パターン登録部に登録された前記不可視マーカ画像パターンとのマッチングを行う不可視画像マッチング部と、前記可視画像取得部によって取得された前記可視画像と前記可視画像パターン登録部に登録された前記可視画像パターンとのマッチングを行う可視画像マッチング部と、前記不可視画像マッチング部のマッチング結果に基づいて前記可視画像マッチング部でマッチングを行う必要があるか否かを判定する可視画像マッチング要否判定部とを含む構成を有している。
この構成により、不可視画像と不可視マーカ画像パターンとのマッチングの精度が不十分であった場合には、可視画像と可視画像パターンとのマッチングを行うことにより、不可視マーカの検出精度を向上することができることとなる。
本発明のデータ取得装置は、前記データ生成手段が、前記不可視画像マッチング部によって得られた前記不可視マーカの3次元位置からモーションデータを算出するモーションデータ算出部と、前記可視画像取得部によって取得された前記可視画像に基づいてテクスチャデータを取得するテクスチャデータ取得部と、前記可視画像取得部によって取得された前記可視画像に基づいて3次元モデルデータを算出する3次元モデルデータ算出部とを含む構成を有している。
この構成により、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することが可能な3次元映像データを取得することができることとなる。
本発明は、モーションデータ、3次元モデルデータおよびテクスチャデータを同時に取得することにより、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することが可能な3次元映像データを取得することができるという効果を有するデータ取得装置を提供することができるものである。
以下、本発明の実施の形態のデータ取得装置について、図面を用いて説明する。
本発明に係るデータ取得装置1は、図1のブロック図に示すように、被写体の可視画像および不可視画像を取得する複数の画像取得手段11と、被写体に取り付けられた複数の不可視マーカの不可視マーカ画像パターンおよび不可視マーカが取り付けられた箇所の可視画像パターンを登録する画像パターン登録手段12と、不可視画像と不可視マーカ画像パターンとのマッチング、および、可視画像と可視画像パターンとのマッチングを行う画像マッチング手段13と、可視画像に基づいてテクスチャデータおよび3次元モデルデータを生成するとともに、画像マッチング手段13によって得られた不可視マーカの3次元位置からモーションデータを生成するデータ生成手段14とを含む。
そして、各画像取得手段11は、被写体の不可視画像を取得する不可視画像取得部111および被写体の可視画像を取得する可視画像取得部112を含む。
画像パターン登録手段12は、被写体に取り付けられた複数の不可視マーカの不可視マーカ画像パターンを登録する不可視マーカ画像パターン登録部121と、不可視マーカが取り付けられた箇所の可視画像パターンを登録する可視画像パターン登録部122とを含む。
画像マッチング手段13は、不可視画像取得部111によって取得された不可視画像と不可視マーカ画像パターン登録部121に登録された不可視マーカ画像パターンとのマッチングを行う不可視画像マッチング部131と、可視画像取得部112によって取得された可視画像と可視画像パターン登録部122に登録された可視画像パターンとのマッチングを行う可視画像マッチング部132と、不可視画像マッチング部131のマッチング結果に基づいて可視画像マッチング部132でマッチングを行う必要があるか否かを判定する可視画像マッチング要否判定部133とを含む。
データ生成手段14は、不可視画像マッチング部131によって得られた不可視マーカの3次元位置からモーションデータを算出するモーションデータ算出部141と、可視画像取得部112によって取得された可視画像に基づいてテクスチャデータを取得するテクスチャデータ取得部142と、可視画像取得部112によって取得された可視画像に基づいて3次元モデルデータを算出する3次元モデルデータ算出部143とを含む。
なお、不可視マーカとしては、可視画像であるRGB画像に写らないように、赤外光反射型、赤外光吸収型、あるいは赤外光反射型と赤外光吸収型を組み合せた赤外マーカを用いる。赤外マーカの大きさは、画像取得手段11で取得する画角サイズに応じて適切なものとなるようにする。
本実施の形態では、例えば図2(a)に示すように、被写体2に複数の赤外マーカ3を取り付け、画像取得手段11として機能するN台の赤外統合型カメラ4で被写体2を撮影するような場合を想定する。例として、1番目および2番目の赤外統合型カメラ4で撮影したRGB画像と不可視画像である赤外画像の模式図を図2(b)に示す。なお、赤外統合型カメラとしては、特開平10−341446に開示されているものを適用することができる。
図3は、本発明に係るデータ取得装置1のハードウエア構成を示すブロック図であって、画像取得手段11として機能する赤外統合型カメラ4からRGB画像および赤外画像を取得する動画インターフェイス(I/F)51と、RGB画像および赤外画像の画像フレームを記憶する画像フレーム記憶装置52と、不可視マーカ画像パターンである赤外マーカ画像パターンおよび可視画像パターンであるRGB画像パターンを記憶する画像パターン登録手段12として機能する画像パターン記憶装置53と、データ取得処理を実行するCPU54と、データ取得プログラムを記憶するメモリ55と、データ取得装置1を操作するための周辺機器が接続される周辺機器インターフェイス(I/F)56とがバス50に接続された構成を有する。
周辺機器I/F56には、表示パネル57と、キーボード58と、マウス59とが接続される。なお、表示パネル57、キーボード58、およびマウス59に代えて、操作パネルを適用することも可能である。
次に、メモリ55にインストールするデータ取得プログラムのフローチャートを参照しつつ、本発明の実施形態のデータ取得装置の動作を説明する。
図4は、データ取得プログラムのフローチャートである。まず、CPU54は、N台の赤外統合型カメラ4を識別するインデックスnを“1”に初期化する(ステップS1)。
次に、CPU54は、n番目の赤外統合型カメラにより撮像された被写体のRGB画像および赤外画像のある時刻における画像フレームを取得する(ステップS2)。
次に、CPU54は、インデックスnがNに到達したか否かを判定し(ステップS3)、否定判定した場合には、nをインクリメントして(ステップS4)、ステップS2の処理に戻って(n+1)番目の赤外統合型カメラの同時刻の画像フレームを取得する。
CPU54は、ステップS3において、インデックスnがNに到達したと判定した場合は、後述する画像マッチングルーチンにおいて、赤外マーカ画像パターンと赤外画像のマッチング、または、RGB画像パターンとRGB画像のマッチングを行い(ステップS5)、後述するデータ取得ルーチンにおいて、モーションデータ、3次元モデルデータ、およびテクスチャデータの取得を行う(ステップS6)。
次に、CPU54は、最後の画像フレームを読み込んだか否かを判定し(ステップS7)、否定判定した場合はステップS1以降の処理に戻って次の時刻の画像フレームを読み込み、肯定判定した場合はデータ取得プログラムを終了する。
図5は、図4のデータ取得プログラムのステップS5で実行される画像マッチングルーチンのフローチャートである。まず、CPU54は、N台の赤外統合型カメラ4を識別するインデックスnを“1”に初期化する(ステップS51)。
次に、CPU54は、後述する不可視画像マッチングルーチンにおいて、画像パターン記憶装置53に予め登録されたM個の赤外マーカ画像パターンと赤外統合型カメラ4によって取得された赤外画像中の対応する赤外マーカ画像との相関度を示すRmin(n,m,k)を算出する(ステップS52)。ここで、mはM個の赤外マーカおよび赤外マーカ画像パターンの番号を示すインデックスであり、kは赤外画像中の赤外マーカ画像の位置を示すパラメータである。
なお、相関度Rmin(n,m,k)は、その値が0に近いほど赤外マーカ画像パターンと赤外画像中の赤外マーカ画像との相関が高いことを意味する。
ここで、相関度Rmin(n,m,k)の値に対して、赤外マーカ画像パターンを検出できたと判断するための閾値Th、また、赤外マーカ画像が赤外画像に写っていないと判断するための閾値Thが予め設定されているものとする。
次に、CPU54は、M個の赤外マーカおよび赤外マーカ画像パターンの番号を示すインデックスmを“1”に初期化する(ステップS53)。
次に、CPU54は、予め定められた閾値ThおよびThに対して、相関度Rmin(n,m,k)がTh以上かつTh以下であるか否かを判定する(ステップS54)。ここで、Rmin(n,m,k)がTh以上かつTh以下の場合とは、図6に示すように、被写体2の右手の手先の部分に取り付けられた赤外マーカ(1番目)が、赤外画像に大きく傾いて写っているために、赤外画像のマッチングだけでは赤外マーカ位置を明確に認識することができず、RGB画像でのマッチングが必要となるような場合である。
このような場合、即ち、ステップS54において肯定判定した場合は、CPU54は、後述する可視画像マッチングルーチンにおいて、該当するm番目の赤外マーカが取り付けられている箇所のRGB画像パターンとRGB画像のマッチングを行い、マッチング相関度を示すR’min(n,m,k’)を算出する(ステップS55)。なお、k’はRGB画像中の赤外マーカの位置を示すパラメータである。
ここで、RGB画像でのマッチングで、赤外マーカを検出できたと判断するための閾値Thが予め設定されているものとする。
次に、CPU54は、ステップS52で得た赤外マーカ画像パターンのマッチングによる相関度Rmin(n,m,k)とステップS55で得たRGB画像パターンのマッチングによる相関度R’min(n,m,k’)との積が、予め設定された閾値Thよりも小であるか否かを判定する(ステップS56)。
CPU54は、ステップS56において、肯定判定した場合は、インデックスmがMに到達したか否かを判定し(ステップS57)、否定判定した場合には、mをインクリメントして(ステップS58)、ステップS54の処理に戻る。
CPU54は、ステップS57において、インデックスmがMに到達したと判定した場合は、インデックスnがNに到達したか否かを判定し(ステップS59)、否定判定した場合には、nをインクリメントして(ステップS60)、ステップS52の処理に戻り、肯定判定した場合には、画像マッチングルーチンを終了する。
なお、ステップS54において、Rmin(n,m,k)がTh以上かつTh以下でないと判定した場合は、CPU54は、Rmin(n,m,k)が閾値Thよりも大であるか否かを判定する(ステップS61)。
CPU54は、ステップS61において肯定判定した場合、および、ステップS56において、Rmin(n,m,k)とR’min(n,m,k’)との積が予め設定された閾値Thよりも小でないと判定した場合には、Rmin(n,m,k)の値を閾値Thよりも十分大きな任意の値に更新し(ステップS62)、後述するモーションデータ算出ルーチンで選択されないようにしてステップS57の処理に進む。
また、CPU54は、ステップS61において否定判定した場合には、直接ステップS57の処理に進む。
次に、図5の画像マッチングルーチンのステップS52で実行される不可視画像マッチングルーチンについて、図7のフローチャートと図8(a)の模式図を用いて説明する。まず、CPU54は、赤外画像のブロック分割の設定を行う(ステップS521)。ここで、赤外画像は、L×L画素の基準ブロックに分割され、その基準ブロックの個数はK個であるとする。
次に、CPU54は、画像パターン記憶装置53に予め登録されたL×L画素からなるM個の赤外マーカ画像パターンの画像番号を示すインデックスmを“1”に初期化し、赤外画像上の基準ブロックのブロック番号を示すインデックスkを“1”に初期化し、配列R(n,m,k)を“0”に初期化する(ステップS522)。
次に、CPU54は、1基準ブロック内の行方向の画素位置を示すインデックスiを“0”に初期化し(ステップS523)、1基準ブロック内の列方向の画素位置を示すインデックスjを“0”に初期化する(ステップS524)。
次に、CPU54は、赤外マーカ画像パターンと赤外画像中の赤外マーカ画像の相関度を求める過程として[数1]に示すようなR(n,m,k)を算出する(ステップS525)。ここで、I(i,j)およびT(i,j)は、それぞれ赤外画像のk番目の基準ブロックおよびm番目の赤外マーカ画像パターンの画素位置(i,j)における輝度を与える関数である。
次に、CPU54は、jがL−1に到達したか否かを判定し(ステップS526)、否定判定した場合には、jをインクリメントして(ステップS527)、ステップS525の処理に戻る。
ステップS526において、jがL−1に到達した場合は、CPU54は、iがL−1に到達したか否かを判定し(ステップS528)、否定判定した場合には、iをインクリメントして(ステップS529)、ステップS524の処理に戻る。
ステップS528において、iがL−1に到達した場合は、CPU54は、kがKに到達したか否かを判定し(ステップS530)、否定判定した場合には、kをインクリメントして(ステップS531)、ステップS523の処理に戻る。
ステップS530において、kがKに到達した場合は、CPU54は、1番目からK番目までの基準ブロックで最小のR(n,m,k)を与えるkをkとし、そのときのR(n,m,k)を相関度Rmin(n,m,k)とする(ステップS532)。
次に、CPU54は、インデックスmがMに到達したか否かを判定し(ステップS533)、否定判定した場合には、mをインクリメントして(ステップS534)、ステップS523の処理に戻り、肯定判定した場合は、不可視画像マッチングルーチンを終了する。
なお、不可視画像マッチングルーチンでは、ステップS523からステップS528までの処理において差分2乗総和を算出したが、もちろん差分2乗総和の代わりに差分絶対値総和を算出してもよい。
また、不可視画像マッチングルーチンでは、赤外画像をL×L画素のK個の基準ブロックに分割して処理を行う例を示したが、ブロック分割を行わずに赤外画像の画素全体を行方向および列方向に探索することも可能である。
次に、図5の画像マッチングルーチンのステップS55で実行される可視画像マッチングルーチンについて、図9のフローチャートと図8(b)の模式図を用いて説明する。まず、CPU54は、RGB画像のブロック分割の設定を行う(ステップS551)。ここで、RGB画像は、L×L画素の基準ブロックに分割され、その基準ブロックの個数はK’個であるとする。
次に、CPU54は、RGB画像上の基準ブロックのブロック番号を示すインデックスk’を“1”に初期化し、配列R’(n,m,k’)を“0”に初期化する(ステップS552)。
次に、CPU54は、1基準ブロック内の行方向の画素位置を示すインデックスiを“0”に初期化し(ステップS553)、1基準ブロック内の列方向の画素位置を示すインデックスjを“0”に初期化する(ステップS554)。
次に、CPU54は、図7の不可視画像マッチングルーチンのステップS525と同様に、以下に示す[数2]より、m番目の赤外マーカのRGB画像パターンとRGB画像から求まる相関度を求める過程としてR’(n,m,k’)を算出する(ステップS555)。ここで、Ck’(i,j)およびS(i,j)は、それぞれRGB画像のk’番目の基準ブロックおよびm番目の赤外マーカのRGB画像パターンの画素位置(i,j)における輝度を与える関数であるとする。
なお、RGB画像パターンは、画像パターン記憶装置53に予め登録されたL×L画素からなる画像パターンであり、その画像範囲は、対応する赤外マーカ画像パターンの画像範囲と同一であるものとする。
次に、CPU54は、jがL−1に到達したか否かを判定し(ステップS556)、否定判定した場合には、jをインクリメントして(ステップS557)、ステップS555の処理に戻る。
ステップS556において、jがL−1に到達した場合は、CPU54は、iがL−1に到達したか否かを判定し(ステップS558)、否定判定した場合には、iをインクリメントして(ステップS559)、ステップS554の処理に戻る。
ステップS558において、iがL−1に到達した場合は、CPU54は、k’がK’に到達したか否かを判定し(ステップS560)、否定判定した場合には、k’をインクリメントして(ステップS561)、ステップS553の処理に戻る。
ステップS560において、k’がK’に到達した場合は、CPU54は、1番目からK’番目までの基準ブロックで最小のR’(n,m,k’)を与えるk’をk’とし、そのときのR’(n,m,k’)を相関度R’min(n,m,k’)として(ステップS562)、可視画像マッチングルーチンを終了する。
なお、可視画像マッチングルーチンにおいても、ステップS553からステップS558までの処理において差分2乗総和を算出したが、もちろん差分2乗総和の代わりに差分絶対値総和を算出してもよい。
また、可視画像マッチングルーチンにおいても、ブロック分割を行わずにRGB画像の画素全体を行方向および列方向に探索することも可能である。
図10は、図4のデータ取得プログラムのステップS6で実行されるデータ取得ルーチンのフローチャートである。まず、CPU54は、後述するモーションデータ算出ルーチンを実行する(ステップS65)。
次に、CPU54は、非特許文献1に開示されたステレオマッチングと視体積交差法の両者を取り入れた手法を用いて、テクスチャデータを取得し(ステップS66)、3次元モデルデータを算出して(ステップS67)、データ取得ルーチンを終了する。
なお、ステップS67において、ステップS65のモーションデータ算出ルーチンで得た赤外マーカの3次元位置を参考にして、RGB映像同士のマッチングを行うことにより、3次元モデルのマッチングにおいて誤認を軽減することも可能である。
図11は、図10のデータ取得ルーチンのステップS65で実行されるモーションデータ算出ルーチンのフローチャートである。まず、CPU54は、赤外マーカの順番を示すインデックスmを“1”に初期化する(ステップS651)。
次に、CPU54は、N台の赤外統合型カメラ4による相関度Rmin(n,m,k)のうちで小さい方から2番目までの値を与える赤外統合型カメラを2台決定する(ステップS652)。
次に、CPU54は、公知の三角測量法を用いて、上記の2台の赤外統合型カメラの位置、距離、および上記の2台の赤外統合型カメラによって取得された赤外画像中の赤外マーカ位置、即ち、図7の不可視画像マッチングルーチンのステップS532で取得したkに基づいて、赤外マーカの3次元位置を算出する(ステップS653)。
次に、CPU54は、mがMに到達したか否かを判定し(ステップS654)、否定判定した場合には、mをインクリメントして(ステップS655)、ステップS652の処理に戻り、肯定判定した場合にはモーションデータ算出ルーチンを終了する。
以上説明したように、本発明の実施の形態に係るデータ取得装置は、モーションデータ、3次元モデルデータおよびテクスチャデータを同時に取得することにより、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することが可能な3次元映像データを取得することができる。
以上のように、本発明に係るデータ取得装置は、被写体の3次元モデルのモーションの変更を行う際に撮影時の被写体のテクスチャを使用することが可能な3次元映像データを取得することができるという効果を有し、画像処理装置として有効である。
本発明に係るデータ取得装置の構成を示すブロック図 赤外マーカを取り付けられた被写体を撮影する場合の説明図 本発明に係るデータ取得装置のハードウエア構成を示すブロック図 本発明に係るデータ取得装置のCPUが実行するデータ取得プログラムのフローチャート 本発明に係るデータ取得装置のCPUが実行する画像マッチングルーチンのフローチャート RGB画像でのマッチングを必要とする場合の説明図 本発明に係るデータ取得装置のCPUが実行する不可視画像マッチングルーチンのフローチャート マッチングの説明図 本発明に係るデータ取得装置のCPUが実行する可視画像マッチングルーチンのフローチャート 本発明に係るデータ取得装置のCPUが実行するデータ取得ルーチンのフローチャート 本発明に係るデータ取得装置のCPUが実行するモーションデータ算出ルーチンのフローチャート
符号の説明
1 データ取得装置
11 画像取得手段
12 画像パターン登録手段
13 画像マッチング手段
14 データ生成手段
111 不可視画像取得部
112 可視画像取得部
121 不可視マーカ画像パターン登録部
122 可視画像パターン登録部
131 不可視画像マッチング部
132 可視画像マッチング部
133 可視画像マッチング要否判定部
141 モーションデータ算出部
142 テクスチャデータ取得部
143 3次元モデルデータ算出部

Claims (4)

  1. 被写体の可視画像および不可視画像を取得する複数の画像取得手段と、
    前記被写体に取り付けられた複数の不可視マーカの不可視マーカ画像パターン、および、前記不可視マーカが取り付けられた箇所の可視画像パターンを登録する画像パターン登録手段と、
    前記不可視画像と前記不可視マーカ画像パターンとのマッチング、および、前記可視画像と前記可視画像パターンとのマッチングを行う画像マッチング手段と、
    前記可視画像に基づいてテクスチャデータおよび3次元モデルデータを生成するとともに、前記画像マッチング手段によって得られた前記不可視マーカの3次元位置からモーションデータを生成するデータ生成手段とを含むデータ取得装置。
  2. 各前記画像取得手段が、前記被写体の前記不可視画像を取得する不可視画像取得部と、前記被写体の前記可視画像を取得する可視画像取得部とを含み、
    前記画像パターン登録手段が、前記被写体に取り付けられた複数の前記不可視マーカの前記不可視マーカ画像パターンを登録する不可視マーカ画像パターン登録部と、前記不可視マーカが取り付けられた箇所の前記可視画像パターンを登録する可視画像パターン登録部とを含む請求項1に記載のデータ取得装置。
  3. 前記画像マッチング手段が、前記不可視画像取得部によって取得された前記不可視画像と前記不可視マーカ画像パターン登録部に登録された前記不可視マーカ画像パターンとのマッチングを行う不可視画像マッチング部と、
    前記可視画像取得部によって取得された前記可視画像と前記可視画像パターン登録部に登録された前記可視画像パターンとのマッチングを行う可視画像マッチング部と、
    前記不可視画像マッチング部のマッチング結果に基づいて前記可視画像マッチング部でマッチングを行う必要があるか否かを判定する可視画像マッチング要否判定部とを含む請求項2に記載のデータ取得装置。
  4. 前記データ生成手段が、前記不可視画像マッチング部によって得られた前記不可視マーカの3次元位置からモーションデータを算出するモーションデータ算出部と、
    前記可視画像取得部によって取得された前記可視画像に基づいてテクスチャデータを取得するテクスチャデータ取得部と、
    前記可視画像取得部によって取得された前記可視画像に基づいて3次元モデルデータを算出する3次元モデルデータ算出部とを含む請求項3に記載のデータ取得装置。
JP2006064257A 2006-03-09 2006-03-09 データ取得装置 Pending JP2007241725A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006064257A JP2007241725A (ja) 2006-03-09 2006-03-09 データ取得装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006064257A JP2007241725A (ja) 2006-03-09 2006-03-09 データ取得装置

Publications (1)

Publication Number Publication Date
JP2007241725A true JP2007241725A (ja) 2007-09-20

Family

ID=38587201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006064257A Pending JP2007241725A (ja) 2006-03-09 2006-03-09 データ取得装置

Country Status (1)

Country Link
JP (1) JP2007241725A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187412A (ja) * 2008-02-08 2009-08-20 Nippon Hoso Kyokai <Nhk> マーカ検出識別装置およびそのプログラム
JP2013072666A (ja) * 2011-09-27 2013-04-22 Ihi Corp 対象物識別方法と装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187412A (ja) * 2008-02-08 2009-08-20 Nippon Hoso Kyokai <Nhk> マーカ検出識別装置およびそのプログラム
JP2013072666A (ja) * 2011-09-27 2013-04-22 Ihi Corp 対象物識別方法と装置

Similar Documents

Publication Publication Date Title
US10354129B2 (en) Hand gesture recognition for virtual reality and augmented reality devices
US10254845B2 (en) Hand gesture recognition for cursor control
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
US20060204035A1 (en) Method and apparatus for tracking a movable object
CN108596193B (zh) 一种搭建针对人耳识别的深度学习网络结构的方法及系统
CN106529419B (zh) 视频显著性堆栈式聚合的对象自动检测方法
JP2018028899A (ja) 画像レジストレーションの方法及びシステム
WO2021169924A1 (zh) 行为预测方法及装置、步态识别方法及装置、电子设备和计算机可读存储介质
US10360439B2 (en) Apparatus, system, method and computer program product for recognizing face
JP5743859B2 (ja) 画像処理装置、方法、及び画像表示装置
Barnich et al. Frontal-view gait recognition by intra-and inter-frame rectangle size distribution
CN103839277A (zh) 一种户外大范围自然场景的移动增强现实注册方法
JP2007142527A (ja) 移動体監視システム、移動体特徴量算出装置およびカメラ間移動体照合追跡装置
JP2001147110A (ja) ランダムパターン生成装置とその方法、距離画像生成装置とその方法、およびプログラム提供媒体
JP2008288684A (ja) 人物検出装置及びプログラム
JP5047658B2 (ja) カメラ装置
JP2010039617A (ja) 対象物追跡装置及びプログラム
JP2007241725A (ja) データ取得装置
Heng et al. Harmonic adversarial attack method
Lu et al. Flash: Video-embeddable ar anchors for live events
JP2005092451A (ja) 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP2008203991A (ja) 画像処理装置
JP6276504B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
KR102085034B1 (ko) 영상의 전경과 배경을 분리하여 전경영상을 검출하는 방법 및 장치
CN113808070A (zh) 一种双目数字散斑图像相关的视差测量方法