JP4613994B2 - 動態推定装置、動態推定方法、プログラム - Google Patents

動態推定装置、動態推定方法、プログラム Download PDF

Info

Publication number
JP4613994B2
JP4613994B2 JP2008236381A JP2008236381A JP4613994B2 JP 4613994 B2 JP4613994 B2 JP 4613994B2 JP 2008236381 A JP2008236381 A JP 2008236381A JP 2008236381 A JP2008236381 A JP 2008236381A JP 4613994 B2 JP4613994 B2 JP 4613994B2
Authority
JP
Japan
Prior art keywords
control point
color information
point color
initial
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008236381A
Other languages
English (en)
Other versions
JP2010072694A (ja
Inventor
玉宇 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008236381A priority Critical patent/JP4613994B2/ja
Priority to US12/554,041 priority patent/US20100066737A1/en
Priority to CN200910176217A priority patent/CN101676952A/zh
Publication of JP2010072694A publication Critical patent/JP2010072694A/ja
Application granted granted Critical
Publication of JP4613994B2 publication Critical patent/JP4613994B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、例えば観測画像を利用して三次元物体の動態を推定する動態推定装置とその方法に関する。また、このような動態推定装置が実行するプログラムに関する。
例えば、三次元物体とその観測画像とのマッチングを実行しながら、三次元物体についての位置や動きを推定する、動態推定のための手法がこれまでに多く提案されている。
上記動態推定手法のうちの1つとして、物体の位置変化であるとか運動による外観の変化を画像のアフィン変換で記述し、アフィン変換のパラメータを推定するというものが知られている。
しかし、アフィン変換は、三次元物体が剛体でなければならないという制限があるほか、三次元パラメータからアフィン変換のパラメータへの計算が複雑であり、隠蔽への対応も不可能とされている。
そこで動態推定のための他の手法として、特許文献1、非特許文献1などの技術が提案されてきている。
特許文献1には、被写体画像から切り出した被写体画像に基づいて被写体に類似する標準三次元形状モデルの形状を修正する、という構成が記載されている。
また、非特許文献1には、画像上で人のシルエットを抽出するとともに、モデルに設定したサンプルポイントを撮影された画像上で取得し、この取得したサンプルポイントの位置が上記シルエット内に位置するか否かについてのマッチング処理を行うようにした構成が記載されている。
上記のようにして三次元のモデルに対して設定するサンプルポイント(三次元制御点)は、全ての物体運動を記述することが可能とされ、各制御点が隠蔽されているか否かに応じてマッチング法の適用を変えるようなことも可能とされている。
特開2000−194859号公報 J. Deutscher, A. Blake, and I. Reid. "Articulated Body Motion Capture by Annealed Particle Filtering", In Proc. CVPR, 2:126-133, 2000.
本願発明としても、三次元物体を対象とする動態推定の手法として、これまでに提案されているものと比較して、より高い性能が得られるようにすることを目的とする。
そこで本発明は上記した課題を考慮して、動態推定装置として次のように構成する。
つまり、三次元物体モデルに対して複数の制御点を設定する制御点設定手段と、三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手段と、制御点色情報取得手段により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手段と、現時刻における制御点ごとの位置を推定する制御点位置推定手段と、この制御点位置推定手段によりその位置が推定された上記制御点を、現時刻の被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手段と、現制御点色情報と初期制御点色情報とを利用して尤度を算出する尤度算出手段とを備え、上記制御点設定手段は、一配列方向における上記射影位置間の距離が等しくなるようにして、三次元物体モデルの表面上で制御点を配置することとした。
上記構成では、三次元物体モデルに対して制御点を設定することとしたうえで、この制御点ごとの色を示す制御点色情報を得ることができる。そのうえで、先ず、初期設定値としての制御点ごとの色を示す初期制御点色情報を保持するようにされる。動態推定処理に際しては、時間経過に応じて変化し得る制御点の位置を推定し、推定した制御点を画像に射影したときの画像上での制御点の色を示す現制御点色情報を得る。そして、初期制御点色情報を仮定の情報として扱い、現制御点色情報を観測値として扱って尤度を求める。
上記のようにして本願発明においては、制御点の位置に依るのみではなく、その色情報も用いて動態推定が行えるものであり、これにより、例えば制御点の色情報を用いない動態推定と比較して、より高い性能が期待されることになる。
図1は、本願発明を実施するための最良の形態(以下、実施の形態という)としての動態推定装置に対応する、動態推定システムの構成例を示すブロック図である。
本実施形態の動態推定システムは、図示するようにして、制御点設定部11(制御点設定手段)、制御点初期色登録部12(初期制御点色情報保持手段)、及び制御点移動処理部13(制御点位置推定手段)、移動制御点色取得部14(現制御点色情報取得手段)、制御点色抽出部15(制御点色情報取得手段)、及び尤度算出部16(尤度算出手段)から成る。
制御点設定部11は、動態推定処理のための初期設定の1つとして、動態推定の対象であって三次元物体をモデル化したもの(三次元物体モデル)に対して、制御点(三次元制御点)を設定する処理を実行する。この制御点設定部11による制御点設定の仕方について、図2〜図5を参照して説明する。
先ず、図2(a)においては、動態推定の対象としての三次元物体モデル20が斜視図により示されている。なお、ここでの三次元物体モデル20は、テーパー状の円錐形状としている。
制御点Dtは、このようにして或る特定の形状を有する三次元物体モデル20の表面上において、均一性が与えられるような位置関係でもって、必要数を貼り付けるようにして設定すべきものとなる。
ここで、制御点Dtについて、上記均一性を与えるためには、例えば制御点Dtをマトリクス状に配列することとしたうえで、1行ごと、及び1列ごとに、隣り合う制御点Dt間の距離が等しくなるようにして設定する、という手法がこれまでにおいてしばしば用いられている。
例えば図2(a)の場合であれば、先ず、縦方向に対応する、5つの制御点Dtから成る各列においては、隣り合う制御点Dt間の距離について、それぞれAで等しくなるように設定する。
また、横方向に対応する、7つの制御点Dtから成る各行についても、隣り合う制御点Dt間の距離について、それぞれ、B1〜B5で等しくなるように設定する。ただし、この場合の三次元物体モデル20は、上方向から下方向にかけて小さくなっていくテーパー状の円錐形状とされているので、一番上の行における制御点Dt間の距離Bが最も大きくなり、以降、下の行となるのにつれて、制御点Dt間の距離は小さくなっていき、最も下の行における制御点Dt間の距離Cが最も小さくなる。
しかし、上記のようにして、三次元物体モデル20の表面上で、隣り合う制御点Dt間の距離が等しくなるようにして制御点の設定を行った場合、その三次元物体モデル20を画像として射影した際には、均一性が大きく損なわれる。
具体例として、図2(b)には、三次元物体モデル20を平面方向から見たときに或る1つの行を成す7つの制御点Dtを示している。これら制御点Dtについて、上記のようにして隣り合う制御点Dt間を距離B(図2(a)のB1〜B5のいずれかに相当する)で等しくなるように設定した場合において、これを側面方向から見た場合には、距離P1〜P6のようにして示すように、隣り合う制御点Dt間の距離が、その位置によって異なるものとなる。これは、三次元物体モデル20を射影変換して得られる画像上においては、設定された制御点Dt間の距離が、上記距離P1〜P6の大小関係を有するようにして、異なってしまうことを示している。
本実施形態の動態推定システムは、後述するようにして動態推定を行うのにあたり、三次元物体モデル20が時間経過に応じて動く画像を観測画像として利用する。このように観測画像を利用することとしたうえで、本実施形態のようにして三次元物体モデルに対して制御点を設定する場合、より高い推定精度を得るためには、画像に射影変換されたときに制御点が均一に配置される状態となっていることのほうが好ましい。
そこで、本実施形態では、次のようにして制御点を設定することとした。
本実施形態における制御点の設定に際しては、先ず、図3に示すようにして、三次元物体モデル20を撮像装置30により撮像している状態を想定する。
図4(a)(b)は、上記図3のようにして撮像装置30により三次元物体モデル20を撮像している状態を、それぞれ、側面方向と平面方向より見た状態に対応する。
撮像装置30においては、撮像により得られた像光が到達する像光面30aが形成される。この像光面30aは、例えば撮像素子を備える撮像装置の場合であれば、この撮像素子における受光面が対応する。
そのうえで、この撮像面30aに平行であって、三次元物体モデル20を切断する面(モデル切断面)を想定する。図4(a)(b)において、一点鎖線M1は、撮像面30aに沿った面を示すもので、一点鎖線M2は、上記一点鎖線M1に対応する面(即ち撮像面30a)に平行なモデル切断面を示す。
そして、上記一点鎖線M2に対応する切断面により三次元物体モデル20を切断したとする場合において、その面積(断面積)が最も大きくなる三次元物体モデル20の断面を、基準断面として得る。
ここでの三次元物体モデル20は、平面部が真円のテーパー状の円錐形状であることとしている。従って、三次元物体モデル20の断面として最も面積が大きくなるのは、図4(b)に示されるようにして、切断面、即ち一点鎖線M2について、三次元物体モデル20の平面上において、その円形状の半径を通過させたときとなる。
図5(a)は、上記のようにして得られた三次元物体モデル20についての基準断面21を示している。
また、図5(b)は、上記基準断面21とともに、三次元物体モデル20を平面より示している。
本実施形態においては、この図5(b)に示すようにして、基準断面21に対応する線分(基準線21a)について、1行分の制御点Dtの数に応じて等分する。この場合には、1行分の制御点Dtの数を7としているので、基準線21aを6等分することになる。ここでは、基準線21aを等分して得られる長さをLで示している。
次に、基準線21aの両端と、その間の5つの等分点を通過し、かつ、基準線21aと直交する直線V1〜V7を想定することとして、これら直線V1〜V7と、三次元物体モデル20の表面と交差する位置に対して、それぞれ制御点Dtを設定する。この1行分の制御点設定を、各行ごとに行うようにする。また、実際の三次元物体モデル20の形状に応じては、列方向においても、同様の手順で制御点を設定する。
このようにして制御点Dtを設定した場合、1つの行若しくは列としての一配列方向において隣り合う制御点間の距離は、制御点の位置により異なるものとなる。しかし、基準断面21と平行な面に対して制御点Dtを射影して二次元平面に置換したときには、一配列方向において隣り合う制御点Dt間の距離を同じとすることができる。つまり、図5(b)において示される距離P1〜P6は、基準線21aを等分して得られる長さLに対応して等しいものとなる。
このことは、図5(b)において白抜きの矢印で示す方向(撮像方向)より撮像したとする場合、撮像装置30により撮像して得られる画像上では、隣り合う制御点Dt(射影点)間の距離が等しくなっている、即ち均等になっている状態が得られることになる。
このようにして、本実施形態では、制御点設定部11により上記のようにして制御点を設定する。これにより、観測画像上で見える制御点は、例えば図2にて説明したように三次元物体モデル20の表面上で等距離に制御点を配置する場合と比較すると、より均一に配置された状態を得ることができる。
制御点設定部11では、推定対象である三次元物体モデル20が被写体として存在する画像、即ち、例えば図3のようにして三次元物体モデル20としての実体を被写体として撮像装置30により撮像して得られる画像(画像データである)を、初期設定用画像(初期設定用の被写体画像)として入力する。なお、この初期設定用画像では、三次元物体モデル20としての実体は、制御点設定に適切とされる方向を撮像装置30に向けたとする位置状態で動かないように固定させておくようにする。従って、初期設定用画像については、三次元物体モデル20を撮像して得られる静止画としての画像データを利用することとしてもよい。
そのうえで、制御点設定部11は、取り込んだ画像データにおける三次元物体モデル20の画像に対して、先に、図3〜図5にて説明した手法に従って、必要数の制御点を設定する。
例えばこの際には、撮像装置30から被写体である三次元物体モデル20までの距離をはじめ、撮像装置30における画角(ズーム倍率)その他の撮像に関連するパラメータについては予め定めておくことで既知となるようにしている。従って、これらの既知のパラメータを利用することで、撮像画像上での制御点が射影される位置は求められる。
上記のようにして制御点設定部11により設定された制御点の例を図6に模式的に示す。
ここでは先ず、図6(a)においては、撮像装置30により撮像して得られた撮像画像データの画像、即ち撮像画像40として、三次元物体モデル20の実体が被写体として写されている画内容が示されている。ここでの三次元物体モデル20の実体は人とされたうえで、この人を正面から撮像している。
そして、例えばこの場合には、この三次元物体モデル20の実体である人の胴体部分を、三次元物体モデル20に対応させることとして、先の図3〜図5により説明した手法に従って、撮像画像40上での配置位置を決定した制御点を設定する。このようにして三次元物体モデル20に対して設定した制御点のパターン例が図6(b)に示される。
図6(b)に示される制御点Dtの配列パターンは、例えば縦方向においては上から下にかけて行r1〜r5が配列され、横方向においては左から右にかけて行c1〜c7が配列されるものとなっている。つまり、5行×7列により計35個がマトリクス状に配列されているものである。
初期設定処理として、上記のようにして制御点設定部11により撮像画像上での制御点についての設定を行った後は、制御点初期色登録部12によって、制御点ごとの初期色の情報を、初期設定情報として登録する処理を行う。
このためには、制御点初期色登録部12が、制御点設定部11により設定された制御点ごとの色情報を取得する必要があるが、この制御点ごとの色情報の取得は、制御点色抽出部15が実行する。
この場合の制御点色抽出部15は、初期設定画像から、制御点設定部11により制御点が設定された位置ごとの色情報を抽出する。このようにして抽出された色情報が抽出された制御点ごとの初期色の情報となる。
そこで制御点初期色登録部12は、初期設定情報として、制御点設定部11により設定された制御点ごとの初期色情報を登録する処理を行う。
本実施形態において、制御点ごとの色情報は、模式的には、図7に示されるようなテンプレート形式であるものとする。ここでは、このテンプレート形式による制御点ごとの色情報について、制御点色テンプレートともいうことにする。
図7に示される制御点色テンプレートは、図6(b)に示した制御点の設定に応じたものとなっている。
図7においては、図6(b)に示した制御点の配列パターンに応じた、行r1〜r5と列c1〜c7による35個のマスがマトリクス状に配列されている。これらのマスの各々が、図6(b)において配列される個々の制御点の色情報に対応することになる。
なお、各マス(色情報)ごとに対応して付されている1〜35のサンプル番号については後述する。
そして、例えば制御点色テンプレートとして、初期色情報に対応するものを作成する場合には、図6(b)の各マスに対応させて、制御点色抽出部15により抽出した制御点ごとの初期色情報を設定すればよい。
図1との対応では、上記初期色情報に対応する制御点色テンプレートのデータは、制御点色抽出部15が生成するものとしてもよいし、制御点初期色登録部12が、制御点色抽出部15から受け取ったとする制御点ごとに対応した色情報を利用して生成するものとしてもよい。いずれにせよ、制御点初期色登録部12は、初期色情報に対応する制御点色テンプレート(初期制御点色情報)を取得することになる。
なお、以降においては、初期色情報に対応する制御点色テンプレートは、「初期テンプレート」ともいう。
そして、制御点初期色登録部12は、上記のようにして取得した初期テンプレートのデータを初期設定情報として登録する、即ち、所定の記憶領域にて保持させる。なお、実際において、上記記憶領域は、例えばRAMやフラッシュメモリなどの記憶装置となる。
上記した初期設定処理、即ち初期テンプレートを登録する処理を実行したとされると、動態推定システム1は、以降説明するようにして、三次元物体モデル20を撮像して得られる動画像の画像データを観測値として利用して、三次元物体モデル20についての三次元空間における動態推定処理を実行することができる。
図8は、本実施形態における動態推定の概念を模式的に示すものとして、現実の三次元空間内の三次元物体モデル20と、撮像画像40における射影画像としての三次元物体モデル(射影モデル画像)との関係が示される。
ここで、例えば前時刻t-1において、現実の空間内において或る姿勢状態、位置状態にあるとされた三次元物体モデル20(t-1)を撮像装置30により撮像したことで、撮像画像40にて存在する三次元物体モデル20の画像である射影モデル画像20A(t-1)が図のようなものであったとする。
そして、この三次元物体モデル20が移動をしていることで、現時刻t−1に至ったときには、
前時刻t-1に対応する三次元物体モデル20(t−1)の位置から、三次元物体モデル20(t)として示される位置姿勢に変化していたとする。これに応じて、撮像画像40においても、前時刻t−1において存在していた射影モデル画像20A(t-1)は、現時刻tに至って、射影モデル画像20A(t)として示されるようにして移動、変化する。
本実施形態における動態推定処理は、このような現実の物体移動に応じて、三次元物体モデルの動態を推定しようというものである。
本実施形態の動態推定処理は、先に説明した三次元物体モデル20に対する制御点の設定と、初期テンプレート登録のための初期設定が行われていることを前提とした上で、主として制御点移動処理部13、移動制御点色取得部14、制御点色抽出部15、及び尤度算出部16が下記の処理を実行することにより実現される。
上記図8の説明のようにして三次元物体モデル20が移動することに応じては、先の説明のようにして三次元物体モデル20に設定した制御点も移動することになる。
制御点移動処理部13は、三次元物体モデル20の移動に応じて設定された制御点Dtを移動させる処理、即ち、現時刻tにおける制御点Dtごとの位置を推定して追跡する処理を実行する。
上記の追跡処理のアルゴリズムの一例として、パーティクルフィルタを応用したアルゴリズムを適用した場合には、制御点移動処理部13は、例えば次のような手順による処理を実行すればよい。
先ず、制御点移動処理部13は、後述の尤度算出部16から出力される尤度情報を取り込む。この尤度情報は、前時刻t-1に対応して得られたものとして扱われる。また、制御点移動処理部13は、現時刻tに対応して得られたとされる観測画像としての画像データ(撮像画像40に対応する)を取り込む。そして、決定された前時刻t-1におけるパーティクルの重みに基づいてパーティクルの選択を行う。次に、これらの選択されたパーティクルについて、例えば等速運動モデルなどを用いて、現時刻tにおける位置の予測を行う。そして、制御点移動処理部13としては、このようにして得られた予測結果に基づいて、現時刻tにおける制御点Dtごとについての三次元空間上での位置を推定する。
なお、制御点移動処理部13による制御点移動のための処理、即ち、制御点の位置推定のためのアルゴリズムとしては、上記パーティクルフィルタをはじめ、これまでに知られている各種の物体追跡、姿勢追跡(姿勢推定)などといわれる処理のためのアルゴリズムを採用することができるものであり、特に限定されるべきではない。
上記のようにして制御点移動処理部13によって、現時刻tにおける制御点位置が設定(推定)されたことに応じては、移動制御点色設定部14により、現時刻tにおいて新たに得られたとされる制御点ごとの色情報を取得する。この色情報についても、先の初期色情報の場合と同様、制御点色テンプレートとして取得する。
なお、以降において、この現時刻tにおける制御点ごとの色情報から成る制御点色テンプレートについては「現テンプレート」ともいうことにして、先の初期色情報を有する制御点色テンプレートである「初期テンプレート」と区別する。
そして、上記現テンプレートを得るのにあたっても、初期テンプレートの場合と同様に、制御点色抽出部15によって、現時刻tの画像データから制御点ごとの色情報を抽出する処理を行う。
つまり、この場合の制御点色抽出部15は、現時刻tにおいて得られる観測画像(撮像画像40)上に、制御点移動処理部13により推定された現時刻tの制御点Dtを射影させる。これにより、現時刻tの観測画像上において、現時刻tに対応して推定された制御点ごとに、画像内の位置が設定されることになる。そこで、制御点色抽出部15は、現時刻tの観測画像において、制御点が設定されているとする位置において表現されている色を示す色情報を抽出する。
ただし、現実においては、観測画像において制御点が射影されたとする点(射影点)のパターンについて、観測画像を形成する画素のグリッドと一致しない状態が発生し得る。つまり、撮像画像40上において、隣接する射影点の距離が、1画素分よりも大きくなったり、小さくなったりする状態が生じ得る。
例えば、上記射影点の距離が1画素分よりも小さくなるときには補間技術により画像データを取り出すことはできる。しかし、上記射影点の距離が1画素分よりも大きくなるときにおいて、単純に、観測画像において射影点に対応する画素からそのまま色情報を抽出したとすると、観測画像の画像データよりも低いサンプリング周波数によって画像データのリサンプリングを実行することと等価の処理を実行することになる。この場合において、例えばサンプリング周波数が一定以下となると、色情報抽出に対応したサンプリングのデータについて、エリアシングに相当するノイズが発生してしまう。
これを回避するための対策として、1つには、次のような手法が考えられる。
つまり、隣接する射影点間の距離が一定以上の場合には、これらの射影点間に対応するとされる境界線を求め、この境界線で括られた画像領域を射影点ごとに対応させる。そして、この画像領域ごとに、そこに含まれる画素ごとの平均値を算出し、この平均値を、射影点に対応する制御点ごとの色情報とするものである。また、隣接する射影点間の距離が一定未満であれば、射影点に対応して得られる画素の補間値を求めて、これを色情報とする。
しかし、上記の手法は、例えば境界線を求めるための計算が複雑であるために高速処理の点では不利となる。
そこで、本実施形態では、制御点色抽出部15における色情報の抽出処理として、次のような手法を採用する。
先ず、制御点色抽出部15では、図9に示すようにして、現時刻tの観測画像(撮像画像40)の画像データ(観測画像データ)を基として、第1層〜第n層までの色抽出のための画像を生成可能に構成する。
ここで、第1層画像は、現時刻tの観測画像データについて、水平・垂直画素数=a×aを最小単位とする解像度でリサンプリングして得られる画像となる。ここでa=1であるとすると、第1層画像は、現時刻tの観測画像データと同じものになる。
また、第2層画像は、現時刻tの観測画像データについて、水平・垂直画素数=2a×2aを最小単位とする解像度でリサンプリングして得られる画像となる。これに準じて、例えば第3層画像〜第n層画像までは、それぞれ、水平・垂直画素数=3a×3a〜an×anを最小単位とする解像度でリサンプリングして得られる画像となる。従って、第1層画像〜第n層画像は、現時刻tの観測画像データを基として、段階的に解像度が低くなる画像となる。
そのうえで、制御点色抽出部15は、観測画像上において設定された1つの射影点(対象射影点)に対応する色情報を抽出するのにあたって、この対象射影点と隣接する射影点ごとの各距離を求め、求めた距離のうちで最小となる距離(対象射影点対応最小距離)を選択する。この選択された対象射影点対応最小距離について、ここではdとする。
そして、この対象射影点対応最小距離dを切り捨てて整数化した値(ここではd1と表記する)に対応する第d1層画像と、対象射影点最小距離dを切り上げて整数化した値(ここではd2と表記する)に対応する第d2層画像との2つの層画像から対象射影点に対応する画素をリサンプリングし、これらのリサンプリングした画素値を線型補間して得られる値を、最終的な対象射影点に対応する制御点の色情報(対象制御点色情報)として求める。このようにして色情報を求めるにあたっての計算式の具体例を、下記の(数1)に示す。

Figure 0004613994
上記のようにして対象制御点色情報ごとの色情報を求めるようにすれば、射影点間距離に応じた、撮像画像40として原画像よりも低いサンプリング周波数によりサンプリングされた画像から画素をリサンプリングすることと等価の処理が行われることになる。これにより、エリアシングノイズが生じることはなくなる。そのうえで、例えば、画像データから射影点ごとに対応した境界線を求めるような複雑な処理も不要であることから、軽い処理で高速に制御点ごとの色情報を抽出できる。
そして、移動制御点色取得部14は、上記のようにして抽出された制御点(射影点)ごとの色情報に基づいて生成された、図7に示した模式構造を有する現テンプレートのデータを取得する。なお、この場合においても、現テンプレートのデータの生成処理は、制御点色抽出部15が実行することとしてもよいし、移動制御点色取得部14が実行することとしてもよい。
なお、上記図9により説明した、制御点色抽出部15による対象制御点色情報ごとの色情報の求め方(制御点色抽出処理)は、制御点初期色登録部12が登録する初期テンプレートのために、制御点ごとの初期色を抽出する際にも適用する。
上記のようにして、これまでの処理によっては、移動制御点色取得部14において、現テンプレート、即ち、現時刻tに対応する制御点色テンプレートのデータが得られていることになる。
そこで、次の処理としては、尤度算出部16により、制御点初期色登録部12にて得た初期テンプレート(仮定)のデータと、移動制御点色取得部14にて得た現テンプレート(観測値)のデータとを利用してのマッチング処理を実行することによって、制御点についての尤度を算出する。
本実施形態においては、尤度算出部16として、初期テンプレートと現テンプレートとの正規化相関値、及び色ヒストグラムの距離の情報を併用して尤度を求めるように、そのアルゴリズムを構成する。
先ず、正規化相関値については、下記の(数2)により求める。

Figure 0004613994
なお、上記(数2)において、変数iは、初期テンプレート、現テンプレートのそれぞれにおける、制御点ごとの色情報に対応させたサンプル番号を示す。このサンプル番号は、例えば、図7に示す順序により制御点ごとに対応させて付すことができる。
また、色ヒストグラムの距離については、次のようにして求める。
先ず、初期テンプレート、現テンプレートのそれぞれについて、各制御点に対応する色情報をHSI空間に変換し、H(色相)、S(彩度)、I(輝度)の成分ごとに量子化する。H(色相)及びS(彩度)については3ビットにより8段階での量子化を行い、I(輝度)については2ビットの4段階により量子化を行う。
そのうえで、これらの量子化されたH(色相)、S(彩度)、I(輝度)の値(量子化値)を利用して、制御点ごとに、色ヒストグラムの索引(Index:インデックス)を、下記の(数3)により求める。例えば図6、図7での例に対応させれば、この色ヒストグラムの索引(Index)は、初期テンプレートと現テンプレートとで、それぞれ35個が求められることになる。

Figure 0004613994
なお、上記(数3)において、H(色相)、S(彩度)、I(輝度)に設定した係数は、それぞれ32、4、1となっている。これは、色ヒストグラムの観点では、色の違いを弁別する際の重要度が、H(色相)、S(彩度)、I(輝度)の順となることに基づいている。なお、ここで設定されている係数はあくまでも一例であり、実際に得られる尤度の精度などを考慮して適宜変更されてよい。
また、色ヒストグラムについては、全部で260次元(260bin)を用意することとした。
その理由として、先ず、基本的には、H(色相)、S(彩度)、I(輝度)の量子化ビット数がそれぞれ3ビット、3ビット、2ビットであって、計8ビットとなるので、(数2)に基づいて求められる索引としては10進法表記では0〜255までの256通りの値を採り得る。そこで、これに対応させて、色ヒストグラムとしては、先ず、256次元が必要であることとした。
ただし、グレースケールの場合には、H(色相)、S(彩度)の値は不安定になる。そこで、色情報としてグレーであると判定された場合、その制御点については、(数3)を適用せずに、上記数I(輝度)の量子化値のみを採用することとした。そして、この数I(輝度)の量子化値のみを採用した場合に対応させて、上記256次元に加えて4つの次元(bin)を追加することとした。このようにして、色ヒストグラムとしては260次元となる。
なお、制御点ごとの色情報について、これがグレースケールであるか否かについては、その色情報として示されるR(赤),G(緑),B(青)の値の差が同じであるとみなされる程度の一定範囲に収まっているか否かに基づいて判定することができる。
そして、現テンプレートと初期テンプレートとのそれぞれについて、先の(数3)により求めた色ヒストグラムの索引(Index)ごとに、上記のようにして規定した色ヒストグラムにおいて、該当する値の次元(bin)に対して入れていく(投票する)。この結果、現テンプレートと初期テンプレートとのそれぞれに対応する色ヒストグラムが形成されることになる。
なお、初期テンプレートについては、初期設定時において登録された色情報の値で固定されるので、逐一、色ヒストグラムを作成しなくとも、予め作成しておいて、初期設定情報として保持しておくようにしてもよい。この場合、尤度算出部16は、初期テンプレートの色ヒストグラムが必要な際には、この初期設定情報として保持されている初期テンプレートの色ヒストグラムのデータを取得すればよい。
上記のようにして、現テンプレートの色ヒストグラムと、初期テンプレートの色ヒストグラムとを得たとされると、尤度算出部16は、両者の色ヒストグラム間の距離(類似度)を求める。この色ヒストグラムの距離は、Bhattacharyya(バタチャヤ)係数として、(数4)により求めることができる。

Figure 0004613994
そして、尤度算出部16は、最終的な尤度については、上記(数2)、(数3)により求めた正規化相関値と色ヒストグラム間の距離(Bhattacharyya係数)を用いて、(数5)により求める。

Figure 0004613994
なお、(数5)における調整係数λ,γについては、実際に算出される尤度などの精度を考慮して調整されるべきものとなる。
また、尤度算出部16が実行する、初期テンプレートと現テンプレートとを利用しての尤度算出のためのアルゴリズムは他にも考えられるが、本願発明者は、試行の結果、上記した正規化相関に基づく尤度算出アルゴリズム、及び色ヒストグラムに基づく尤度算出アルゴリズムが有効であることを確認した。そこで、本実施形態としては、これらの2つのアルゴリズムを併用して統合することで、最終的な尤度を求めるように構成したものである。
例えば非特許文献1においても、モデルに対して、本実施形態の制御点に相当し得るpixel map sampling pointsを設定することが記載されている。しかし、非特許文献1においては、このpixel map sampling pointsが、画像内におけるモデルのシルエットに含まれる状態に基づき尤度を求めるようにされている。
これに対して、本実施形態では、制御点に対して色を設定することとしたので、最終的な尤度を求めるのにあたっては、仮定と観測値とで、それぞれ制御点ごとの色情報を用いることが可能とされている。これにより、例えば色情報を持たずに、単位制御点の位置とシルエットとを比較する構成よりも的確に尤度を求めることが可能になり、より高い推定精度を得ることが期待できる。
ところで、これまでに説明してきた本実施形態としての動態推定のための処理、即ち、動体推定システム1は、図1に示した機能構成に対応して形成したハードウェアにより実現できる。また、図1に示した機能構成に対応する処理を実行させるプログラムを記述したソフトウェアにより実現することもできる。また、このようなハードウェアとソフトウェアを組み合わせて併用することもできる。
そして、本実施形態の動態推定のために必要な処理の少なくとも一部をソフトウェアにより実現するのにあたっては、そのソフトウェアを構成するプログラムを、動態推定システムとしてのハードウェア資源であるコンピュータ装置(CPU)に実行させることになる。あるいは、汎用のパーソナルコンピュータなどのコンピュータ装置にプログラムを実行させることで、コンピュータ装置に対して、動態推定のために必要な処理を実行する機能を与えるようにされる。
ここで、図10により、本実施形態の動態推定システムに対応するプログラムを実行可能な装置として、コンピュータ装置(情報処理装置)についての構成例を示しておく。
このコンピュータ装置200において、CPU(Central Processing Unit)201,ROM(Read Only Memory)202,RAM(Random Access Memory)203は、バス204により相互に接続されている。
バス204には、さらに、入出力インタフェース205が接続されている。
入出力インタフェース205には、入力部206、出力部207、記憶部208、通信部209、ドライブ210が接続されている。
入力部206は、キーボード、マウスなどの操作入力デバイスなどよりなる。
また、この場合の入力部20は、本実施形態の動態推定システムとの対応で、例えば、撮像装置30から出力される画像信号を入力できるようになっている。
出力部207は、ディスプレイ、スピーカなどよりなる。
記憶部208は、ハードディスクや不揮発性メモリなどよりなる。
通信部209は、ネットワークインタフェースなどよりなる。
ドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどとしての記録媒体211を駆動する。
以上のように構成されるコンピュータ装置200では、CPU201が、例えば、記憶部208に記憶されているプログラムを、入出力インタフェース205およびバス204を介して、RAM203にロードして実行することにより、上述した一連の処理が行われる。
CPU201が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアである記録媒体211に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、記録媒体211をドライブ210に装着することにより、入出力インタフェース205を介して、記憶部208にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部209で受信し、記憶部208にインストールすることができる。その他、プログラムは、ROM202や記憶部208に、あらかじめインストールしておくことができる。
また、コンピュータ装置200が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
本発明の実施の形態としての動態推定システムの構成例を示すブロック図である。 三次元制御点の設定手法として一般的な手法を例示するための図である。 本実施形態における三次元制御点の設定手法を説明するための図である。 本実施形態における三次元制御点の設定手法を説明するための図である。 本実施形態における三次元制御点の設定手法を説明するための図である。 本実施形態において設定された三次元制御点の例を示す図である。 制御色テンプレートの構造例を示す図である。 現実の三次元空間における三次元物体モデルと、撮像画像に射影される三次元物体モデルとの関係を示す図である。 本実施形態の制御点色抽出処理において生成される階層画像を模式的に示す図である。 コンピュータ装置の構成例を示すブロック図である。
符号の説明
1 動態推定システム、11 制御点設定部、12 制御点初期色登録部、13 制御点移動処理部、14 位相制御点色取得部、15 制御点色抽出部、16 尤度算出部、20 三次元物体モデル、30 撮像装置、40 撮像画像、200 コンピュータ装置、201 CPU、202 ROM、203 RAM、204 バス、205 入出力インターフェース、206 入力部、207 出力部、208 記憶部、209 通信部、210 ドライブ、211 記録媒体、Dt 制御点

Claims (4)

  1. 三次元物体モデルに対して複数の制御点を設定する制御点設定手段と、
    上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手段と、
    上記制御点色情報取得手段により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手段と、
    現時刻における上記制御点ごとの位置を推定する制御点位置推定手段と、
    上記制御点位置推定手段によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手段と、
    上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手段と、
    を備え
    上記制御点設定手段は、
    一配列方向における上記射影位置間の距離が等しくなるようにして、三次元物体モデルの表面上で制御点を配置する、
    動態推定装置。
  2. 上記制御点色情報取得手段は、
    隣り合う制御点間の距離に応じて設定された画素数より成る最小サンプル単位により上記被写体画像をリサンプリングして得られるリサンプル画像における、上記射影点に対応する位置の画素値を利用して、上記制御点色情報を取得する、
    請求項1記載の動態推定装置。
  3. 三次元物体モデルに対して複数の制御点を設定する制御点設定手順と、
    上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手順と、
    上記制御点色情報取得手順により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手順と、
    現時刻における上記制御点ごとの位置を推定する制御点位置推定手順と、
    上記制御点位置推定手順によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手順と、
    上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手順と、
    を実行し、
    上記制御点設定手順は、
    一配列方向における上記射影位置間の距離が等しくなるようにして、三次元物体モデルの表面上で制御点を配置する、
    動態推定方法。
  4. 三次元物体モデルに対して複数の制御点を設定する制御点設定手順と、
    上記三次元物体モデルに対応する実体を被写体とする被写体画像に対して射影したときに、この被写体画像上に射影されたとする上記制御点の位置である射影位置ごとに対応する色を示す情報である、制御点色情報を取得する制御点色情報取得手順と、
    上記制御点色情報取得手順により初期設定用の上記被写体画像から取得させた制御点色情報を、初期制御点色情報として保持させる初期制御点色情報保持手順と、
    現時刻における上記制御点ごとの位置を推定する制御点位置推定手順と、
    上記制御点位置推定手順によりその位置が推定された上記制御点を、現時刻の上記被写体画像に射影したとするときの現制御点色情報を取得する、現制御点色情報取得手順と、
    上記現制御点色情報と上記初期制御点色情報とを利用して、尤度を算出する尤度算出手順と、
    を動態推定装置に実行させ
    さらに、上記制御点設定手順は、
    一配列方向における上記射影位置間の距離が等しくなるようにして、三次元物体モデルの表面上で制御点を配置する、
    プログラム。
JP2008236381A 2008-09-16 2008-09-16 動態推定装置、動態推定方法、プログラム Expired - Fee Related JP4613994B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008236381A JP4613994B2 (ja) 2008-09-16 2008-09-16 動態推定装置、動態推定方法、プログラム
US12/554,041 US20100066737A1 (en) 2008-09-16 2009-09-04 Dynamic-state estimating apparatus, dynamic-state estimating method, and program
CN200910176217A CN101676952A (zh) 2008-09-16 2009-09-16 动态估计设备、动态估计方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008236381A JP4613994B2 (ja) 2008-09-16 2008-09-16 動態推定装置、動態推定方法、プログラム

Publications (2)

Publication Number Publication Date
JP2010072694A JP2010072694A (ja) 2010-04-02
JP4613994B2 true JP4613994B2 (ja) 2011-01-19

Family

ID=42006812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008236381A Expired - Fee Related JP4613994B2 (ja) 2008-09-16 2008-09-16 動態推定装置、動態推定方法、プログラム

Country Status (3)

Country Link
US (1) US20100066737A1 (ja)
JP (1) JP4613994B2 (ja)
CN (1) CN101676952A (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US20140307920A1 (en) * 2013-04-12 2014-10-16 David Holz Systems and methods for tracking occluded objects in three-dimensional space
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US9285893B2 (en) 2012-11-08 2016-03-15 Leap Motion, Inc. Object detection and tracking with variable-field illumination devices
US10609285B2 (en) 2013-01-07 2020-03-31 Ultrahaptics IP Two Limited Power consumption in motion-capture systems
US9626015B2 (en) 2013-01-08 2017-04-18 Leap Motion, Inc. Power consumption in motion-capture systems with audio and optical signals
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US10846942B1 (en) 2013-08-29 2020-11-24 Ultrahaptics IP Two Limited Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9613262B2 (en) 2014-01-15 2017-04-04 Leap Motion, Inc. Object detection and tracking for providing a virtual device experience
CN204480228U (zh) 2014-08-08 2015-07-15 厉动公司 运动感测和成像设备
US11080875B2 (en) * 2018-03-22 2021-08-03 Jvckenwood Corporation Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program
CN115129191B (zh) * 2021-03-26 2023-08-15 北京新氧科技有限公司 三维对象拾取方法、装置、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333690A (ja) * 2006-06-19 2007-12-27 Sony Corp モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003161B2 (en) * 2001-11-16 2006-02-21 Mitutoyo Corporation Systems and methods for boundary detection in images
JP4653606B2 (ja) * 2005-05-23 2011-03-16 株式会社東芝 画像認識装置、方法およびプログラム
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007333690A (ja) * 2006-06-19 2007-12-27 Sony Corp モーションキャプチャ装置及びモーションキャプチャ方法、並びにモーションキャプチャプログラム

Also Published As

Publication number Publication date
CN101676952A (zh) 2010-03-24
US20100066737A1 (en) 2010-03-18
JP2010072694A (ja) 2010-04-02

Similar Documents

Publication Publication Date Title
JP4613994B2 (ja) 動態推定装置、動態推定方法、プログラム
CN109753885B (zh) 一种目标检测方法、装置以及行人检测方法、系统
JP5555706B2 (ja) 高解像度映像獲得装置およびその方法
JP3944647B2 (ja) 物体計測装置、物体計測方法、およびプログラム
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
JP4340968B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
Wu et al. 6d-vnet: End-to-end 6-dof vehicle pose estimation from monocular rgb images
JP7058277B2 (ja) 再構成方法および再構成装置
NL2016542B1 (en) Spatial data analysis.
JP6577703B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
JP2013089252A (ja) 映像処理方法及び装置
JP6217635B2 (ja) 転倒検知装置および転倒検知方法、転倒検知カメラ、並びにコンピュータ・プログラム
JP2010113513A (ja) 画像処理装置、画像処理方法、プログラム
CN110246171B (zh) 一种实时单目视频深度估计方法
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及系统
KR20140024206A (ko) 입술 검출 및 추적을 위한 방법 및 장치
JP2009260671A (ja) 画像処理装置及び撮像装置
JP2012524920A (ja) トレーニング方法及び装置並びに画像における対象の姿勢視角を推定する方法及び装置
JP2016009448A (ja) 判定装置、判定方法及び判定プログラム
JP2013164643A (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN101231693A (zh) 由视频重建复原的面部图像的系统和方法
JP6717049B2 (ja) 画像解析装置、画像解析方法およびプログラム
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법
JP4675368B2 (ja) 物体位置推定装置、物体位置推定方法、物体位置推定プログラムおよびそのプログラムを記録した記録媒体
JPWO2018143277A1 (ja) 画像特徴量出力装置、画像認識装置、画像特徴量出力プログラム、及び画像認識プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100921

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees