JP5048381B2 - 三次元形状復元装置 - Google Patents

三次元形状復元装置 Download PDF

Info

Publication number
JP5048381B2
JP5048381B2 JP2007102914A JP2007102914A JP5048381B2 JP 5048381 B2 JP5048381 B2 JP 5048381B2 JP 2007102914 A JP2007102914 A JP 2007102914A JP 2007102914 A JP2007102914 A JP 2007102914A JP 5048381 B2 JP5048381 B2 JP 5048381B2
Authority
JP
Japan
Prior art keywords
matrix
distribution
shape
test
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007102914A
Other languages
English (en)
Other versions
JP2008261662A (ja
Inventor
幹郎 清水
直樹 深谷
誉司 坂東
智広 柴田
信 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007102914A priority Critical patent/JP5048381B2/ja
Priority to US11/906,557 priority patent/US8107735B2/en
Publication of JP2008261662A publication Critical patent/JP2008261662A/ja
Application granted granted Critical
Publication of JP5048381B2 publication Critical patent/JP5048381B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物体を撮影した画像(二次元形状)から、その対象物体の三次元形状を復元する三次元形状復元装置に関する。
従来より、対象物体を撮影した画像系列を入力し、対象物体について予め設定された複数の特徴点について、その特徴点の位置を画像面上で追跡し、追跡により得られた特徴点位置系列から対象物体の三次元形状を復元する手法の一つとして、因子分解法が知られている。
この因子分解法は、特徴点位置系列から観測行列を生成し、その観測行列を、対象物体の形状(特徴点の三次元位置)を表す形状行列と、対象物体の運動を表す運動行列とに因子分解するものである。
但し、因子分解法は、観測行列を構成するデータが全て揃っていないと、有効な結果が得られないため、特徴点の隠れ,誤追跡,フレームアウト等によって、特徴点位置系列(ひいては観測行列を構成するデータ)の欠損が頻繁に生じる実問題への適用は、非常に困難であるという問題があった。
これに対して、観測行列から欠損のあるデータを除去して、因子分解計算を実行する方法や、観測行列から欠損のあるデータを除いた部分観測行列を生成し、その部分観測行列を因子分解することで得られた形状行列および運動行列から欠損データを推定し、その推定値によって欠損データが置換された観測行列を用いて因子分解する方法(例えば、特許文献1参照)が提案されている。
特許第3711203号公報
しかし、従来の方法では、観測行列を生成する際に、正常なデータと異常なデータとを識別する必要があるが、その識別が難しいため、自動処理が困難であり、十分な精度が得られないという問題や、識別した異常なデータを除去したり、欠損データの推定を繰り返す手順等が必要となり、必要な演算量が増大するという問題があった。
また、従来の因子分解法では、三次元形状の推定精度を向上させるためには、計算に用いる画像系列を多くする(即ち、観測行列の次元を大きくする)必要があり、それに応じて、計算量(計算時間)が指数関数的に増大する。
そして、計算量が増大すると、三次元形状復元装置を車両に搭載する場合等のように、使用できる演算器の計算能力に制限がある場合には、適用することが困難になるという問題もあった。
本発明は、上記問題点を解決するために、三次元形状復元装置において、観測行列(特徴点位置系列)中に信頼性の低いデータが存在していても因子分解の実行を可能とすること、更には、計算時間を低減することを目的とする。
上記目的を達成するためになされた本発明の三次元形状復元装置では、観測行列生成手段が、対象物体を撮影した画像系列を入力し、対象物体について予め設定された複数の特徴点の位置を画像面上で追跡し、その特徴点の位置を時系列的に並べてなる観測行列を生成し、信頼性評価手段が、特徴点毎に、特徴点の位置の信頼性を表す位置信頼性評価値を生成する。
そして、分解手段が、観測行列生成手段にて生成された観測行列を因子分解して、対象物体の三次元形状を表す形状行列および対象物体の運動を表す運動行列を生成する。このとき、分解手段は、位置信頼性評価値の高い特徴点を重視した因子分解を行う。
つまり、本発明の三次元形状復元装置では、ノイズが重畳する等して信頼性の低い特徴点の除去を行わなくても、信頼性(位置信頼性評価値)の高い特徴点での当てはまりが良くなるように因子分解が行われる。
従って、本発明の三次元形状復元装置によれば、特徴点の隠れ,誤追跡,フレームアウト等に基づく信頼性の低いデータや観測行列中に存在していたとしても、これを除去するといった余計な手順を必要とすることなく、因子分解を確実に実行することができ、しかも信頼性の高いデータほど重視されるため、生成される形状行列や運動行列の精度を向上させることができる。
また、本発明において、分解手段は、観測行列をW,運動行列をM,形状行列をSとし、行列Xの各要素の値を確率的に示した分布をq(X)で表記するものとして、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、尤度P(W|M,S)を最大にする運動行列Mの試験分布q(M)および形状行列Sの試験分布q(S)を、形状行列の試験分布q(S)の分散に信頼性評価値を反映させた上で求めることにより、確率的に因子分解計算を実行するように構成されている。
このように構成された本発明の三次元形状復元装置によれば、運動行列Mや形状行列Sがベイズ推定によって確率的に求められることになるため、画像面上で追跡した特徴点の位置に重畳されているノイズの影響を、大幅に軽減することができると共に、形状行列の試験分布q(S)の分散に信頼性評価値が反映されるため、信頼性評価値の高い特徴点を重視した因子分解を実現することができる。
そして、このようにベイズ推定を用いた因子分解を行う場合、分解手段は、請求項2に記載のように、推定手段が、運動行列の試験分布q(M)を固定して形状行列の試験分布q(S)を推定する第1のステップ、及び、形状行列の試験分布q(S)を固定して運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて交互に繰り返し実行し、終了手段が、予め設定された終了条件が満たされている場合に、推定手段を終了させ、最終的に得られた形状行列の試験分布q(S)が形状行列の分布であるものとして、その形状行列の分布から形状行列を得るように構成されていてもよい。
この場合、分解手段は、変分ベイズ推定法を実現するものであり、第1のステップがEステップ、第2のステップがMステップに相当する。
但し、変分ベイズ推定法を用いても、計算に用いる画像系列の増加(即ち、観測行列の次元の増大)に応じて、計算量(計算時間)が指数関数的に増大することを避けることはできない。
そこで、分解手段は、請求項3に記載のように、推定手段が、観測行列生成手段にて観測行列が生成される毎に、運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、形状行列の試験分布q(S)を固定して運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて実行し、更新手段が、推定手段にて推定された形状行列の試験分布q(S)に基づいて、出力とする形状行列の分布を更新し、終了手段が、予め設定された終了条件が満たされている場合に、推定手段及び更新手段を終了させ、更新手段によって最終的に得られた形状行列の分布から形状行列を得るように構成されていることが望ましい。
つまり、推定手段では、計算に用いる画像系列を制限して、第1のステップ(Eステップ),第2のステップ(Mステップ)を1回ずつ実行し、これを繰り返し実行すると共に、推定手段から計算結果が得られる毎に、その計算結果に基づいて形状行列の分布を更新する。これは、変分ベイズ推定法を逐次計算にて実現(いわゆるオンライン化)するものである。
このように、本発明の三次元形状復元装置によれば、使用する画像系列を複数に分割し、その分割した画像系列毎に因子分解を実行するため、画像系列を増やしても、処理量は推定手段での1回の処理を単位として加算的に増大するだけで、指数関数的に増大することがないため、因子分解に要する処理負荷(ひいては処理に要する時間)を大幅に削減することができる。
また、上述したように、分解手段を、変分ベイズ推定法にて因子分解を実行するように構成した場合、請求項4に記載のように、エネルギー算出手段が、推定手段にて試験分布q(S),q(M)の推定結果が得られる毎に、試験事後分布q(S,M)=q(S)q(M)に関する自由エネルギーを算出し、終了手段は、エネルギー算出手段での算出結果が、予め設定されたエネルギー閾値より大きいことを終了条件とするように構成されていてもよい。
もともと、変分ベイズ推定法では、自由エネルギーが最大となるように運動行列や形状行列を推定しているため、この自由エネルギーを終了条件として用いることにより、所望の精度を有した形状行列を確実に取得することができる。
また、終了手段は、請求項5に記載のように、推定手段にて形状行列の試験分布q(S)を算出した回数が、予め設定された回数閾値より大きいことを終了条件とするように構成されていてもよい。
この場合、自由エネルギーを算出する必要がないため、当該装置での処理負荷を、より一層軽減することができ、また、常に一定時間内で処理を終了させることができる。
ところで、信頼性評価手段は、請求項6に記載のように、位置信頼性評価値として観測行列の分布の分散値を用いるように構成されていてもよい。特に、特徴点の追跡をベイズ推定を用いて行っている場合には、特徴点の位置(観測行列の各要素)の分布の分散値が必ず算出されるため、これを利用することにより処理負荷を軽減することができる。
そして、当該三次元形状復元装置は、請求項7に記載のように、自動車に搭載して使用するように構成されていてもよい。
自動車に搭載される演算器は一般的に計算能力が低いが、そのような場合でも適用することができる。
以下に本発明の実施形態を図面と共に説明する。
[第1実施形態]
図1は、本発明を適用した三次元形状復元装置としての画像処理装置1の全体構成を示すブロック図である。なお、画像処理装置1は、車両に搭載され、ドライバの頭部を撮影した画像から、ドライバのわき見や居眠り等を検出するための情報である頭部姿勢を時系列的に求める処理を実行する装置である。
<全体構成>
画像処理装置1は、ドライバシートの前面上部又は下部(例えば、メータ内)に設置され、図1に示すようにドライバの頭部を含む画像を取得するカメラ2と、カメラ2が取得した画像を取り込む画像取込装置3と、初期化指令が入力された場合に、画像取込装置3を介して取り込んだ入力画像zt (tは時刻を表す)から、ドライバの顔の特徴を表す複数(Nf個)の特徴点の位置(画像面上での二次元座標:以下、特徴点位置という)p(n)(n=1,2,…Nf)を抽出する初期特徴点抽出部4と、初期特徴点抽出部4が抽出した特徴点位置p(n) のそれぞれについて、その特徴点位置p(n) を中心とする予め設定された大きさの画像をテンプレートtp(n) として切り出して記憶するテンプレート生成・記憶部5と、特徴点の三次元位置(ひいては、頭部の三次元形状)を規定する顔モデル(形状行列)Ca を供給する顔モデル供給部6と、入力画像zt ,テンプレートtp(n) ,顔モデルCa に基づいて、時系列ベイズ推定を行うことにより、頭部姿勢を表すアフィンパラメータAt を推定すると共に、その推定の過程で算出される各特徴点の位置の分布を規定するための特徴点推定分布パラメータ(平均値xt ,分散Vt )を、顔モデル供給部6に供給する推定部8と、推定部8が推定したアフィンパラメータAt に従って、頭部姿勢θx,θy,θzを算出する頭部姿勢算出部9から構成される。
このうち、初期特徴点抽出部4では、図2(a)に示すように、目尻,目頭,口元、鼻(鼻の穴,鼻の中心,鼻の左右端)等を特徴点として抽出する。但し、本実施形態では、左右目尻、左右目頭,左右口元,鼻の中心の7(=Nf)個の点を抽出するものとする。また、初期化指令は、ドライバが正面を向き、全ての特徴点が映っている(特徴点の隠れのない)画像をカメラ2で撮影した時に、ドライバの操作によって入力されるものとする。
テンプレート生成・記憶部5が生成するテンプレートtp(n) は、具体的には、図2(a)中の点線白枠にて示すようなものとなる。但し、図では、左口元、鼻の中心、左目尻についてのみ示す。
また、顔モデル供給部6から供給される顔モデルCaは、特徴点(図2(b)に示す線図の各頂点)の位置を三次元的に規定するものであり、図3に示すように、画像面における水平方向の座標軸をu軸、垂直方向の座標軸をv軸、3次元空間における水平方向の座標軸をX軸、垂直方向の座標軸をY軸、光軸方向(奥行き方向)の座標軸をZ軸として(1)(2)式で表される。但し、s(n)は、初期特徴点抽出部4で抽出されたn番目の特徴点(特徴点位置p(n)=(u(n),v(n)))の3次元空間内での座標である。
次に、推定部8で推定されるアフィンパラメータAt は、実世界(三次元のXYZ空間)における座標変換を、射影面である画像面(二次元のuv平面)上での座標変換として表す際に用いる変換行列であり、(3)(4)式に示す関係を有する。
但し、ある特徴点の三次元座標を(X,Y,Z)T,座標変換後の三次元座標を(X’,Y’,Z’)T、これら三次元座標を画像面上に射影した二次元座標、すなわち画像面上での特徴点の座標を(u,v)T,(u’,v’)Tとして、X=u,Y=v(すなわちX’=u’,Y’=v’)であると仮定する。
そして、頭部姿勢算出部9では、頭部姿勢情報として、頭部の3軸角度θx,θy,θzを(5)〜(7)式を用いて算出する。
即ち、三次元座標をX軸を中心に角度θxだけ回転させる変換行列をRx,Y軸を中心に角度θyだけ回転させる変換行列をRy,Z軸を中心に角度θzだけ回転させる変換行列をRzとし、これら変換行列Rt(=RxRyRz)を作用させることで三次元座標が(X,Y,Z)Tから(X’,Y’,Z’)Tに移動するものとすると、これらの関係は、(8)(9)式で表される。
また、上記回転に加えて、三次元座標をX軸にt1,Y軸にt2,Z軸にt3だけ平行移動させる変換を考慮した場合、その変換式は(10)式で表される。
そして、(3)式と(10)式を比較することにより、アフィンパラメータa1〜a8と(10)式に示す変換行列の各要素r1〜r6,t1,t2との対応関係が得られ、また、(9)式を整理することで(11)〜(18)に示す関係式が得られる。
つまり、これら(11)〜(18)式から、(5)〜(7)式が導かれるのである。
そして、時刻tにおける頭部姿勢を表すアフィンパラメータAtが得られれば、そのアフィンパラメータAtを顔モデルCaに作用させることで、時刻tにおける画像に映っていない隠れた特徴点の位置も含めて、時刻tにおける全ての特徴点の位置を予測することができる。
また、このようなアフィンパラメータAtには、カメラパラメータ(カメラの焦点距離、設置場所、向き等)及びドライバの頭部姿勢の変化を全て反映させることができる。
<推定部の構成>
ここで、図4は、推定部8が扱う状態空間モデルを表すグラフである。
図4に示すように、推定部8は、時刻tにおける顔モデルの姿勢を表すアフィンパラメータat を隠れ状態として求める上位層と、時刻tにおける特徴点群の位置xt=(xt (1),xt (2), …,xt (Nf)Tを隠れ状態として求める特徴点毎に設けられたNf個の下位層(図では一つだけ示す)とを備えており、時刻1からtまでに入力された入力画像系列z1:tから、これら隠れ状態At,xtを、時系列ベイズ推定により推定するものである。
なお、時系列ベイズ推定は、図5に示すように、状態変数をすべて確率変数として扱い、隠れ状態に関する時刻t−1における推定結果(推定分布)から時刻tにおける予測分布を求めると共に、時刻tにおける観測データから、検出すべき隠れ状態であるもっともらしさ(尤度)を求め、これら予測分布と尤度を考慮して時刻tにおける推定結果(推定分布)を得るという手順を繰り返すことで、逐次的に隠れ状態を推定するものである。
つまり、推定部8では、入力画像系列(観測データ)z1:tに基づいて、アフィンパラメータ(頭部姿勢の隠れ状態)Atを推定した事後確率分布(推定分布)p(At|z1:t)を求めることになり、これを数式で記述すると(19)(20)式で表される。
ここで、p(At|z1:t-1)はアフィンパラメータAtの事前確率分布(予測分布)、p(xt|At,z1:t-1)は特徴点群の位置xtの事前確率分布(予測分布)、p(xt|At,z1:t-1),p(zt|xt)は尤度を表す。
そして、(20)式の部分を下位層がパーティクルフィルタを用いて推定し、(19)式の部分を上位層がカルマンフィルタを用いて推定する。
なお、あるパラメータfの確率分布がガウス分布(正規分布)に従う場合、その確率分布は、平均をμ,分散をΣとすると、(21)式で表すことができる。つまりこの場合、パラメータの確率分布の計算は、実際には、その平均μと分散Σを求めれば十分である。
次に、図6は推定部8の具体的な構成を表すブロック図である。
図6に示すように、推定部8は、(Nf)特徴点毎に設けられたNf個の追跡器BK(n)からなり、それぞれが一つの特徴点の位置x(n)を追跡して、時刻tにおけるその特徴点の位置xt (n)を推定した確率分布をガウス近似した確率分布を規定する特徴点推定分布パラメータ(平均、標準偏差)を生成する特徴点追跡部10と、各追跡器BK(n)にて算出された特徴点推定分布パラメータに基づき、カルマンフィルタを用いてアフィンパラメータAt及びアフィンパラメータの予測値At+1,その分散Vt+1(以下、予測値等という)を算出するアフィンパラメータ算出部30と、アフィンパラメータ算出部30にて算出されるアフィンパラメータの予測値等を保持する予測値保持部40と、予測値保持部40にて保持された時刻t−1において算出されたアフィンパラメータの予測値等に基づいて、時刻tの特徴点群の位置xt(=(xt (1), xt (2), …,xt (Nf)T)を予測した確率分布p(xt|At)を規定する上位予測分布パラメータ(平均値,分散)を算出して、追跡器BK(n)のそれぞれに供給する予測分布パラメータ算出部41とを備えている。
つまり、アフィンパラメータ算出部30が上述の上位層、特徴点追跡部10を構成する各追跡器BK(n)が上述の下位層に相当する。
なお、このような推定部8を実現する具体的な構成は、例えば、特願2005−368124号等に詳述されているため、ここではその詳細についての説明を省略し、以下では、特徴点推定分布パラメータの生成に関係する追跡器BK(n)の概要についてのみ説明する。
<追跡器の概要>
まず、特徴点追跡部10を構成する追跡器BK(n)は、パーティクルフィルタによって一つの特徴点を追跡するものである。ここでは、そのパーティクルフィルタの動作概要を、図7に示す説明図を参照して説明する。
図7に示すように、パーティクルフィルタでは、推定したい対象の状態(特徴点の位置)の実現値(画像面上の座標)をパーティクルで表し、予測,観測,リサンプルという三つの過程を繰り返し実行することで、時系列的にパーティクルの分布を求める。なお、パーティクルフィルタでは、カルマンフィルタとは異なり、ガウス分布に限らず任意の確率分布を対象とすることができる。
まず、予測過程では、推定したい対象の動きを考慮して、状態空間(ここでは画像面上)での各パーティクルの状態(ここでは画像面上での位置)を遷移させ、推定したい対象の動きに加わるノイズを考慮してパーティクルを確率的に散らすことで,推定したい対象が存在しそうな位置にパーティクル群を配置する。これにより、推定したい対象の状態を予測した確率分布が、パーティクル群の位置と数により離散的かつ近似的に表現されることになる。
次に、観測過程では、各パーティクルの状態が推定したい対象の状態であることの尤度(ここでは特徴点を表すテンプレートとの正規化相関値)を、尤度に応じてパーティクルの重みを算出する。これにより、推定したい対象の状態の確率分布が、重みのあるパーティクルによって表現されることになる。
また、リサンプル過程では、重みの小さいパーティクルを消去すると共に重み大きいパーティクルを重みのない複数のパーティクルに増殖させることにより、推定したい対象の状態の確率分布を、重みのあるパーティクルによる表現から、重みのないパーティクルにより表現に確率的に変換する。
そして、このリサンプル(リサンプル過程で生成)されたパーティクルを用いて上述の予測過程を行うことにより、パーティクルで表された推定したい対象の状態の確率分布が時系列的に求められることになる。
ここで、パーティクルの個数をNp、パーティクルの画像面上での座標をpi=(ui,vi)、観測過程にて尤度に応じて算出されるパーティクルの重みをwi(i=1,2,…,Np)とすると、観測によって得られる推定したい対象の状態(即ち、特徴点の位置)の確率分布は、(22)(23)式に示す平均値、及び(24)式(25)式に示す分散値によって表される。
つまり、時刻tにおけるn番目の特徴点の位置を表す確率分布の平均値をxt (n)=(x(n),y(n))、分散をVt (n)=(Vx (n),Vy (n))として、xt=(xt (1),xt (2),…,xt (Nf))、Vt =(Vt (1),Vt (2),…,Vt (Nf))が、特徴点推定分布パラメータとして、各時刻t毎に顔モデル供給部6に供給されることになる。
<顔モデル供給部>
次に、本発明の主要部である顔モデル供給部6について詳述する。
顔モデル供給部6は、図1に示すように、頭部を撮影した複数人分の映像から、それぞれ特徴点を抽出し、その抽出した結果に基づいて設定された平均的な特徴点の配置を表す平均顔モデルSAを記憶する平均顔モデル記憶部61と、初期化指令が入力されると起動し、推定部8から逐次供給される特徴点推定分布パラメータxt,Vtに基づいて、カメラ2に被写体(ドライバ)の特徴点の配置を表す個人顔モデルSPを、学習,生成する個人顔モデル学習部62と、個人顔モデル学習部62からの切替信号に従って、平均顔モデル記憶部61に記憶された平均顔モデルSA、個人顔モデル学習部62にて生成された個人顔モデルSPのいずれかを、顔モデルCaとして選択して推定部8に供給する顔モデル切替部63とを備えている。
<学習の概要>
なお、個人顔モデル学習部62では、以下に示す手法により学習を実行する。
即ち、求めるべき三次元形状(即ち、個人顔モデルSP)を表す形状行列をS,特徴点推定分布パラメータxtの系列に基づいて生成される観測行列をW,形状行列Sの運動を表す運動行列をMとすると、これらは、W=MSの関係を有する。そして、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、尤度P(W|M,S)が最大となる運動行列の試験分布q(M),形状行列の試験分布q(S)を求めることにより、運動行列M及び形状行列Sを推定する。
これは、(26)式に定義された自由エネルギーF[q(M,S)]を最大化するM,Sを求めることと等価であり、具体的には、(27)(28)式を解けばよい。
但し、この計算は簡単には解けないため、(29)式が成立すること(即ち、運動行列Mと形状行列Sとに独立な生起確率を仮定すること)、及び、モデル構造(形状行列S)と運動構造(運動行列M)の生起確率は、それぞれ正規分布に従うものと仮定し、いわゆる変分ベイズ法を適用して計算を行う。
これにより、求める分布も正規分布に従うため、解くべき問題を、分布の形状を表す特徴点推定分布パラメータxt,Vtの最適化というように簡略化できる。
そして、変分ベイズ法のEステップでは、運動行列の分布q(M)を固定した上で、自由エネルギーを最大化する計算を行えばよく、結局、(27)(28)式を変形した(30)(31)式からなる方程式を、ラグランジュの未定乗数法を用いて解くことで得られた(32)式の計算を実行すればよい。但し、式中で記号に付与されている^(ハット)は、更新値を表すものとする(以下同様)。
同様に、変分ベイズ法のMステップでは、形状行列の分布q(S)を固定した上で、自由エネルギーを最大化する計算を行えばよく、結局、(27)(28)式を変形した(33)(34)式からなる方程式を、ラグランジュの未定乗数法を用いて解くことで得られた(35)式の計算を実行すればよい。
<個人顔モデル学習部での処理>
ここで、個人顔モデル学習部62が実行する処理を、図8に示すフローチャートに沿って説明する。なお、本処理は、初期化指令の入力により起動される。
但し、n番目の特徴点の三次元座標s(n)、求めたい3次元形状を表す形状行列S、形状行列Sに要素がオール1の行ベクトルを加えた同次形状行列〜Sを(36)〜(38)式で表すものとする。なお、平均顔モデルSA及び個人顔モデルSPは、同次形状行列 〜Sの形式で表現されているものとする。
また、運動のi番目の基底ベクトルをmiとして、運動行列M,同次運動行列〜M,Θ、d番目の運動行列の行ベクトルθdを(39)〜(42)式で表すものとする。
本処理が起動すると、まず、S110では、顔モデル切替部63が推定部8に供給する顔モデルCaとして、平均顔モデルSAを選択するように切替信号を出力して、S120に進む。
これにより、推定部8では、映像が入力される時刻t毎に、平均顔モデルSAを用いたアフィンパラメータAt、及び特徴点推定分布パラメータxt,Vtの算出が行われる。また、頭部姿勢算出部9では、推定部8にて求められたアフィンパラメータAtに基づいて、頭部姿勢θx,θy,θzの算出が行われる。
S120では、運動行列の試験分布q(M)を初期化してS130に進む。
なお、形状行列の試験分布q(S)は、形状行列Sとその分散を表すΣS(以下、形状行列の分布パラメータという)によって規定され、運動行列の試験分布q(M)は、運動行列Θとその分散を表すVΘ(以下、運動行列の分布パラメータという)によって規定される。そして、運動行列の分布パラメータΘ,VΘは、この初期化によって、全ての要素が、同じ一定値(例えば、0又は1又は0.5)に設定される。
S130では、予め設定された規定個数Tの特徴点推定分布パラメータxt,Vtの取得を完了したか否かを判断し、完了していなければ、完了するまで待機する。
そして規定個数Tの特徴点推定分布パラメータxt,Vtの取得を完了すると、S140に移行し、その取得した特徴点推定分布パラメータxt,Vtに基づいて、観測行列Wおよび信頼度行列Qを生成して、S150へ進む。
なお、取得した特徴点推定分布パラメータxtに基づいて作成され、n(n=1,2,…,Nf)番目の特徴点の位置(画像面上での2次元座標)を時系列(t=1〜T)に並べてなる特徴点ベクトルx1:T (n)を(43)式で表すものとして、観測行列Wは、(44)式により表される。即ち、観測行列Wは、特徴点ベクトルx1:T (n)を列ベクトルして、全ての特徴点について並べることで構成されている。
また、信頼度行列Qは、特徴点推定分布パラメータVtに基づいて作成され、d=2t−1が時刻tにおけるx成分、d=2tが時刻tにおけるy成分を表し、n番目の特徴点のd番目(d=1,2,…,2T)の観測信頼度をσx,d (n)で表すものとして、(45)式により表される。即ち、信頼度行列Qは、観測行列Wと同じ次数を有する。
S150では、形状行列の試験分布q(S)を算出する、変分ベイズEステップとしての処理を実行して、S160に進む。
このS150では、具体的には、S140にて得られたW,Q、及びS120にて初期設定又は後述するS160にて更新された最新の運動行列の分布パラメータΘ,VΘに基づいて、特徴点(n=1〜Nf)毎に、次の(46)(47)式を用いて、s(n),Σs (n)を求めることにより、形状行列の分布パラメータS,Σsを更新する。なお、Ikはk次の単位行列である。
但し、(46)(47)式は、(32)式を、特徴点の三次元座標s(n)及び分散Σs (n)を用いて書き直した(48)を解くことにより求められたものであり、具体的には、(49)〜(56)式を用いて計算を実行する。
S160では、運動行列の試験分布q(M)を算出する、変分ベイズMステップとしての処理を実行して、S170に進む。
このS160では、具体的には、S140にて得られたW,Q、及びS150にて設定された最新の形状行列の分布パラメータS,ΣSに基づいて、運動行列の行ベクトルθd毎に、次の(57)(58)式を用いて、θd,Vdを求めることにより、運動行列の分布パラメータΘ,VΘを更新する。但し、期待値計算を記述する場合、(59)式に示す記述ルールを用いるものとする。
但し、(57)(58)式は、(35)式を、特徴点の三次元座標s(n)及び分散Σs (n)を用いて書き直した(60)を解くことにより求められたものであり、具体的には、(61)(62)式を用いて計算を実行する。
S170では、S150,S160で算出された形状行列の分布パラメータS,Σs (即ち、試験分布q(S))及び運動行列の分布パラメータΘ,VΘ(即ち、試験分布q(M))に基づき、上述の(26)式を用いて自由エネルギーF[q(M,S)]を算出してS180に進む。
但し、自由エネルギーは、上述の処理によって得られた運動行列Mおよび形状行列Sに基づいて推定される位置と、観測により得られた位置(観測行列W)とが近いほど大きな値となる。
S180では、S170にて算出された自由エネルギーが、予め設定されたエネルギー閾値より大きいことを終了条件として、その終了条件を充足しているか否かを判断し、充足していなければ、S150に戻って、S150〜S170の処理を繰り返し、一方、終了条件を充足していれば、S190に移行する。
ここでは、エネルギー閾値として、例えば、平均顔モデルSAを表す形状行列と、上述の処理で得られた運動行列Mとを用いて算出した自由エネルギーを用いる。但し、エネルギー閾値は、これに限るものではなく、何らかの固定値であってもよい。
S190では、上述の処理により最終的に得られた形状行列Sを個人顔モデルSPとして出力すると共に、顔モデル切替部63が推定部8に供給する顔モデルCaとして、個人顔モデルSPを選択するように切替信号を出力して、本処理を終了する。
これにより、以後、推定部8では、映像が入力される時刻t毎に、個人顔モデルSPを用いたアフィンパラメータAtの算出が行われ、更に、そのアフィンパラメータAtに基づいて、頭部姿勢算出部9では、頭部姿勢θx,θy,θzの算出が行われる。
<効果>
以上説明したように、画像処理装置1では、頭部姿勢θx,θy,θzを推定する処理を開始した直後は、平均顔モデルSAを用いてアフィンパラメータAtの算出(顔向き推定)を行い、これと並行して、個人顔モデルSPの学習を実行し、その個人顔モデルSPの精度が十分に向上した時点で、平均顔モデルSAから個人顔モデルSPへの切替を行うようにされている。
従って、画像処理装置1によれば、ドライバが誰であっても、頭部姿勢θx,θy,θzの推定を、処理の初期段階から、安定した精度の推定結果を得ることができ、しかも、平均顔モデルSAから個人顔モデルSPへの切替後は、高い精度の推定結果を得ることができる。
即ち、個人顔モデルSPを用いた場合、平均顔モデルSAを用いる場合より、推定精度が向上する可能性が高いが、学習に時間がかかり、また、計算に失敗すると平均顔モデルSA以上に誤差が大きくなる可能性があるが、画像処理装置1では、このような問題をいずれも解決することができる。
また、画像処理装置1では、平均顔モデルSAから個人顔モデルSPへの切替を、自由エネルギーを用いて判断しているため、モデルの切替後は、推定精度を確実に向上させることができる。
即ち、個人顔モデルSPは、正解データというものが存在しないため、その精度を定量的に評価することが困難である。但し、観測行列Wを運動行列Mと形状行列Sに因子分解する際に、自由エネルギーが最大となるように因子分解を行っている。つまり、これは、自由エネルギーとは、運動行列Mおよび形状行列Sから算出される予測値が、観測値(観測行列W)に当てはまっている度合いを定量的に表しているものであると考えることができる。従って、この自由エネルギーを、顔モデルの精度を評価する基準として使用することができるのである。
また、画像処理装置1では、観測行列Wを因子分解する際に、観測行列Wを構成する各観測値xtの信頼性(特徴点の位置を表す確率分布(正規分布)の分散)を表す信頼度行列Qを用い、これを形状行列の試験分布q(S)の分散Σs に反映させることにより((43)〜(53)式参照)、信頼性の高い特徴点ほど重視した因子分解を行うようにされている。
従って、画像処理装置1によれば、特徴点の隠れ,誤追跡,フレームアウト等に基づく信頼性の低い観測値xt が観測行列W中に存在していたとしても、これを除去するといった余計な手順を必要とすることなく、因子分解を確実に実行することができ、しかも信頼性の高いデータほど重視されるため、生成される形状行列や運動行列の精度を向上させることができる。
また、画像処理装置1によれば、観測行列Wを因子分解する際に、変分ベイズ法を適用して、運動行列Mの試験分布q(M),形状行列Sの試験分布q(S)を求めることにより、確率的に因子分解計算を実行するようにされているため、観測値xtに重畳されているノイズの影響を、大幅に軽減することができる。
[第2実施形態]
次に、第2実施形態について説明する。
なお、本実施形態では、個人顔モデル学習部62での処理内容の一部が、第1実施形態のものとは異なるだけであるため、この相違する部分を中心に説明する。
<個人顔モデル学習部での処理>
図8は、個人顔モデル学習部62が実行する処理の内容を示すフローチャートである。
第1実施形態の場合と同様に、本処理は、初期化指令の入力により起動され、S210〜S250は、第1実施形態のS110〜S150と同様であるため説明を省略する。
但し、S230にて使用される規定個数は、第1実施形態の場合より少ない数(例えば、数分の一から数十分の一程度)でよい。
そして、S260では、運動行列の試験分布q(M)を算出する、変分ベイズMステップとしての処理を実行して、S270に進む。
このS260では、具体的には、S240にて得られたW,Q、S250にて設定された最新の形状行列の分布パラメータS,ΣS、前サイクルで算出された統計量(後述の(66)(67)式参照)に基づいて、運動行列の行ベクトルθd毎に、次の(63)〜(67)式を用いて、θd,Vdを求めることにより、運動行列の分布パラメータΘ,VΘを更新する。
S270では、前サイクルで算出された統計量(後述の(70)式参照)に基づき、(68)〜(70)式を用いて、形状行列Sを更新する。
以下、S280〜S300は、第1実施形態のS170〜S190と同様であるため説明を省略する。但し、S290では、終了条件を充足していない場合に、S230に戻る。
<効果>
以上説明したように、本実施形態では、観測行列Wの次数(即ち、規定個数T)を少ない数に制限して、Eステップ,Mステップを1回ずつ実行して運動行列の試験分布p(M)及び形状行列の試験分布p(S)を求める処理を繰り返し、その結果を過去のデータほど比率が低下するような係数を乗じて足し合わせていく、いわゆるオンライン化した変分ベイズ推定法を用いて、因子分解を行っている。
従って、本実施形態によれば、使用する画像系列の数を増加させても、それによって増加する処理量は、Eステップ,Mステップを1回ずつ実行する際の処理量を単位として、加算的に増大するだけで、指数関数的に増大することがないため、因子分解に要する処理負荷(ひいては処理に要する時間)を大幅に削減することができる。
その結果、自動車に搭載される演算器は一般的に計算能力が低いが、そのような場合でも問題なく適用することができる。
[他の実施形態]
以上本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様での実施が可能である。
例えば、上記実施形態では、頭部姿勢を推定するためにアフィンパラメータを用いているが、これは頭部姿勢の推定を行うことができれば、例えば、アフィンパラメータを用いずに、拡張カルマンフィルタを利用して直接頭部推定を行う手法等を採用してもよい。
また、因子分解を終了させる際の終了条件として、平均顔モデルSAから求めた自由エネルギーをエネルギー閾値として、学習中の個人顔モデルSPから求めた自由エネルギーがそのエネルギー閾値より大きいことを用いているが、エネルギー閾値は予め設定された固定値であってもよい。
更に、自由エネルギーを用いるのではなく、処理の繰り返し回数が、予め設定された回数閾値より大きいことを終了条件としてもよい。この場合、処理を終了させるか否かの判断のために、自由エネルギーを算出する必要がなくなるため、当該装置での処理負荷を、より一層軽減することができ、また、常に一定時間内で処理を終了させることができる。
上記実施形態では、ベイズ推定法および変分ベイズ推定法により因子分解を行ったが、因子分解の際に、観測行列Wの各要素に信頼度を反映させることができれば、どのような方法を用いてもよく、例えば、特異値分解により因子分解を行ってもよい。
発明が適用された画像処理装置の全体構成を示すブロック図。 特徴点,テンプレートについての説明図。 画像処理装置が使用する座標系を示す説明図。 推定部が扱う状態空間モデルを表すグラフ。 時系列ベイズ推定の動作概要を示す説明図。 推定部の構成を示すブロック図。 パーティクルフィルタの動作概要を示す説明図。 第1実施形態における個人顔モデル学習部の処理内容を示すフローチャート。 第2実施形態における個人顔モデル学習部の処理内容を示すフローチャート。
符号の説明
1…画像処理装置 2…カメラ 3…画像取込装置 4…初期特徴点抽出部 5…テンプレート生成・記憶部 6…顔モデル供給部 8…推定部 9…頭部姿勢算出部 10…特徴点追跡部 30…アフィンパラメータ算出部 40…予測値保持部 41…予測分布パラメータ算出部 61…平均顔モデル記憶部 62…個人顔モデル学習部 63…顔モデル切替部 BK(n)…追跡器

Claims (7)

  1. 対象物体を撮影した画像系列を入力し、前記対象物体について予め設定された複数の特徴点の位置を画像面上で追跡し、該特徴点の位置を時系列的に並べてなる観測行列を生成する観測行列生成手段と、
    該観測行列生成手段にて生成された観測行列を因子分解して、前記対象物体の三次元形状を表す形状行列および前記対象物体の運動を表す運動行列を生成する分解手段と、
    を備えた三次元形状復元装置において、
    前記特徴点毎に、前記特徴点の位置の信頼性を表す位置信頼性評価値を生成する信頼性評価手段を備え、
    前記観測行列をW,前記運動行列をM,前記形状行列をSとし、行列Xの各要素の値を確率的に示した分布をq(X)で表記するものとして、
    前記分解手段は、事後確率P(M,S|W)と尤度P(W|M,S)との関係を規定するベイズ推定の式に基づき、前記尤度P(W|M,S)を最大にする前記運動行列の試験分布q(M)および前記形状行列の試験分布q(S)を、前記形状行列の試験分布q(S)の分散に前記信頼性評価値を反映させた上で求めることで、確率的に因子分解計算を実行することにより、前記位置信頼性評価値の高い特徴点を重視した因子分解を実行することを特徴とする三次元形状復元装置。
  2. 前記分解手段は、
    前記運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、前記形状行列の試験分布q(S)を固定して前記運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて交互に繰り返し実行する推定手段と、
    予め設定された終了条件が満たされている場合に、前記推定手段を終了させる終了手段と、
    からなり、最終的に得られた前記形状行列の試験分布q(S)が前記形状行列の分布であるものとして、該形状行列の分布から形状行列Sを得ることを特徴とする請求項1に記載の三次元形状復元装置。
  3. 前記分解手段は、
    前記観測行列生成手段にて観測行列が生成される毎に、前記運動行列の試験分布q(M)を固定して前記形状行列の試験分布q(S)を推定する第1のステップ、及び、前記形状行列の試験分布q(S)を固定して前記運動行列の試験分布q(M)を推定する第2のステップを、互いの推定結果を用いて実行する推定手段と、
    前記推定手段にて推定された前記形状行列の試験分布q(S)の系列に基づいて、出力とする前記形状行列の分布を更新する更新手段と、
    予め設定された終了条件が満たされている場合に、前記推定手段及び更新手段を終了させる終了手段と、
    からなり、前記更新手段によって最終的に得られた前記形状行列の分布から形状行列Sを得ることを特徴とする請求項1に記載の三次元形状復元装置。
  4. 前記推定手段にて試験分布q(S),q(M)の推定結果が得られる毎に、試験事後分布q(S,M)=q(S)q(M)に関する自由エネルギーを算出するエネルギー算出手段を備え、
    前記終了手段は、前記エネルギー算出手段での算出結果が、予め設定されたエネルギー閾値より大きいことを前記終了条件とすることを特徴とする請求項2又は請求項3に記載の三次元形状復元装置。
  5. 前記終了手段は、前記推定手段にて前記形状行列を算出した回数が、予め設定された回数閾値より大きいことを前記終了条件とすることを特徴とする請求項2又は請求項3に記載の三次元形状復元装置。
  6. 前記信頼性評価手段は、前記位置信頼性評価値として前記特徴点の位置を確率的に表す分布の分散値を用いることを特徴とする請求項1乃至請求項5のいずれかに記載の三次元形状復元装置。
  7. 自動車に搭載して使用することを特徴とする請求項1乃至請求項6のいずれかに記載の三次元形状復元装置。
JP2007102914A 2007-04-10 2007-04-10 三次元形状復元装置 Expired - Fee Related JP5048381B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007102914A JP5048381B2 (ja) 2007-04-10 2007-04-10 三次元形状復元装置
US11/906,557 US8107735B2 (en) 2007-04-10 2007-10-02 Three dimensional shape reconstitution device and estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007102914A JP5048381B2 (ja) 2007-04-10 2007-04-10 三次元形状復元装置

Publications (2)

Publication Number Publication Date
JP2008261662A JP2008261662A (ja) 2008-10-30
JP5048381B2 true JP5048381B2 (ja) 2012-10-17

Family

ID=39984259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007102914A Expired - Fee Related JP5048381B2 (ja) 2007-04-10 2007-04-10 三次元形状復元装置

Country Status (1)

Country Link
JP (1) JP5048381B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5231183B2 (ja) * 2008-11-21 2013-07-10 国立大学法人 奈良先端科学技術大学院大学 三次元形状復元装置
JP6946993B2 (ja) * 2017-12-11 2021-10-13 オムロン株式会社 画像処理装置および画像処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001078228A (ja) * 1999-09-03 2001-03-23 Sony Corp 画像生成装置及び方法
JP2001141425A (ja) * 1999-11-12 2001-05-25 Laboratories Of Image Information Science & Technology 3次元形状計測装置

Also Published As

Publication number Publication date
JP2008261662A (ja) 2008-10-30

Similar Documents

Publication Publication Date Title
JP4568223B2 (ja) 推定装置
CN108369643B (zh) 用于3d手部骨架跟踪的方法和系统
Yuan et al. 3d ego-pose estimation via imitation learning
JP4728432B2 (ja) 顔姿勢推定装置、顔姿勢推定方法、及び、顔姿勢推定プログラム
Vondrak et al. Physical simulation for probabilistic motion tracking
JP5647155B2 (ja) 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定
US6674877B1 (en) System and method for visually tracking occluded objects in real time
US8107735B2 (en) Three dimensional shape reconstitution device and estimation device
JP7345664B2 (ja) 不確実性を有するランドマーク位置推定のための画像処理システムおよび方法
CN111645065A (zh) 一种基于深度强化学习的机械臂运动规划方法
CN114581613B (zh) 一种基于轨迹约束的人体模型姿态和形状优化方法和系统
US20110208685A1 (en) Motion Capture Using Intelligent Part Identification
CN112001859A (zh) 一种人脸图像的修复方法及系统
Bandouch et al. Accurate human motion capture using an ergonomics-based anthropometric human model
CN112419419A (zh) 用于人体姿势和形状估计的系统和方法
CN115471863A (zh) 三维姿态的获取方法、模型训练方法和相关设备
Lee et al. Human body tracking with auxiliary measurements
JP5048381B2 (ja) 三次元形状復元装置
JP4971015B2 (ja) 推定装置
JP7499346B2 (ja) 逆運動学に基づいた関節の回転の推測
JP7489247B2 (ja) プログラム、情報処理方法、情報処理装置及びモデル生成方法
JP5485044B2 (ja) 表情学習装置、表情認識装置、表情学習方法、表情認識方法、表情学習プログラム及び表情認識プログラム
JP5231183B2 (ja) 三次元形状復元装置
CN113916223A (zh) 定位方法及装置、设备、存储介质
Joo et al. Ostgazenet: One-stage trainable 2d gaze estimation network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5048381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees