JP3822482B2 - 顔向き計算方法及びその装置 - Google Patents
顔向き計算方法及びその装置 Download PDFInfo
- Publication number
- JP3822482B2 JP3822482B2 JP2001335663A JP2001335663A JP3822482B2 JP 3822482 B2 JP3822482 B2 JP 3822482B2 JP 2001335663 A JP2001335663 A JP 2001335663A JP 2001335663 A JP2001335663 A JP 2001335663A JP 3822482 B2 JP3822482 B2 JP 3822482B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- axis
- orientation
- rotation
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
【発明の属する技術分野】
本発明は、画像中から人物の顔画像を適切に切り出し、切り出された顔領域画像を用いて、高頑健性かつ高精度の顔向き計算を行う、顔画像による顔向き計算方法に関する。
【0002】
【従来の技術】
顔画像による顔向き計算は、2次元顔画像からその人物の顔がどちらを向いているかを求める技術であり、様々な分野で利用可能である。しかしながら、カメラで撮影した画像中の顔画像を用いてその顔の向いている方向(顔向き)をコンピュータを利用してリアルタイムで自動的に求めることはコンピュータビジョン分野の最先端技術をもってしてもまだ未解決の問題であり、顔向き計算の応用分野はまだ顕在化しているとは言えない。
【0003】
かりに顔向き計算技術が実用レベルに到達すれば、乗り物の運転者、展示物の観客、コンソール端末の操作者、ゲーム端末の操作者などに対して顔向き計算技術が応用可能である。
【0004】
乗り物の運転者に対しては、顔向き計算により運転に支障となる脇見を検知して警報を鳴らせたり、顔向きに応じて安全運行のための適切な情報を提示することができる。
【0005】
展示物の観客に対しては、顔向き計算により観客の注目している展示を見極めて、その展示に関する情報を自動提示することができる。
【0006】
コンソール端末の操作者に対しては、顔向き計算により操作しようとしている表示窓を特定してカーソルを移動させて業務効率を高めることができる。
【0007】
ゲーム端末の操作者に対しては、顔向き計算によりゲーム環境の視点を変更したり、シューティングの狙いを定めたり、首振り動作を用いて登場人物とのコミュニケーションに役立てたりすることができる。
【0008】
従来の顔向き計算方法には、大きく分けて2通りの方法がある。
【0009】
第1の従来方法は、目鼻口などの顔の特徴点を検出してそれらの画像座標を用いて幾何学的に向きを計算する方法である。
【0010】
第2の従来方法は、向き毎の顔画像パターンをそのまま、または、次元圧縮してテンプレートとし、顔全体のパターンマッチングにより最もマッチしたテンプレートに対応する向きを顔の向きと判定する方法である。
【0011】
第1の従来方法は、特徴点の座標が正確に求まりさえすれば顔向きも正確に計算できる精密な方法である。
【0012】
しかし、特徴点追跡(トラッキング)の失敗が避けられず、頑健性に欠けるという問題点がある。これは、目鼻口などの特徴点の画像パターンは個人差があることに加え、顔向きの変化によっても特徴点のパターンが変化してしまうことが原因である。
【0013】
また、顔向きの変化による特徴点画像パターンの変化を克服しようとする方法として、目鼻を円形の分離度フィルタと更新テンプレートマッチングの併用でトラッキングする方法がある(「目鼻の分離度と更新テンプレートマッチング」 林 健太郎,橋本 学,鷲見 和彦.頑健性と精緻性を備えた顔特徴点追跡による顔方向推定,電子情報通信学会論文誌,vol.J84-D-II, no.9, pp.1762-1771, 2001年8月.)。
【0014】
しかし、更新テンプレートマッチングは、顔の素早い動作により特徴点画像パターンが不連続に変化した場合にはトラッキングを失敗して回復不能となる。
【0015】
また、特徴点だけを用いるのではなく、顔の輪郭と鼻との相対位置により顔向きを計算する方法が提案されている(「顔の輪郭を利用した顔向き推定」特開平9-163212号)。
【0016】
この方法は輪郭という大きい領域のロバストな情報と鼻の位置という狭い領域の精密な情報を組み合わせており、小さな特徴点のみを利用した方法に比べると頑健性に優れていると言える。
【0017】
しかし、顔の輪郭をリアルタイムで求めることが困難である。輪郭は、肌色情報を用いたり、スネークという動的輪郭モデルを用いる方法があるが、肌色の検出は照明条件や個人差の影響を受け易く、また、スネークは計算時間が膨大なことが問題点である。
【0018】
第2の従来方法は、特徴点の座標を求める必要が無いため、特徴点トラッキングの失敗による破綻は無く頑健な方法である。
【0019】
しかしながら、予め所定の向きの顔画像データを撮影して向き毎のテンプレートを作成しておく必要があり、また、求められる向きの精度を高めるためにはテンプレートの個数を膨大に増やさなければならないという問題点がある。
【0020】
さらに付け加えるならば、顔向き計算方法の従来技術においては、目鼻口などの特徴点こそ顔特有の特性を利用してはいるが、顔向きの変化の特性を利用したものは無かった。
【0021】
【発明が解決しようとする課題】
そこで、本発明は、上記問題点を考慮して、下記の目的でなされたものである。
【0022】
第1の目的は、人物の顔向きの変化が主として鉛直方向(重力方向)の軸の回りの回転であることを利用して、顔向き計算時に用いる座標系を効率的に設定し、頑健性の高い顔画像による顔向き計算方法を提供することにある。
【0023】
第2の目的は、測定された人物の顔向きの変化の分布を利用して、顔向き計算時に用いる座標系を効率的に設定し、頑健性の高い顔画像による顔向き計算方法を提供することにある。
【0024】
第3の目的は、予め所定の向きの顔画像データを撮影する必要の無い、顔全体のパターンマッチングによる顔向き計算方法のための顔向きテンプレート作成方法を提供することにある。
【0025】
第4の目的は、テンプレートの個数を増加させなくとも高精度で顔向き計算を行う、顔全体のパターンマッチングによる顔向き計算方法を提供することにある。
【0026】
第5の目的は、特徴点トラッキングを利用した場合の精密さと、顔全体のパターンを用いた場合の頑健性とを兼ね備えた、階層テンプレートを用いた顔向き計算方法を提供することにある。
【0027】
【課題を解決するための手段】
本発明は、固定された単眼カメラで人物の顔を撮影して得た画像データを入力して、この画像データと顔の向きに関する情報が予め記憶されている複数の顔向きテンプレートとを比較して、その画像データに撮影されている顔の向きを計算するか、または、この画像データの特徴点を抽出してその特徴点の位置関係から顔の向きを計算する顔向き計算方法であって、カメラ座標系を、前記単眼カメラのレンズの中心Cを原点としたXC軸、YC軸、ZC軸の直交座標系で設定し、前記ZC軸が光軸、前記XC軸が左右方向、YC軸が上下方向に対応し、H座標系を、前記顔に固定されたXH軸、YH軸、ZH軸の直交座標系で設定し、顔の向きが正面向きのときの前記XH軸を身体の中心軸とし、この中心軸回りの回転である回旋の回転角をψとし、他の2つのYH軸、ZH軸回りの回転角をθ,φとした場合の回転角ψ,θ,φを顔の向きの変化である回転行列で表し、前記顔向きの変化である回転行列を、前記カメラ座標系と前記H座標系との間の関係及び前記単眼カメラのカメラ回転行列とから求め、前記画像データの中から、最も頻度の高い顔の向きを正面向きと定義すると共に、前記定義された正面向きの顔に対しては、3つの回転角ψ,θ,φの全てについて0を出力し、前記画像データの中から、前記中心軸を中心にのみ回転した顔に対しては、その回転角ψを出力し、他の2つの回転角θ,φについて0に近い値を出力することを特徴とする顔向き計算方法である。
【0035】
請求項2の発明は、鉛直軸回りの回転を重要視することにより、人物の顔向きの変化の特徴を有効活用した頑健性の高い顔向き計算方法を提供することができる。また、高頻度の向き変化を重要視することにより、人物の顔向きの変化の特徴を有効活用した頑健性の高い顔向き計算方法を提供することができる。
【0039】
【発明の実施の形態】
(座標系の説明)
以下、本発明の実施形態を説明する前に、図9〜図12と式(1)〜(18)を参照しながら前提となる座標系について説明する。
【0040】
1.座標変換式の説明
基本となる3次元空間の回転(向きの変化)を記述する座標変換式について説明する。
【0041】
回転の表現にはいろいろなものがあるが、ここでは、徐、辻著、3次元ビジョン(共立出版、1998)の表記法に従い、ロール・ピッチ・ヨー(roll.pitch.yaw)の説明と、その表記法に基づき顔向きを最適に表現する方法について下記の式(1)〜(7)に基づいて説明する。
【0042】
【数1】
座標軸X、Y、ZをZ軸回りに角度φだけ回転させた座標軸をX’Y’Z’とすると、2つの座標値相互の変換式は式(1)で表される。φはロール(roll)と呼ばれる。ベクトルを大文字のM,M’で表し、回転行列をRで表すと式(1)は式(1’)のように簡潔に表される。逆変換は式(2)で表される。
【0043】
また、座標軸X’Y’Z’をY’軸回りに角度θだけ回転させた座標軸をX''Y''Z''とすると、2つの座標値相互の変換式は式(3)で表される。θはピッチ(pitch)と呼ばれる。ベクトルを大文字のM’,M''で表し、回転行列をRで表すと式(3)は式(3’)のように簡潔に表される。逆変換は式(4)で表される。
【0044】
さらに、座標軸をX''Y''Z''をX''軸回りに角度ψだけ回転させた座標軸をX''’Y''’Z''’とすると、2つの座標値相互の変換式は式(5)で表される。ψはヨー(yaw)と呼ばれる。ベクトルを大文字のM'',M''' で表し、回転行列をRで表すと式(5)は式(5’)のように簡潔に表される。逆変換は式(6)で表される。
【0045】
以上の3つの回転を合成する。すなわち、座標軸XYZをZ軸の回りにφ回転させ、次に新しいY軸の回りにθ回転させ、次に新しいX軸の回りにψ回転させてできる座標軸X’Y’Z’による座標系への変換式は式(7)で表される。
【0046】
2.カメラ座標系と顔に固定された座標系との関係
画像を用いて物体の3次元的な向きを計測する方法を、カメラの台数によって単眼視法とステレオ画像法に分類することができる。単眼視法は1つのカメラによって撮影された1枚の画像を利用する方法であり、同時には1つの視点からしか撮影しない。因子分解法は単眼カメラによる単眼視法の代表的手法である。一方、ステレオ画像法は複数台のカメラから得られた複数の画像を用い、同時に複数の視点から撮影した画像を用いて、それらの画像間で三角測量法を適用する方法である.本発明は、単眼視法に関する。
【0047】
そして、本実施形態に使用されるカメラは、単眼カメラであり、その設置位置としては、人物の顔が撮影できる位置に固定されておればよく、従来のように顔の正面から撮影する必要はなく、顔の非正面位置から撮影してもよい。但し、顔を正面から撮影しても本実施形態は実施できる。
【0048】
単眼カメラのカメラ座標系と顔に固定された座標系との関係を説明する。
【0049】
図9は、カメラ座標系XC、YC、ZCを表したものである。Cは単眼カメラのレンズ中心、(x,y)は画像座標である。
【0050】
図10は、顔を正面から撮影したときのカメラ座標と顔との位置関係を表したものである。単眼カメラの位置が顔のほぼ正面に有れば、解剖学的に左が+XC、下が+YC、後ろが+ZCとなる。
【0051】
図11は、顔に固定された(顔と同じ回転をする)H(Head)座標を表したものであり、解剖学的に上が+XH、左が+YH、後ろが+ZHとなる。「解剖学的」とは、左右の定義が、右目のある側が右で、左目のある側が左とすることを意味する。画像を見る人が顔画像に向かって右というと、これは解剖学的には左になることに注意しなければならない。このようにH座標を定義することにより、顔向きを効率的にロール・ピッチ・ヨーで表現することができる。
【0052】
次に、顔向きが時々刻々変化する場合を、式(8)〜(18)を参照して説明する。
【0053】
【数2】
動画像をFフレーム撮影し、そのフレーム番号をfとし(f=1,…,F)、第1フレーム(f=1)を基準にとることにする。第fフレームのカメラ画像を[XCfYCfZCf]T(Tは転置を表す)とすると、式(8)で定義される回転行列RCfCが得られる。このRCfCは因子分解法の計算結果として得られるものであり、顔が固定されカメラが動いたと解釈したときのカメラの回転を表す。式(8)をベクトルMCf,MCを使って書くと式(8’)となる。同様に、カメラが固定され顔が動いたと解釈したときの顔の回転を表す回転行列RHfHを式(10)で定義する。
【0054】
因子分解法とは、複数フレームの2次元画像から3次元形状と各フレームの向きを求める為の代表的な優れた方法であり、Tomasiと金出によって1991年に提案されたものである(Tomasi.C.and T.Kanade;Technical Report CMU−CS−91−172.CMU(1991);International Journal of Computer Vision.9:2.137−154(1992))。
【0055】
図12はH座標系とカメラ座標系との関係を、カメラを顔の正面やや下側に設置して撮影した場合を例に説明したものである。
【0056】
これはf=1の場合と考えて良い。このとき、カメラ座標MCとH座標MHとの関係は式(9)となる。すなわち、座標軸XCYCZCをZC軸の回りに−π/2回転させ、次に新しいXC軸の回りに−δH回転させてできる座標軸をXHYHZHとする。
【0057】
−π/2の回転は、ロール・ピッチ・ヨーで表現するときに、顔の横方向への回転を重視するような回転角の定義にするために必要となる。ここで、RCHはカメラ座標MCとH座標MHとを変換する回転行列を表すものとし、以下の説明における添え字の使い方はこれにならう。
【0058】
さらにfフレーム目の状態を考える。カメラ座標MCを固定してH座標MHをさまざまに回転させてfフレーム目の座標がMHfになったときの、MCとMHfとの関係式は、式(9)と(10)から計算できて、式(11)で表される。
【0059】
逆に、H座標MHを固定してカメラ座標MCをさまざまに回転させてfフレーム目の座標がMCfになったときの関係式は、式(8’)と(9)から計算できて、式(13)で表される。
【0060】
そして、これら2つの動きが同値(等価)であることを利用すると、式(11)と式(13)が等価であることが結論され、式(14)が導かれる。さらに、式(11),(14)から式(17)が導かれ、H座標における顔向きの変化である回転行列RHfHが、式(9)で表される座標間の関係と、因子分解法で求められるカメラ回転行列RCfCとで計算できることが分かる。
【0061】
因子分解法などの幾何学的手法によって3次元の形状獲得の計算や顔(物体)の向き(姿勢)の計算を行わせると、通常はカメラ座標によって向きが求められる。
【0062】
それは、図9で示されるようにカメラ座標系のXC軸YC軸と画像座標のx軸y軸がスケールを除いて等しくなることが要因である。
【0063】
因子分解法で求められる顔向きは、式(8)−(17)におけるRCfCである。このRCfCはカメラ座標MCを基準として、fフレーム目のカメラの姿勢(向き)を表す回転行列のことであり、式(8)で定義される。
【0064】
顔の向きの変化を計算する場合にはカメラ座標のZC軸(光軸)ではなく、人物が通常の行動をとるときにどちらを向き易いかを基準にとる方が計算結果を応用する際に利便性が高くなる。
【0065】
そこで、正面を向いた顔に固定されたH座標であるMHが回転しMHfに変化したときの回転行列RHfHを考えてみると、この回転行列RHfHをロール(φHf)・ピッチ(θHf)・ヨー(ψHf)で表すと、それは式(18)で示されるように人物の顔の解剖学的な向きの変化に対応づけ易くなる。また、ヨー(ψHf)の回転角は、身体の中心軸を中心にして回転する回旋の回転角とも言える。
【0066】
さらに、人物の顔向きの変化を調査すると、右向き度が大きく変化し、他の角度の変化は少ないことと、右向き度が鉛直軸(鉛直方向を向いた軸)の回りの回転であることが分かり、このことより、顔向きの変化を鉛直軸回りの右向き度で代表することが便利であることが分かった。ここで、横向き度ではなく、右向き度としたのは、符号の値を考慮した為である。
【0067】
上記において、カメラ位置が正面やや下方からの撮影の場合を例に取ったが、式(9)のRCHのみを適宜設定することにより、他の変換処理は同一のままで、任意の角度から顔を撮影しても、顔向きの変化を同一の回転行列RHfHで処理することが可能である。
【0068】
また、カメラ取り付け位置が不明の場合であっても、顔の向きの頻度分布を調べ、ロール(φHf)とピッチ(θHf)はなるべく不変に保ち、身体の中心軸を中心にして回転する回旋の回転角であるヨー(ψHf)が大きく変化するようなRCHを設定することにより最適なH座標系を設定することができる。
【0069】
(第1の実施形態)
以下、本発明の第1の実施形態について、図1〜図5に基づいて説明する。
【0070】
1.顔向きテンプレート作成システムの構成
図1は、本発明の第1の実施形態に係る顔向きテンプレート作成システムの一例を示す構成図である。
【0071】
この顔向きテンプレート作成システム1は、画像を入力し、入力画像に対応した特徴点情報を手操作入力すると、使用座標系を含むテンプレート情報とテンプレートを出力するものであり、システム内部に、特徴点情報を利用した顔向き計算と、それに基づく座標系定義と、顔向きによる画像の分類を行う部分を持つことが特徴である。
【0072】
具体的には、特徴点情報設定部2と、顔画像格納部3と、顔向き計算部4と、テンプレート情報格納部5と、座標系定義部6と、顔向き分類部7と、テンプレート作成部8と、顔向きテンプレート格納部9から構成され、これら構成部分の機能は、コンピュータに記憶されたプログラムによって実現される。
【0073】
以下、各構成を順番に説明する。
【0074】
特徴点情報設定部2は、顔画像格納部3に入力された顔画像の数フレームに対して目鼻口などの特徴点の座標を手操作入力により受け取り、さらにその数フレームをキーフレームとして特徴点トラッキングにより他の画像フレームに対して特徴点座標を求める。
【0075】
そして、特徴点トラッキングが成功した画像に対する特徴点情報を顔向き計算部4に送る。この際、特徴点トラッキングが失敗した画像フレームに関する特徴点情報は特徴点情報設定部2の内部で廃棄し、顔向き計算部4へは送らない。
【0076】
顔画像格納部3は、画像入力を受け取り、格納し、必要に応じて特徴点情報設定部2やテンプレート作成部8に画像データを送る。
【0077】
顔向き計算部4は、特徴点情報設定部2から受け取った特徴点の座標値などの特徴点情報を用い、因子分解法などの幾何学的計算によって3次元形状の獲得計算と各画像フレームの顔向き計算を行い、結果をテンプレート情報格納部5に格納する。
【0078】
3次元形状の獲得計算の際に、形状誤差が非常に大きい特徴点についてはそれを用いないようにマークを付ける。
【0079】
また、顔向き計算の際に、顔向きの誤差が非常に大きい画像フレームについては、それを用いないようにマークを付ける処理も顔向き計算部4で行う。
【0080】
テンプレート情報格納部5は、顔向き計算部4から3次元形状情報と各画像フレームの顔向き情報を受け取り、座標系定義部6から顔向き計算に適した座標系の情報を受け取り、これらの情報を格納し、また、必要に応じて座標系定義部6やシステム外部へテンプレート情報を出力する。
【0081】
座標系定義部6は、顔向き計算部4またはテンプレート情報格納部5から3次元形状情報と各画像フレームの顔向き情報を受け取り下記のことを行う。
【0082】
第1は、3自由度の顔向きを最適に表現し、且つ、回転角φ,θ,ψで表現される座標系を定義する。
【0083】
第2に、各画像フレームの顔向きをこの座標系で表現した数値を計算する。
【0084】
第3に、これらの処理結果を顔向き分類部7へ送る。
【0085】
顔向き分類部7は、座標系定義部6から定義された座標系の情報と、各画像フレームの顔向きの情報を受け取り、顔向きを最適に分類する1つの回転角ψの値によって画像フレームを分類し、これらの処理結果をテンプレート作成部8へ送る。
【0086】
テンプレート作成部8は、顔向き分類部7から各画像フレームの顔向きの情報と分類の情報を受け取り、それに基づいて、顔画像格納部3から向き毎の画像を受け取り、画像縮小処理と主成分分析処理により、向き毎のテンプレートを作成し、顔向きテンプレート格納部9へ結果を送付する。
【0087】
顔向きテンプレート格納部9は、テンプレート作成部8から向き毎のテンプレートを受け取り、格納し、必要に応じてシステム外部に出力する。
【0088】
2.顔向きテンプレート作成手順
図2は、本実施形態における顔向きテンプレート作成手順を示す流れ図である。
【0089】
最初に、標準的な動作をしている顔を撮影した顔動画像を入力し(ST1)、それから複数の静止画を作成して顔画像格納部3に格納する(ST2)。
【0090】
次に、特徴点情報設定部2にて複数の静止画の中から正面を向いている基準となる画像フレーム1枚を選択し手操作入力する(ST3)。この画像フレームは顔向き計算で基準として用いられる座標系を定義する際にも利用される。
【0091】
次に、特徴点情報設定部2にて正面向きフレームを含む、数フレームの画像に対して手操作にて特徴点座標を入力し(ST4)、テンプレートマッチングによる特徴点トラッキングにより、他の画像フレームの特徴点座標を検出する(ST5)。
【0092】
さらに、トラッキングにより検出された特徴点のマッチング誤り可能性を分析して、特徴点検出が成功している画像フレームを選択する(ST6)。
【0093】
次に、顔向き計算部4は、各画像フレームの特徴点の画像座標を利用して3次元顔形状の獲得と各画像フレームの顔向き計算を行う(ST7)。
【0094】
次に、座標系定義部6は、顔向き変化を最適に表現する座標系と回転角φ,θ,ψを定義し、各画像フレームの顔向きをこの回転角φ,θ,ψの数値として計算し、記録する(ST8)。ステップST8において、座標系の定義は鉛直軸の回りの顔の回転をψとする場合と、ステップST7にて得られた顔向き変化の頻度分布を考慮して、顔向き変化をなるべく1つの回転角ψで表すことができるように座標軸及び回転角φ,θ,ψを定義する場合がある。これにより、頑健性の高い正確な顔向き計算を行うことが可能となる。
【0095】
次に、顔向き分類部7は、回転角ψを右向き度と捉え、右向き度ψの値によって顔画像を分類し、分類結果をテンプレート作成部8へ送る(ST9)。
【0096】
さらに、テンプレート作成部8は分類結果に基づき、顔画像を縮小し主成分分析により次元圧縮を行い部分空間を求めることにより、各向き毎のテンプレートを作成し、格納及び出力する(ST10)。
【0097】
3.顔向き計算システムの一例
図3は、本実施形態における顔向き計算システム10の一例を示す構成図である。
【0098】
この顔向き計算システム10は、顔が映っている画像の入力を受け取り、2種類の顔向き計算の結果(概略結果、詳細結果)を出力するものであり、システム内部に、次元削減機能と2種類の向き計算機能を持つことが特徴である。
【0099】
具体的には、画像入力部11と、顔検出部12と、検出テンプレート格納部13と、概略向き計算部14と、次元削減部15と、詳細向き計算部16から構成され、これら構成部分の機能は、コンピュータに記憶されたプログラムによって実現される。
【0100】
画像入力部11は、単眼カメラから画像を受け取り、顔検出部12へ画像データを送る。
【0101】
顔検出部12は、検出テンプレート格納部13から顔検出用のテンプレートを受け取り、画像入力部11から画像を受け取り、顔領域を検出し、その結果を概略向き計算部14へ送る。
【0102】
検出テンプレート格納部13は、顔向きテンプレート作成システム1で作成されたテンプレートが格納され、必要に応じて顔検出部12へテンプレートを送る。
【0103】
概略向き計算部14は、顔領域検出の際に計算した各向き毎のテンプレートと画像データとの類似度に基づき、向きを計算し、出力する。
【0104】
次元削減部15は、予め顔向き毎に分類した顔画像を縮小し、主成分分析することにより得られた主な固有ベクトルを利用して部分空間を作成しておき、その部分空間へ射影することにより、画像データの次元削減を行い特徴ベクトルxを作成し、結果を詳細向き計算部16へ送る。
【0105】
詳細向き計算部16は、次元削減部15から受け取った特徴ベクトルxを顔向き関数f(x)に作用させ、f(x)の出力として顔の右向き度を計算し、詳細向きとして出力する。
【0106】
4.顔向き関数f(x)の学習手順
図4は、本実施形態における顔向き関数f(x)の学習手順を示す流れ図である。
【0107】
最初に、顔向き毎の顔画像を利用して、主成分分析により数本のベクトル、及び、それらのベクトルにより張られる部分空間vを求める(ST21)。
【0108】
次に、顔向きの回転角ψが対応づけられた各画像フレームを利用して、f(x)を学習させる(ST22)。ステップST22の学習を以下で詳しく説明する。
【0109】
すなわち、各画像フレームの顔領域画像を縮小してさらに部分空間vに射影して得られたベクトルxを各画像フレームの入力とし、各画像フレームに対応した顔向きの回転角ψを出力とし、この入出力の対を学習データとして、ψ=f(x)が成立するようにf(x)を学習させる。
【0110】
f(x)として、線形重回帰モデル、非線型重回帰モデル、多層パーセプトロンなどを利用する。学習の評価関数としては、各画像フレームの出力誤差の2乗和を用いたり、外れ値を考慮したロバスト推定における推定関数を適用する。
【0111】
線形重回帰モデルの例として、下記の式(19)で表される数理モデルが挙げられる。
【0112】
ここでx1、…、xnはベクトルxの各成分を表すものとする。学習するパラメータは、a0、a1、…、anである。
【0113】
非線型重回帰モデルの例として、式(20)で表される数理モデルが挙げられる。学習するパラメータは、a0、a1、…、am、ω11、…、ωmn、θ1、…、θmである。
【0114】
多層パーセプトロンの例として、式(21)(22)で表される数理モデルが挙げられる。学習するパラメータはw0H1、…、w0Hm、wHI11、…、wHImn、θH1、…、θHm、θ0である。
【0115】
【数3】
5。顔向き計算処理の手順
図5は、本実施形態における顔向き計算処理の手順を示す流れ図である。
【0116】
最初に、画像入力部11に画像を入力する(ST31)。
【0117】
次に、顔検出部12が顔向き毎のテンプレートと入力画像とのマッチングを取り、顔位置検出を行い、顔位置検出の結果を用いて概略向き計算部14が顔向き計算(概略顔向き)を行う(ST32)。
【0118】
次に、次元削減部15が顔領域部分を縮小した画像を図4のステップST21で求めた部分空間vへ射影してベクトルxを求める(ST33)。
【0119】
次に、詳細向き計算部16が顔向き関数f(x)を用いてベクトルxから回転角ψを計算し、詳細な顔向きの値として出力する(ST34)。
【0120】
次に、顔向き計算処理を続ける場合はステップST31へ戻り、続けない場合は顔向き計算処理を終了する(ST35)。
【0121】
(第2の実施形態)
以下、本発明の第2の実施形態について、図6〜図8に基づいて説明する。
【0122】
図6は、本発明の第2の実施形態に係る顔画像による顔向き計算方法の一例を示す顔向き計算システム20の構成図である。
【0123】
図7、8は顔全体テンプレート対応領域31と、部分テンプレート対応領域32と、特徴点33との位置関係を説明する為の概念図である。図7はカメラに対して真っ直ぐに向いている顔画像であり、図8は少し左を向いた(図に向かっては右)顔画像である。
【0124】
顔向き計算システム20は、顔が映っている画像の入力を受け取り、2種類の顔向き計算の結果(概略結果、詳細結果)を出力するものであり、詳細な顔向き計算方法として、部分空間における関数近似の手法に加えて、階層的テンプレートマッチングの技術を用いる。
【0125】
具体的には、画像入力部11と、顔検出部12と、検出テンプレート格納部23と、概略向き計算部14と、次元削減部15と、詳細向き計算部26と、断片マッチング部27から構成されている。なお、第1の実施形態の構成を示す図3と同一部分には同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0126】
検出テンプレート格納部23は、顔向きテンプレート作成システム1で作成されたテンプレートが格納され、必要に応じて顔検出部12と断片マッチング部27へテンプレートを送る。テンプレートとして、顔全体パターンのテンプレートに加え、顔全体の大きさと特徴点トラッキングに用いるテンプレートの大きさの中間程度の大きさの小領域テンプレートを格納している。
【0127】
詳細向き計算部26は、次元削減部15から入力画像に対応したベクトルxを受け取り、断片マッチング部27から小さいテンプレートの顔全体テンプレートに対する相対位置座標データyを受け取り、顔向き関数g(x、y)を用いてベクトルx、yから回転角ψを計算し、詳細な顔向きの値として出力する。
【0128】
相対位置座標とは、図7、8において、顔全体テンプレート対応領域31を基準とした部分テンプレート対応領域32の座標を表す。図7に比べて図8では、右目の相対座標はXCが不変、YCが減少しており、左目の相対座標はXCが減少、YCが増加しており、鼻の相対座標はXCが増加、YCが不変であり、右口端の相対座標はXCが減少、YCが不変であり、左口端の相対座標はXCが減少、YCが増加している。このように、大きなテンプレートがマッチする位置を基準にした小さなテンプレートのマッチ位置の変化に顔向きに関係した情報が含まれており、それを利用して顔向きを計算することができる。
【0129】
断片マッチング部27は、概略向き計算部26から顔検出位置を受け取り、検出テンプレート格納部23から小領域テンプレートを受け取り、テンプレートマッチングを行い、マッチ位置を詳細向き計算部26へ送る。
【0130】
(第3の実施形態)
図13は、本発明の第3の実施形態における顔向き計算システム40の一例を示す構成図である。
【0131】
本実施形態は、特徴点トラッキングによる顔向き推定である。
【0132】
この顔向き計算システム40は、顔が映っている画像の入力を受け取り、顔向き計算の結果を出力するものであり、システム内部にH座標計算部43を持つことが特徴である。
【0133】
具体的には、画像入力部11と、特徴点検出部41と、幾何的向き計算部42と、H座標計算部43から構成され、これら構成部分の機能は、コンピュータに記憶されたプログラムによって実現される。
【0134】
画像入力部11は、単眼カメラから画像を受け取り、特徴点検出部41へ画像データを送る。
【0135】
特徴点検出部41は、画像データから目や鼻などの特徴点33の座標を検出し、その結果を幾何的向き計算部42へ送る。
【0136】
幾何的向き計算部42は、カメラ座標を基準とした顔向きを計算し、その結果をH座標計算部43へ送る。
【0137】
H座標計算部43は、カメラ座標を基準とした顔向き計算結果を式(17)を利用してH座標における顔向きに変換する計算処理を行い、結果を詳細向き出力として出力する。
【0138】
【発明の効果】
上記したように本発明によれば、顔向きの変化の特性を利用することにより、頑健性が高く、利用し易い顔画像による顔向き計算方法を提供することができる。また、予め所定の向きに対応した顔画像を採取する必要が無い。さらに、トラッキングの頑健性と、向き計算の精密性を兼ね備えものである。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る顔向きテンプレート作成システムの一例を示す構成図である。
【図2】同実施形態の顔向きテンプレート作成の一例を示す流れ図である。
【図3】同実施形態に係る顔向き計算システムの一例を示す構成図である。
【図4】同実施形態に係る顔向き関数の学習処理の一例を示す流れ図である。
【図5】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【図6】本発明の第2の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図7】同実施形態に係る階層テンプレートを説明する顔画像正面の概念図である。
【図8】同実施形態に係る階層テンプレートを説明する顔画像左向きの概念図である。
【図9】カメラ座標系を説明する概念図である。
【図10】カメラ座標系と顔画像との関係を説明する概念図である。
【図11】H座標系と顔画像との関係を説明する概念図である。
【図12】カメラ座標系とH座標系との関係を説明する概念図である。
【図13】第3の実施形態における顔向き計算システムの一例を示す構成図である。
【符号の説明】
1 顔向きテンプレート作成システム
2 特徴点情報設定部
3 顔画像格納部
4 顔向き計算部
5 テンプレート情報格納部
6 座標系定義部
7 顔向き分類部
8 テンプレート作成部
9 顔向きテンプレート格納部
10、20 顔向き計算システム
11 画像入力部
12 顔検出部
13、23 検出テンプレート格納部
14 概略向き計算部
15 次元削減部
16、26 詳細向き計算部
27 断片マッチング部
31 顔全体テンプレート対応領域
32 部分テンプレート対応領域
33 特徴点
Claims (7)
- 固定された単眼カメラで人物の顔を撮影して得た画像データを入力して、この画像データと顔の向きに関する情報が予め記憶されている複数の顔向きテンプレートとを比較して、その画像データに撮影されている顔の向きを計算するか、または、この画像データの特徴点を抽出してその特徴点の位置関係から顔の向きを計算する顔向き計算方法であって、
カメラ座標系を、前記単眼カメラのレンズの中心Cを原点としたXC軸、YC軸、ZC軸の直交座標系で設定し、前記ZC軸が光軸、前記XC軸が左右方向、YC軸が上下方向に対応し、
H座標系を、前記顔に固定されたXH軸、YH軸、ZH軸の直交座標系で設定し、顔の向きが正面向きのときの前記XH軸を身体の中心軸とし、この中心軸回りの回転である回旋の回転角をψとし、他の2つのYH軸、ZH軸回りの回転角をθ,φとした場合の回転角ψ,θ,φを顔の向きの変化である回転行列で表し、
前記顔向きの変化である回転行列を、前記カメラ座標系と前記H座標系との間の関係及び前記単眼カメラのカメラ回転行列とから求め、
前記画像データの中から、最も頻度の高い顔の向きを正面向きと定義すると共に、前記定義された正面向きの顔に対しては、3つの回転角ψ,θ,φの全てについて0を出力し、
前記画像データの中から、前記中心軸を中心にのみ回転した顔に対しては、その回転角ψを出力し、他の2つの回転角θ,φについて0に近い値を出力する
ことを特徴とする顔向き計算方法。 - 前記身体の中心軸が、鉛直軸、または、前記画像データに基づいて最も回転する方向の中心軸である
ことを特徴とする請求項1記載の顔向き計算方法。 - 前記顔向きテンプレートを作成する場合には、
様々な方向を向いた顔を撮影した複数の画像データを入力し、
前記複数の画像データを、回転角ψによって複数のクラスに分類し、
前記分類された画像データを用いてクラス毎にテンプレートを作成する
ことを特徴とする請求項1記載の顔向き計算方法。 - 前記画像データを回転角ψによって複数のクラスに分類し、
この分類された画像データを主成分分析し、
前記主成分分析された第1主成分から第n主成分までを入力ベクトルxとして、回転角ψを出力する関数f(x)を学習させ、
前記学習したf(x)を利用して顔の向きを計算する
ことを特徴とする請求項1記載の顔向き計算方法。 - 前記カメラ回転行列を因子分解法によって求める
ことを特徴とする請求項1記載の顔向き計算方法。 - 固定された単眼カメラで人物の顔を撮影して得た画像データを入力して、この画像データと顔の向きに関する情報が予め記憶されている複数の顔向きテンプレートとを比較して、その画像データに撮影されている顔の向きを計算するか、または、この画像データの特徴点を抽出してその特徴点の位置関係から顔の向きを計算する顔向き計算装置であって、
カメラ座標系を、前記単眼カメラのレンズの中心Cを原点としたXC軸、YC軸、ZC軸の直交座標系で設定し、前記ZC軸が光軸、前記XC軸が左右方向、YC軸が上下方向に対応し、
H座標系を、前記顔に固定されたXH軸、YH軸、ZH軸の直交座標系で設定し、顔の 向きが正面向きのときの前記XH軸を身体の中心軸とし、この中心軸回りの回転である回旋の回転角をψとし、他の2つのYH軸、ZH軸回りの回転角をθ,φとした場合の回転角ψ,θ,φを顔の向きの変化である回転行列で表し、
前記顔向きの変化である回転行列を、前記カメラ座標系と前記H座標系との間の関係及び前記単眼カメラのカメラ回転行列とから求め、
前記画像データの中から、最も頻度の高い顔の向きを正面向きと定義すると共に、前記定義された正面向きの顔に対しては、3つの回転角ψ,θ,φの全てについて0を出力し、
前記画像データの中から、前記中心軸を中心にのみ回転した顔に対しては、その回転角ψを出力し、他の2つの回転角θ,φについて0に近い値を出力する
ことを特徴とする顔向き計算装置。 - 固定された単眼カメラで人物の顔を撮影して得た画像データを入力して、この画像データと顔の向きに関する情報が予め記憶されている複数の顔向きテンプレートとを比較して、その画像データに撮影されている顔の向きを計算するか、または、この画像データの特徴点を抽出してその特徴点の位置関係から顔の向きを計算する顔向き計算方法をコンピュータによって実現するプログラムであって、
カメラ座標系を、前記単眼カメラのレンズの中心Cを原点としたXC軸、YC軸、ZC軸の直交座標系で設定し、前記ZC軸が光軸、前記XC軸が左右方向、YC軸が上下方向に対応し、
H座標系を、前記顔に固定されたXH軸、YH軸、ZH軸の直交座標系で設定し、顔の向きが正面向きのときの前記XH軸を身体の中心軸とし、この中心軸回りの回転である回旋の回転角をψとし、他の2つのYH軸、ZH軸回りの回転角をθ,φとした場合の回転角ψ,θ,φを顔の向きの変化である回転行列で表し、
前記顔向きの変化である回転行列を、前記カメラ座標系と前記H座標系との間の関係及び前記単眼カメラのカメラ回転行列とから求め、
前記画像データの中から、最も頻度の高い顔の向きを正面向きと定義すると共に、前記定義された正面向きの顔に対しては、3つの回転角ψ,θ,φの全てについて0を出力し、
前記画像データの中から、前記中心軸を中心にのみ回転した顔に対しては、その回転角ψを出力し、他の2つの回転角θ,φについて0に近い値を出力する機能とを実現する
ことを特徴とする顔向き計算方法のプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001335663A JP3822482B2 (ja) | 2001-10-31 | 2001-10-31 | 顔向き計算方法及びその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001335663A JP3822482B2 (ja) | 2001-10-31 | 2001-10-31 | 顔向き計算方法及びその装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003141551A JP2003141551A (ja) | 2003-05-16 |
JP3822482B2 true JP3822482B2 (ja) | 2006-09-20 |
Family
ID=19150618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001335663A Expired - Fee Related JP3822482B2 (ja) | 2001-10-31 | 2001-10-31 | 顔向き計算方法及びその装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3822482B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7620202B2 (en) * | 2003-06-12 | 2009-11-17 | Honda Motor Co., Ltd. | Target orientation estimation using depth sensing |
KR100556856B1 (ko) * | 2003-06-14 | 2006-03-10 | 엘지전자 주식회사 | 이동통신 단말기에서 화면 제어 방법 및 장치 |
WO2006051607A1 (ja) | 2004-11-12 | 2006-05-18 | Omron Corporation | 顔特徴点検出装置、特徴点検出装置 |
JP4093273B2 (ja) | 2006-03-13 | 2008-06-04 | オムロン株式会社 | 特徴点検出装置、特徴点検出方法および特徴点検出プログラム |
JP4781181B2 (ja) * | 2006-07-07 | 2011-09-28 | 株式会社ソニー・コンピュータエンタテインメント | ユーザインタフェースプログラム、装置および方法、情報処理システム |
JP5034623B2 (ja) * | 2007-04-06 | 2012-09-26 | 富士通株式会社 | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
JP4971015B2 (ja) * | 2007-04-10 | 2012-07-11 | 株式会社デンソー | 推定装置 |
JP2009277027A (ja) * | 2008-05-15 | 2009-11-26 | Seiko Epson Corp | 画像における顔の器官の画像に対応する器官領域の検出 |
KR101791604B1 (ko) | 2012-09-11 | 2017-10-30 | 삼성전자주식회사 | 헤드 포지션 추정 방법 및 장치, 컴퓨터 판독가능 저장 매체 |
US9834221B2 (en) * | 2012-10-19 | 2017-12-05 | Autoliv Development Ab | Driver attentiveness detection method and device |
JP6261430B2 (ja) | 2014-04-01 | 2018-01-17 | キヤノン株式会社 | 撮像装置及び画像処理システム |
CN112825145B (zh) * | 2019-11-20 | 2022-08-23 | 上海商汤智能科技有限公司 | 人体朝向检测方法、装置、电子设备和计算机存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06266840A (ja) * | 1993-03-11 | 1994-09-22 | Hitachi Ltd | 移動物体の状態検出装置 |
JP3252941B2 (ja) * | 1994-11-29 | 2002-02-04 | 日本電信電話株式会社 | 画像切り出し認識装置 |
JPH09163212A (ja) * | 1995-12-08 | 1997-06-20 | Sony Corp | 撮像装置 |
KR100229538B1 (ko) * | 1996-12-27 | 1999-11-15 | 전주범 | 얼글 움직임을 인코딩하기 위한 방법 및 장치한 방법 및 장치 |
JPH1125269A (ja) * | 1997-07-02 | 1999-01-29 | Sanyo Electric Co Ltd | 顔画像認識装置及びその方法 |
WO2000055811A1 (fr) * | 1999-03-12 | 2000-09-21 | Sony Corporation | Processeur de donnees, procede de traitement de donnees, et support d'enregistrement |
-
2001
- 2001-10-31 JP JP2001335663A patent/JP3822482B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003141551A (ja) | 2003-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414798B (zh) | 基于rgb-d图像的头部姿态检测方法及系统 | |
Fischer et al. | Rt-gene: Real-time eye gaze estimation in natural environments | |
CN102830793B (zh) | 视线跟踪方法和设备 | |
US7860340B2 (en) | Three-dimensional shape estimation system and image generation system | |
CN111783820A (zh) | 图像标注方法和装置 | |
CN109271914A (zh) | 检测视线落点的方法、装置、存储介质和终端设备 | |
Selim et al. | AutoPOSE: Large-scale Automotive Driver Head Pose and Gaze Dataset with Deep Head Orientation Baseline. | |
CN107813310A (zh) | 一种基于双目视觉多手势机器人控制方法 | |
JP4466951B2 (ja) | 立体結合顔形状の位置合わせ | |
CN103810475B (zh) | 一种目标物识别方法及装置 | |
JP3822482B2 (ja) | 顔向き計算方法及びその装置 | |
JP2005327076A (ja) | パラメタ推定方法、パラメタ推定装置および照合方法 | |
CN110378182B (zh) | 图像解析装置、图像解析方法及记录介质 | |
CN111553284A (zh) | 人脸图像处理方法、装置、计算机设备和存储介质 | |
JP6897082B2 (ja) | 顔向き推定用コンピュータプログラム、顔向き推定装置及び顔向き推定方法 | |
Kazemi et al. | Real-time face reconstruction from a single depth image | |
JP2017123087A (ja) | 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法 | |
Yu et al. | A video-based facial motion tracking and expression recognition system | |
CN110647782A (zh) | 三维人脸重建与多姿态人脸识别方法及装置 | |
Achenbach et al. | Accurate Face Reconstruction through Anisotropic Fitting and Eye Correction. | |
Ugrinovic et al. | Body size and depth disambiguation in multi-person reconstruction from single images | |
Rekik et al. | 3d face pose tracking using low quality depth cameras | |
WO2022018811A1 (ja) | 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム | |
CN108694348B (zh) | 一种基于自然特征的跟踪注册方法及装置 | |
Martins et al. | Monocular head pose estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 3822482 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090630 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100630 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110630 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120630 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130630 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |