JP2010020594A - 瞳画像認識装置 - Google Patents
瞳画像認識装置 Download PDFInfo
- Publication number
- JP2010020594A JP2010020594A JP2008181346A JP2008181346A JP2010020594A JP 2010020594 A JP2010020594 A JP 2010020594A JP 2008181346 A JP2008181346 A JP 2008181346A JP 2008181346 A JP2008181346 A JP 2008181346A JP 2010020594 A JP2010020594 A JP 2010020594A
- Authority
- JP
- Japan
- Prior art keywords
- pupil
- eye
- image
- face
- end point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】顔画像の中から瞳の位置を特定する瞳画像認識装置において、特に顔向きのある非正面顔を対象とする場合でも高精度な瞳の抽出を実現する構成を得る。
【解決手段】瞳画像認識装置において、撮像画像に含まれる顔画像を検出しその存在位置座標と大きさを出力する顔検出部1と、顔検出部から出力された顔画像の領域を探索領域とし顔画像を複数に分割した各分割顔画像と目端点画像との類似度を比較し、輝度信号に基づくパターン照合により顔画像における目頭及び目尻の位置座標を抽出する目端点抽出部3と、パターン照合に用いる複数の目端点画像データを予め蓄積する蓄積部4と、目端点抽出部にて抽出された目頭及び目尻の位置座標に基づいて瞳が存在する位置を推定する瞳位置推定部5と、瞳位置推定部にて推定された瞳のおおよその存在位置付近で、予め定めた面積の小領域内の輝度の総和がより低い場所を探索する瞳位置探索部6を備える。
【選択図】図1
【解決手段】瞳画像認識装置において、撮像画像に含まれる顔画像を検出しその存在位置座標と大きさを出力する顔検出部1と、顔検出部から出力された顔画像の領域を探索領域とし顔画像を複数に分割した各分割顔画像と目端点画像との類似度を比較し、輝度信号に基づくパターン照合により顔画像における目頭及び目尻の位置座標を抽出する目端点抽出部3と、パターン照合に用いる複数の目端点画像データを予め蓄積する蓄積部4と、目端点抽出部にて抽出された目頭及び目尻の位置座標に基づいて瞳が存在する位置を推定する瞳位置推定部5と、瞳位置推定部にて推定された瞳のおおよその存在位置付近で、予め定めた面積の小領域内の輝度の総和がより低い場所を探索する瞳位置探索部6を備える。
【選択図】図1
Description
本発明は、撮像された画像内にあるオブジェクトの存在位置を特定する画像認識装置に関し、特に顔画像の中から瞳の位置を特定する瞳画像認識装置に関する。
人物を撮像した場合の撮像画像内での顔の位置及び大きさは、被写体との距離や方向により様々に異なる。撮像画像の顔画像内における顔の特徴量を安定的に取り出すためには、顔の切り出し位置と大きさが常に一定となるように正規化する必要がある。その場合の正規化の基準として、しばしば瞳が用いられる。したがって、瞳の抽出精度はそのまま後段の認識性能に影響を及ぼすため、高い精度が要求される。
顔画像の中から瞳の位置を特定するための代表的な瞳画像認識装置としては、例えば非特許文献1に記載された装置が提案されている。
この瞳画像認識装置は、図9に示すように、瞳形状を抽出するための形状抽出部91と、抽出した瞳形状と照合を行うパターン照合部92と、パターン照合部92において照合を行うためのデータが蓄積された蓄積部93から構成される。
この瞳画像認識装置は、図9に示すように、瞳形状を抽出するための形状抽出部91と、抽出した瞳形状と照合を行うパターン照合部92と、パターン照合部92において照合を行うためのデータが蓄積された蓄積部93から構成される。
形状抽出部91は、座標情報に基づいて特定された顔領域から分離度フィルタにより瞳の候補を抽出する。分離度フィルタは内側が黒で外周が白の形状を持つパターンを検出できるように構成されている。
パターン照合部92は部分空間法によるパターン照合により、挙げられた瞳の候補の中から正しい瞳だけを選択し、瞳の位置座標を特定する。ここで、部分空間法は、個人差を抑制し、精度良く照合を行うため、蓄積部93に蓄積された固有ベクトルが用いられる。したがって、蓄積部93には、予め多人数の人物の顔画像の中から瞳を中心とする目のテンプレート画像を切り出し、それらの集合が分布する部分空間を張る固有ベクトルが蓄積されている。
福井 和広、山口 修、"形状抽出とパターン照合の組合せによる顔特徴点抽出"電子情報通信学会論文誌(D−II)、vol. J80−D−II、No.8(1997)
パターン照合部92は部分空間法によるパターン照合により、挙げられた瞳の候補の中から正しい瞳だけを選択し、瞳の位置座標を特定する。ここで、部分空間法は、個人差を抑制し、精度良く照合を行うため、蓄積部93に蓄積された固有ベクトルが用いられる。したがって、蓄積部93には、予め多人数の人物の顔画像の中から瞳を中心とする目のテンプレート画像を切り出し、それらの集合が分布する部分空間を張る固有ベクトルが蓄積されている。
福井 和広、山口 修、"形状抽出とパターン照合の組合せによる顔特徴点抽出"電子情報通信学会論文誌(D−II)、vol. J80−D−II、No.8(1997)
しかしながら、上述した瞳画像認識装置による瞳形状を抽出する方法によれば、顔画像における瞳部分を含む画像が、顔向きによる見た目の変動の影響を大きく受けることが課題であった。例えば、図10の正面画像に対して左向き画像のように、顔向きが水平方向に大きく回転して横を向く場合、パターン照合の対象となる分割顔画像としての方形領域(左向き画像の拡大図)内に目尻側で髪の毛や背景が入る。このような場合、この方形領域(左向き画像の拡大図)と、瞳を中心としたテンプレートとして記憶される正面方向からの方形領域(正面画像の拡大図)との類似度は著しく低下し、瞳を正しく抽出できない場合が想定される。
本発明は上記実情に鑑みて提案されたもので、顔画像の中から瞳の位置を特定する瞳画像認識装置において、特に顔向きのある非正面顔を対象とする場合でも高精度な瞳の抽出を実現する構成を提供することを目的としている。
上記目的を達成するため本発明の瞳画像認識装置は、
(1)撮像画像に含まれる顔画像を検出し、その存在位置座標と大きさを出力する顔検出部と、
(2)比較基準となる右目尻、右目頭、左目頭、左目尻の目端点画像データを記憶する記憶部と、
(3)前記顔検出部から出力された顔画像の領域を探索領域とし、前記顔画像を複数に分割した各分割顔画像と前記目端点画像との類似度を比較し、輝度信号に基づくパターン照合により前記顔画像における目頭及び目尻の位置座標を抽出する目端点抽出部と、
(4)前記目端点抽出部にて抽出された目頭及び目尻の位置座標に基づいて瞳が存在する位置を推定する瞳位置推定部と、
を具備することを特徴としている。
(1)撮像画像に含まれる顔画像を検出し、その存在位置座標と大きさを出力する顔検出部と、
(2)比較基準となる右目尻、右目頭、左目頭、左目尻の目端点画像データを記憶する記憶部と、
(3)前記顔検出部から出力された顔画像の領域を探索領域とし、前記顔画像を複数に分割した各分割顔画像と前記目端点画像との類似度を比較し、輝度信号に基づくパターン照合により前記顔画像における目頭及び目尻の位置座標を抽出する目端点抽出部と、
(4)前記目端点抽出部にて抽出された目頭及び目尻の位置座標に基づいて瞳が存在する位置を推定する瞳位置推定部と、
を具備することを特徴としている。
上記構成の瞳画像認識装置によれば、従来例のように、白黒パターンの検出によるパターン照合によって直接瞳を抽出するのではなく、目端点抽出部におけるパターン照合によって目の端点(目頭および目尻)を抽出し、その結果に基づき瞳位置推定部において瞳の存在位置を推定することで瞳を抽出する点に特徴がある。
目端点抽出部におけるパターン照合による目の端点の抽出は、右目尻・右目頭・左目頭・左目尻と個別に切り替えて行う。
目端点抽出部におけるパターン照合による目の端点の抽出は、右目尻・右目頭・左目頭・左目尻と個別に切り替えて行う。
また、瞳画像認識装置における記憶部は、目端点抽出部において行われるパターン照合に用いる複数の目端点画像データを予め蓄積する蓄積部であることが好ましい。
蓄積部に予め多人数の人物の顔画像の中から目頭及び目尻の目端点画像データを蓄積することで、個人差を抑制して精度良く照合を行うことができる。
蓄積部に予め多人数の人物の顔画像の中から目頭及び目尻の目端点画像データを蓄積することで、個人差を抑制して精度良く照合を行うことができる。
また、瞳画像認識装置は、前記顔検出部から出力された顔の存在位置座標とその大きさに基づき、前記撮像画像から顔を含む領域を切り出し、前記蓄積部に蓄積された複数の目端点画像データに基づいて顔画像領域の面積を正規化する探索領域正規化部を備えていることが好ましい。
探索領域正規化部において顔画像領域の面積を正規化することで、蓄積部に予め蓄積された目端点画像データと探索領域(顔画像領域)に含まれる目の端点の大きさを合わせることができ、目端点抽出部におけるパターン照合に際して、精度が良好な照合を行うことが可能となる。
探索領域正規化部において顔画像領域の面積を正規化することで、蓄積部に予め蓄積された目端点画像データと探索領域(顔画像領域)に含まれる目の端点の大きさを合わせることができ、目端点抽出部におけるパターン照合に際して、精度が良好な照合を行うことが可能となる。
また、瞳画像認識装置は、前記分割顔画像を局所領域における輝度の勾配方向をヒストグラム化したHOG(Histograms of oriented gradients)特徴量に変換する特徴量変換部を備え、前記目端点抽出部において行われるパターン照合が輝度信号ではなく前記HOG特徴量により行われることを特徴としている。
目端点抽出部においてHOG特徴量によりパターン照合が行われることで、肌の領域が多く含まれテクスチャが緩やかに変化するためにパターン照合がより難しい目の端点領域についても、精度良くパターン照合を行って目の端点を抽出することが可能となる。
目端点抽出部においてHOG特徴量によりパターン照合が行われることで、肌の領域が多く含まれテクスチャが緩やかに変化するためにパターン照合がより難しい目の端点領域についても、精度良くパターン照合を行って目の端点を抽出することが可能となる。
また、瞳画像認識装置は、前記瞳位置推定部にて推定された瞳のおおよその存在位置付近で、予め定めた面積の小領域内の輝度の総和がより低い場所を探索する瞳位置探索部を備えることで、瞳の詳細な位置を特定することが可能となる。
前記瞳位置探索部において行われる探索は、前記瞳位置推定部にて推定された瞳のおおよその存在位置を始点とし、この始点が含まれる着目画素及び着目画素の近傍8画素への再帰的な局所探索により実行されるようにする。
本発明の瞳画像認識装置によれば、撮像画像から直接瞳を抽出するのではなく、先に目の端点(目頭及び目尻)を抽出し、その結果に基づいて瞳の位置を推定して抽出する。したがって、顔向きによる見た目の変化から目頭又は目尻のうちいずれか一方が抽出できない場合でも、もう一方が抽出できる可能性が高く、目頭又は目尻のうち抽出されたいずれか一方の位置座標から瞳のおおよその位置が推定できるため、顔向きのある非正面顔を対象とする場合でも高精度に瞳を抽出できる。
また、特徴量変換部を備えた瞳画像認識装置の構成によれば、顔画像における目端点付近の領域は、抽出対象の明暗がはっきりした瞳部分とは異なり、肌の領域が多く含まれテクスチャが緩やかに変化するためにパターン照合がより難しいが、HOG特徴量によりパターン照合が行われることで、目の端点についても精度が良好に抽出することができる。
したがって、正面向きに限らず、顔向きのある非正面顔を対象とする場合でも高精度に瞳を抽出し、顔向きに依らず顔の切り出し位置と大きさが常に一定となるような正規化が実現可能となり、顔の特徴量を常に安定して取り出せるという効果が得られる。
したがって、正面向きに限らず、顔向きのある非正面顔を対象とする場合でも高精度に瞳を抽出し、顔向きに依らず顔の切り出し位置と大きさが常に一定となるような正規化が実現可能となり、顔の特徴量を常に安定して取り出せるという効果が得られる。
本発明を実施するための最良の形態の一例について、図面を参照しながら説明する。
図1は本発明を適用した瞳画像認識装置の主要部の構成を示したブロック図であり、撮影された画像から、顔画像、目の端点(右目尻、右目頭、左目頭、右目尻)の位置、瞳の位置を順次段階的に抽出し、撮像画像内における瞳の位置座標を最終的な認識結果として出力するものである。
図1は本発明を適用した瞳画像認識装置の主要部の構成を示したブロック図であり、撮影された画像から、顔画像、目の端点(右目尻、右目頭、左目頭、右目尻)の位置、瞳の位置を順次段階的に抽出し、撮像画像内における瞳の位置座標を最終的な認識結果として出力するものである。
瞳画像認識装置は、顔画像を検出して出力する顔検出部1と、顔画像から顔を含む領域を切り出し、後段の処理のために適切な大きさに正規化して出力する探索領域正規化部2と、部分空間法によるパターン照合により目頭及び目尻を抽出する目端点抽出部3と、部分空間法に用いる固有ベクトルを蓄積する蓄積部4と、目頭及び目尻の位置座標から瞳が存在するおおよその位置を推定する瞳位置推定部5と、瞳のおおよその存在位置付近を局所探索し瞳の詳細な位置を特定する瞳位置探索部6を備えて構成されている。
固定点カメラ等により撮像された撮像画像は、顔検出部1、探索領域正規化部2、瞳位置探索部6に対してそれぞれ出力されている。
また、顔検出部1、探索領域正規化部2、瞳位置探索部6に入力される撮像画像は、ネットワーク経由でデータが送信されるものであってもよい。
固定点カメラ等により撮像された撮像画像は、顔検出部1、探索領域正規化部2、瞳位置探索部6に対してそれぞれ出力されている。
また、顔検出部1、探索領域正規化部2、瞳位置探索部6に入力される撮像画像は、ネットワーク経由でデータが送信されるものであってもよい。
顔検出部1は、例えば図2(正面人物画像)又は図3(左向きの人物画像)に示されるような撮像画像を取り込み、撮像画像内に含まれる顔領域を顔画像として検出し、その存在位置座標と大きさを出力する。本例では、非特許文献2に記載された公知の顔画像検出方法に基づいて顔領域の座標情報が出力される。この顔画像検出方法によれば、顔領域が長方形で規定される場合、座標情報とは顔領域の左上座標(fx,fy)、幅(fw)及び高さ(fh)が位置座標として出力される。なお、複数の顔領域が検出された場合は、各顔領域の位置座標の情報が出力される。
P. Viola, M.J. Jones, "Robust real-time object detection," in: Second International Workshop on Theories of Visual Modeling, Learning, Computing, and Sampling, 2001.
P. Viola, M.J. Jones, "Robust real-time object detection," in: Second International Workshop on Theories of Visual Modeling, Learning, Computing, and Sampling, 2001.
探索領域正規化部2は、顔検出部1にて出力された顔の存在位置座標とその大きさに基づき、撮像画像から顔領域を含む顔画像を切り出す。また、切り出された顔画像は後段の処理のために適切な大きさに正規化して、探索領域として出力される。
具体的には撮像画像から、左上座標が(fx,fy)、右下座標が(fx+fw,fy+fh)、で規定される方形領域を切り出す。切り出された幅がfw、高さがfhの画像は、その短い方の一辺min(fw,fw)が常に一定の設定された大きさSNormになるように縦横同じ倍率A=SNorm/min(fw、fw)で縮小する。
例えば、fw=fh=200、SNorm=50の場合、倍率A=50/200=1/4で縮小し、幅50高さ50に正規化された探索領域が得られる。
後段の処理のために適切な大きさを実現するためには、正規化サイズSNormは、後述する蓄積部4に蓄積された固有ベクトルを作成する際に設定した、目の端点のサンプル画像の大きさに合わせる。
具体的には撮像画像から、左上座標が(fx,fy)、右下座標が(fx+fw,fy+fh)、で規定される方形領域を切り出す。切り出された幅がfw、高さがfhの画像は、その短い方の一辺min(fw,fw)が常に一定の設定された大きさSNormになるように縦横同じ倍率A=SNorm/min(fw、fw)で縮小する。
例えば、fw=fh=200、SNorm=50の場合、倍率A=50/200=1/4で縮小し、幅50高さ50に正規化された探索領域が得られる。
後段の処理のために適切な大きさを実現するためには、正規化サイズSNormは、後述する蓄積部4に蓄積された固有ベクトルを作成する際に設定した、目の端点のサンプル画像の大きさに合わせる。
また、顔検出部1、探索領域正規化部2、瞳位置探索部6に入力される画像がネットワーク経由で送信されることで、顔の大きさが標準化されたデータが供給される場合には、探索領域正規化部2によって正規化する必要がないので、探索領域正規化部2を省くことができる。
また、顔検出部1、探索領域正規化部2、瞳位置探索部6に入力される画像が固定カメラからの撮像画像であっても、例えば被写体までの距離が常時一定となるような構成であれば、撮像画像中の顔の大きさがほぼ一定となり、探索領域正規化部2によって正規化する必要がない場合も考えられる。
また、顔検出部1、探索領域正規化部2、瞳位置探索部6に入力される画像が固定カメラからの撮像画像であっても、例えば被写体までの距離が常時一定となるような構成であれば、撮像画像中の顔の大きさがほぼ一定となり、探索領域正規化部2によって正規化する必要がない場合も考えられる。
目端点抽出部3は、探索領域正規化部2により正規化された探索領域画像から、部分空間法によるパターン照合により目頭および目尻を抽出する。
ここで、部分空間法について簡単に説明する。
目の端点の画像を空間上の位置ベクトルと見做す。予め目の端点の画像の集合が分布する空間を複数の固有ベクトルで張られる部分空間で表現する。ここで、入力ベクトルを部分空間に射影したときの射影角度φは、入力ベクトルが目の端点にどれだけ類似しているかを表し、φの値が小さいほど類似している、と言える。入力ベクトルの正射影は射影角度φの余弦cosφであるため、正射影が1に近い入力ベクトルは目の端点である、と判断できる。
ここで、部分空間法について簡単に説明する。
目の端点の画像を空間上の位置ベクトルと見做す。予め目の端点の画像の集合が分布する空間を複数の固有ベクトルで張られる部分空間で表現する。ここで、入力ベクトルを部分空間に射影したときの射影角度φは、入力ベクトルが目の端点にどれだけ類似しているかを表し、φの値が小さいほど類似している、と言える。入力ベクトルの正射影は射影角度φの余弦cosφであるため、正射影が1に近い入力ベクトルは目の端点である、と判断できる。
すなわち、探索領域画像内について、左上端を始点として左から右方向、上から下方向へ順次走査するラスタースキャンの順に方形領域をスライドさせて分割顔画像として切り出し、切り出された方形ベクトルを入力ベクトルとして、目の端点の部分空間との類似度を測定することで目の端点を探索する。探索領域内で類似度が最大の方形領域が、設定されたしきい値を超えた類似度であれば、その方形領域を目の端点と判断する。目の端点は、右目尻、右目頭、左目頭、左目尻のそれぞれで個別に部分空間を求め、順次抽出し、探索領域画像内の座標を特定する。特定された目の端点の座標は、探索領域画像内の座標系から元の入力画像(撮像画像)の座標系へと変換する。
また、探索領域画像内におけるスキャン方法としては、ラスタースキャンではなく、予め右目尻、右目頭、左目頭、左目尻が存在する可能性がある一定範囲の設定領域をそれぞれ記憶しておき、各部位に応じて各設定領域内だけから分割画像を切り出す設定領域スキャンにより行ってもよい。このスキャン方法によれば、探索範囲が各設定範囲に絞り込まれることで、誤検出の低下及び処理時間の短縮を実現することができる。
また、探索領域画像内におけるスキャン方法としては、ラスタースキャンではなく、予め右目尻、右目頭、左目頭、左目尻が存在する可能性がある一定範囲の設定領域をそれぞれ記憶しておき、各部位に応じて各設定領域内だけから分割画像を切り出す設定領域スキャンにより行ってもよい。このスキャン方法によれば、探索範囲が各設定範囲に絞り込まれることで、誤検出の低下及び処理時間の短縮を実現することができる。
蓄積部4は、目端点抽出部3において行われる部分空間法に用いる固有ベクトルを蓄積している。すなわち、目の端点の画像の集合が分布する部分空間を張る固有ベクトルを求めるために、様々な人物の目端点画像データを収集して蓄積する。この結果、個人差による変動の影響が低減された目の端点の抽出が部分空間法により実現される。
蓄積される目端点画像データは、探索領域正規化部2にて生成される正規化された探索領域の大きさに整合するように、拡大縮小して方形領域を切り出したものを使用する。収集したサンプルは、右目尻、右目頭、左目頭、左目尻のそれぞれで個別に主成分分析を適用して固有ベクトルを求める。図2に、人物に対する正面画像から切り出した右目尻(RO)、右目頭(RI)、左目頭(LI)、左目尻(LO)の目端点画像データの一例を示す。
蓄積される目端点画像データは、探索領域正規化部2にて生成される正規化された探索領域の大きさに整合するように、拡大縮小して方形領域を切り出したものを使用する。収集したサンプルは、右目尻、右目頭、左目頭、左目尻のそれぞれで個別に主成分分析を適用して固有ベクトルを求める。図2に、人物に対する正面画像から切り出した右目尻(RO)、右目頭(RI)、左目頭(LI)、左目尻(LO)の目端点画像データの一例を示す。
目端点抽出部3におけるパターン照合を行う際の比較基準となる目端点画像データがネットワーク経由で順次供給されるような場合は、様々な人物の目端点画像データを蓄積する蓄積部4は不要となる。この場合には、切り出された方形領域である分割顔画像とのパターン照合を行うために、ネットワーク経由で送信された目端点画像データを一時的に記憶する記憶部が蓄積部4の代わりとして設けられている。
瞳位置推定部5は、前記目端点抽出部3で抽出された目頭および目尻の位置座標から瞳が存在するおおよその位置を推定する。目頭及び目尻の両端点が抽出された場合は、単純に両端点を結ぶ中点を瞳の中心と推定できる。顔向きによる見た目の変化から目頭又は目尻のうちいずれか一方が抽出できなかった場合でも、もう一方は抽出できる可能性が高いため、抽出された目頭又は目尻のうちいずれか一方の位置座標から瞳の中心のおおよその位置を推定することができる。
瞳位置推定部5における具体的な瞳位置の推定の仕方について、図3を参照しながら説明する。
図3に示すように、顔が左を向いた場合、髪の毛や背景の影響により目尻の抽出が困難となる一方、目頭抽出の阻害要因は少ないため、目頭は抽出できる可能性が高い。したがって、目尻が抽出できなかった場合、抽出された目頭の位置座標と検出された顔の大きさから瞳のおおよその存在位置を推定できる。
具体的には、検出された顔幅がfwである場合、目頭位置からa×fw離れた位置を瞳の中心位置と推定する。顔幅fwに乗算するパラメータaは、顔幅に対する目頭・瞳間の距離の割合を多数の顔画像データから算出した値(0≦a≦1)であり、予め瞳位置推定部5に記憶させておく。
図3に示すように、顔が左を向いた場合、髪の毛や背景の影響により目尻の抽出が困難となる一方、目頭抽出の阻害要因は少ないため、目頭は抽出できる可能性が高い。したがって、目尻が抽出できなかった場合、抽出された目頭の位置座標と検出された顔の大きさから瞳のおおよその存在位置を推定できる。
具体的には、検出された顔幅がfwである場合、目頭位置からa×fw離れた位置を瞳の中心位置と推定する。顔幅fwに乗算するパラメータaは、顔幅に対する目頭・瞳間の距離の割合を多数の顔画像データから算出した値(0≦a≦1)であり、予め瞳位置推定部5に記憶させておく。
目端点抽出部3で抽出された目頭及び目尻の位置座標から瞳位置推定部5において瞳が存在するおおよその位置を推定する処理についてまとめると、図4に示すようになる。ただし、検出された顔の大きさの水平方向の長さ(顔幅)をfw、瞳の位置推定のためのパラメータをa(0≦a≦1)とする。
目端点抽出部3で抽出された右目尻の座標を(ROx,ROy)、右目頭の座標を(Rlx,Rly)とした時、右目尻及び右目頭の抽出が共に成功した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが(ROx+Rlx)/2
右瞳のy座標RWyが(ROy+Rly)/2
となる。
右目尻の抽出に成功し右目頭の抽出に失敗した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが ROx+a×fw
右瞳のy座標RWyが ROy
となる。
右目尻の抽出に失敗し右目頭の抽出に成功した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが Rlx−a×fw
右瞳のy座標RWyが Rly
となる。
目端点抽出部3で抽出された右目尻の座標を(ROx,ROy)、右目頭の座標を(Rlx,Rly)とした時、右目尻及び右目頭の抽出が共に成功した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが(ROx+Rlx)/2
右瞳のy座標RWyが(ROy+Rly)/2
となる。
右目尻の抽出に成功し右目頭の抽出に失敗した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが ROx+a×fw
右瞳のy座標RWyが ROy
となる。
右目尻の抽出に失敗し右目頭の抽出に成功した場合の右瞳の中心座標(RWx,RWy)の推定位置は、
右瞳のx座標RWxが Rlx−a×fw
右瞳のy座標RWyが Rly
となる。
同様に、目端点抽出部3で抽出された左目尻の座標を(LOx,LOy)、左目頭の座標を(Llx,Lly)とした時、左目尻及び左目頭の抽出が共に成功した場合の左瞳の中心座標(LWx,LWy)の推定位置は、
左瞳のx座標LWxが(Llx+LOx)/2
左瞳のy座標LWyが(Lly+LOy)/2
となる。
左目頭の抽出に成功し左目尻の抽出に失敗した場合の左瞳の中心座標(LWx,LWy)の推定位置は、
左瞳のx座標LWxが Llx+a×fw
左瞳のy座標LWyが Lly
となる。
左目頭の抽出に失敗し左目尻の抽出に成功した場合の左瞳の中心座標(LWx,LWy)の推定位置は、
左瞳のx座標LWxが LOx−a×fw
左瞳のy座標LWyが LOy
となる。
左瞳のx座標LWxが(Llx+LOx)/2
左瞳のy座標LWyが(Lly+LOy)/2
となる。
左目頭の抽出に成功し左目尻の抽出に失敗した場合の左瞳の中心座標(LWx,LWy)の推定位置は、
左瞳のx座標LWxが Llx+a×fw
左瞳のy座標LWyが Lly
となる。
左目頭の抽出に失敗し左目尻の抽出に成功した場合の左瞳の中心座標(LWx,LWy)の推定位置は、
左瞳のx座標LWxが LOx−a×fw
左瞳のy座標LWyが LOy
となる。
上述の例では、目尻及び目頭の抽出が共に成功した場合の瞳の中心座標を抽出された目尻と目頭の中点(例えば右瞳の場合、(ROx+Rlx)/2、(ROy+Rly)/2)としたが、多数の目端点データから目尻及び目頭の各座標に対する瞳の位置を解析することで、予め目尻及び目頭の各座標に重み(α、β、γ、δは任意の数)をつけた下記の式で算出するようにしてもよい。
右瞳のx座標RWx=(αROx+βRlx)/(α+β)
右瞳のy座標RWy=(γROy+δRly)/(γ+δ)
右瞳のx座標RWx=(αROx+βRlx)/(α+β)
右瞳のy座標RWy=(γROy+δRly)/(γ+δ)
上述した瞳位置の推定においては、パラメータaを1/8とすることで、精度良く瞳の位置を抽出することができた。ただし、同じ顔画像であっても顔検出器1の特性により、検出される顔の大きさは変わることがある。そのため、瞳の位置推定のためのパラメータaは、顔検出器1の特性に基づいて設定する。
目頭又は目尻の片方しか抽出できない場合でも、上述のような瞳位置を推定する処理を行うことで、顔向きによる見た目の変化が生じた場合においても瞳位置を抽出することが可能となる。
目頭又は目尻の片方しか抽出できない場合でも、上述のような瞳位置を推定する処理を行うことで、顔向きによる見た目の変化が生じた場合においても瞳位置を抽出することが可能となる。
瞳位置推定部5により瞳のおおよその位置を推定することができるが、瞳位置探索部6による探索処理を行うことで、瞳の詳細な位置を特定して精度の良好な抽出を行うことが可能となる。
すなわち、瞳位置探索部6は、瞳位置推定部5により推定された瞳の中心のおおよその存在位置付近を局所探索することで瞳の詳細な位置を特定するものである。ここで、瞳の局所探索のためのパラメータb(0≦b≦1)について、顔幅fwにbを乗じた値が瞳の半径となるような数値として新たに設定する。
瞳の局所探索は、例えば図5の右瞳の探索において、右目頭及び右目尻の抽出に成功した場合の右瞳の推定位置の座標は、x座標RWx=(ROx+Rlx)/2、y座標RWy=(ROy+Rly)/2となり、この座標を始点とし、この始点が中心に含まれる着目画素60及び着目画素の近傍8画素61〜68への再帰的な局所探索を行う。
すなわち、瞳位置探索部6は、瞳位置推定部5により推定された瞳の中心のおおよその存在位置付近を局所探索することで瞳の詳細な位置を特定するものである。ここで、瞳の局所探索のためのパラメータb(0≦b≦1)について、顔幅fwにbを乗じた値が瞳の半径となるような数値として新たに設定する。
瞳の局所探索は、例えば図5の右瞳の探索において、右目頭及び右目尻の抽出に成功した場合の右瞳の推定位置の座標は、x座標RWx=(ROx+Rlx)/2、y座標RWy=(ROy+Rly)/2となり、この座標を始点とし、この始点が中心に含まれる着目画素60及び着目画素の近傍8画素61〜68への再帰的な局所探索を行う。
局所探索においては、着目画素60とその近傍8画素61〜68との合計9画素に対し、それぞれの画素を中心とする半径fw×bの円内の輝度の総和を求める。輝度は瞳領域に対応する黒色部分が最小となる。したがって、現在の着目画素60を中心とする輝度の総和よりも、輝度の総和が小さいものが近傍8画素の中であれば、輝度の総和が最小のものを選択し、次のステップではその画素を中心とする同様の局所探索を行う。局所探索は着目画素よりも輝度の総和が小さい周辺画素がある限り再帰的に繰り返す。
図5の例では、画素63を中心とした半径fw×bの円内領域がほぼ瞳領域に一致しているので9画素の中で画素63を中心とした円形領域の輝度の総和が最小となり、画素63の中心位置を瞳の中心位置と特定する。
図5の例では、画素63を中心とした半径fw×bの円内領域がほぼ瞳領域に一致しているので9画素の中で画素63を中心とした円形領域の輝度の総和が最小となり、画素63の中心位置を瞳の中心位置と特定する。
上述した瞳の局所探索においては、局所探索のためのパラメータbを1/16とすることで、精度良く瞳を抽出することができた。このとき輝度の総和を求める際の円の半径であるfw×bは、実際の瞳の半径に近い値となる。ただし、同じ顔画像であっても顔検出器1の特性により、検出される顔の大きさは変わることがある。そのため、瞳の局所探索のためのパラメータbは、顔検出器1の特性に基づいて設定する。
図6は本発明の瞳画像認識装置の実施形態の他の例を示すブロック図である。この瞳画像認識装置は、図1と同様に、撮影画像から、顔、目の端点、瞳位置を順次段階的に抽出し、画像内の瞳の位置座標を最終的な認識結果として出力する構成は同じであるが、目端点抽出部3においてパターン照合を行うに際して、特徴量変換部7で変換したデータを基に行う構成が異なる。他の構成は、図1の瞳画像認識装置と同様であるので、同一符号を付して説明を省略する。
特徴量変換部7は、切り出された方形領域である分割顔画像について、局所領域における輝度の勾配方向をヒストグラム化したHOG特徴量に変換するものである。すなわち、目端点抽出部3は探索領域正規化部2にて正規化された探索領域画像から方形領域を切り出し、特徴量変換部7によって変換されたHOG特徴量から、部分空間法によるパターン照合により目頭及び目尻を抽出する。
ここで、特徴量変換部7で生成されるHOG特徴量の性質について説明する。
本発明者が行った予備実験から、輝度パターンの照合により目の端点を抽出する場合、目全体をテンプレートとして瞳を抽出する場合と比較して、抽出精度が低下することが確認された。これは、瞳付近はコントラストがはっきりした形状情報を多く保持し、パターン照合が比較的容易であるのに対し、目の端点付近はテクスチャが緩やかに変化する肌の領域が多く含まれたパターン照合に難しい曖昧なパターンであるからだと考えられる。
このような緩やかにテクスチャが変化する目の端点の輝度パターンから安定的かつ他のパターンとの分離度の高い普遍特徴を抽出するため、測定された輝度によるパターン照合を行うのではなく、画像を局所領域における輝度の勾配方向をヒストグラム化した特徴ベクトルであるHOG特徴量に変換してからパターン照合を行うことによって、目端点の抽出精度の劣化を防ぐことができる。
本発明者が行った予備実験から、輝度パターンの照合により目の端点を抽出する場合、目全体をテンプレートとして瞳を抽出する場合と比較して、抽出精度が低下することが確認された。これは、瞳付近はコントラストがはっきりした形状情報を多く保持し、パターン照合が比較的容易であるのに対し、目の端点付近はテクスチャが緩やかに変化する肌の領域が多く含まれたパターン照合に難しい曖昧なパターンであるからだと考えられる。
このような緩やかにテクスチャが変化する目の端点の輝度パターンから安定的かつ他のパターンとの分離度の高い普遍特徴を抽出するため、測定された輝度によるパターン照合を行うのではなく、画像を局所領域における輝度の勾配方向をヒストグラム化した特徴ベクトルであるHOG特徴量に変換してからパターン照合を行うことによって、目端点の抽出精度の劣化を防ぐことができる。
特徴量変換部7におけるHOG特徴量への変換は、次のような手順により行われる。
(1)輝度勾配の強度とその方向の算出
図7(a)に示すように、分割顔画像を構成するC×Cの各ピクセル(u,v)における輝度Iの勾配の強度m(0≦m)とその方向θ(0°≦θ≦180°)を数1及び数2から求める。
(1)輝度勾配の強度とその方向の算出
図7(a)に示すように、分割顔画像を構成するC×Cの各ピクセル(u,v)における輝度Iの勾配の強度m(0≦m)とその方向θ(0°≦θ≦180°)を数1及び数2から求める。
(2)ヒストグラム算出
目頭や目尻部分が含まれる縦横Cピクセル(図7の例では、C=5とした5×5ピクセル)の正方領域をセル(i,j) と定義し、輝度勾配の強度とその方向に関するヒストグラム(図7(b))を作成する。
すなわち、0度〜180度(横軸)をT個の階級に分割し、勾配の方向θが階級t(t=1,2,…,T)に含まれるピクセルの持つ勾配の強度mを積算し、積算値htを測定する。
セル(i,j)のヒストグラムはHi,j = [h1, h2, …, hT]となり、T次元の特徴ベクトルとなる。
目頭や目尻部分が含まれる縦横Cピクセル(図7の例では、C=5とした5×5ピクセル)の正方領域をセル(i,j) と定義し、輝度勾配の強度とその方向に関するヒストグラム(図7(b))を作成する。
すなわち、0度〜180度(横軸)をT個の階級に分割し、勾配の方向θが階級t(t=1,2,…,T)に含まれるピクセルの持つ勾配の強度mを積算し、積算値htを測定する。
セル(i,j)のヒストグラムはHi,j = [h1, h2, …, hT]となり、T次元の特徴ベクトルとなる。
(3)正規化
目頭や目尻を含む小領域の縦横Bセル(例えば、B=2とした2×2ピクセル)の正方領域をブロック(a,b)と定義し、ブロック内のヒストグラムを連結したHOG特徴量を数3で求める。
Bの値は、予め正規化画像の中から標準的な目の端点の大きさを調べておいて設定する。
目頭や目尻を含む小領域の縦横Bセル(例えば、B=2とした2×2ピクセル)の正方領域をブロック(a,b)と定義し、ブロック内のヒストグラムを連結したHOG特徴量を数3で求める。
Bの値は、予め正規化画像の中から標準的な目の端点の大きさを調べておいて設定する。
このときベクトルVa,bの大きさが一定となるようにブロック単位でHOG特徴量を正規化することで、輝度の個人差に頑強な性質を有するようになる。
上述した手順で変換されたHOG特徴量は、細やかな輪郭情報を保持し、照明変動や局所的な幾何学的変化に頑健である。したがって、緩やかなテクスチャの変化を最良に表現し、単純な輝度パターンによるパターン照合と比較して、目の端点を安定して抽出できると考えられる。
また、図7(b)に示したようなヒストグラムでは、ヒストグラム化するにあたり大きさ及び勾配に関する位置の情報が捨てられるが、逆に位置情報が含まれないヒストグラム化されたHOG特徴量同士を比較することで、分割顔画像を切り出す際に切り出し位置にずれが生じたり、顔向きや回転により見た目が変わった場合、画素単位での比較では一致がとれないような場合でも同一のものと判定される可能性が高くなるという利点もある。
第二の実施例の瞳画像認識装置では、パターン照合をする場合に使用するため蓄積部4に蓄積されている複数の目の端点の画像データは、予めヒストグラム化したHOG特徴量に変換されたデータが蓄積されている。
瞳画像認識装置の目端点抽出部3と特徴量変換部7における具体的な処理の流れについて、図6のブロック図及び図8のフローチャート図を参照しながら説明する。
目端点抽出部3において、右目尻・右目頭・左目頭・左目尻の四種類の中から抽出の対象となる目の端点を決定する(ステップS81)。
探索領域正規化部2にて正規化された探索領域内から左から右、上から下の1画素ずつずらしたラスタースキャン(又は上記した設定領域スキャン)順で方形領域(分割顔画像)を切り出す(ステップS82)。
特徴量変換部7にて切り出した方形領域の輝度信号をHOG特徴量に変換する(ステップS83)。
目端点抽出部3において、右目尻・右目頭・左目頭・左目尻の四種類の中から抽出の対象となる目の端点を決定する(ステップS81)。
探索領域正規化部2にて正規化された探索領域内から左から右、上から下の1画素ずつずらしたラスタースキャン(又は上記した設定領域スキャン)順で方形領域(分割顔画像)を切り出す(ステップS82)。
特徴量変換部7にて切り出した方形領域の輝度信号をHOG特徴量に変換する(ステップS83)。
方形領域のHOG特徴量を入力ベクトルとし、目端点抽出部3において、抽出の対象となる目の端点の部分空間との類似度を測定する(ステップS84)。
ここまでの探索で類似度が最大であるかどうかを判断し(ステップS85)、最大であればその方形領域を目の端点の候補とし(ステップS86)、そうでない場合は探索領域内で全ての領域の探索が完了しているかどうかを判断する(ステップS87)。
ここまでの探索で類似度が最大であるかどうかを判断し(ステップS85)、最大であればその方形領域を目の端点の候補とし(ステップS86)、そうでない場合は探索領域内で全ての領域の探索が完了しているかどうかを判断する(ステップS87)。
全ての領域の探索が完了していれば探索領域内で類似度が最大であった方形領域を目の端点の候補領域として次のステップS88に進み、全ての領域の探索が完了していない場合は、ラスタースキャン(又は上記した設定領域スキャン)順で次の方形領域の切り出しを行って(ステップS82)、同様の作業を繰り返す。
探索領域内における探索が完了している場合には、目の端点の候補領域の類似度が設定されたしきい値を超えたか否かを判定する(ステップS88)。
候補領域の類似度が設定されたしきい値を超えていれば、候補領域が目の端点であると判定して(ステップS89)、目の端点の位置座標を取得し、続けてステップS90に進む。
目の端点の候補領域の類似度が設定されたしきい値を超えていない場合は、直接ステップS90に進む。
候補領域の類似度が設定されたしきい値を超えていれば、候補領域が目の端点であると判定して(ステップS89)、目の端点の位置座標を取得し、続けてステップS90に進む。
目の端点の候補領域の類似度が設定されたしきい値を超えていない場合は、直接ステップS90に進む。
ステップS90では、右目尻・右目頭・左目頭・左目尻と、全ての目の端点の抽出が完了したか否かを判断する。右目尻・右目頭・左目頭・左目尻の全ての目の端点の抽出が完了していれば、目端点抽出部3における処理を終了する。全ての目の端点の抽出が完了していない場合は、ステップS81に戻り、次の端点についての抽出を行う。
本発明の瞳画像認識装置によれば、撮像画像に対して顔向きに依らない精度の高い瞳抽出を行うことができるので、顔画像認識技術を利用したサービスの高精度化を実現することができる。特に、被写体が必ずしも正面を意識していない、スナップ撮影や天井に設置した固定点カメラにおいても、瞳の抽出が可能となり、顔画像認識サービスの安定化につながる。
また、本発明の瞳画像認識装置により実現される顔向きに依らない瞳の存在位置の特定は、安定特徴量抽出のための顔の大きさの正規化に限らない。例えば、被写体の視線の推定等にも応用できる。カメラ前の人物の視線による新しい入力および表示UI(ユーザインターフェース)への展開等が期待できる。
1…顔検出部、 2…探索領域正規化部、 3…目端点抽出部、 4…蓄積部、 5…瞳位置推定部、 6…瞳位置探索部、 7…特徴量変換部、 91…形状抽出部、 92…パターン照合部、 93…蓄積部。
Claims (9)
- 撮像画像に含まれる顔画像を検出し、その存在位置座標と大きさを出力する顔検出部と、
比較基準となる右目尻、右目頭、左目頭、左目尻の目端点画像データを記憶する記憶部と、
前記顔検出部から出力された顔画像の領域を探索領域とし、前記顔画像を複数に分割した各分割顔画像と前記目端点画像との類似度を比較し、輝度信号に基づくパターン照合により前記顔画像における目頭及び目尻の位置座標を抽出する目端点抽出部と、
前記目端点抽出部にて抽出された目頭及び目尻の位置座標に基づいて瞳が存在する位置を推定する瞳位置推定部を具備することを特徴とした瞳画像認識装置。 - 前記記憶部は、前記目端点抽出部において行われるパターン照合に用いる複数の目端点画像データを予め蓄積する蓄積部である請求項1に記載の瞳画像認識装置。
- 前記顔検出部から出力された顔の存在位置座標とその大きさに基づき、前記撮像画像から顔を含む領域を切り出し、前記蓄積部に蓄積された複数の目端点画像データに基づいて顔画像領域の面積を正規化する探索領域正規化部を備えた請求項2に記載の瞳画像認識装置。
- 前記目端点抽出部において目頭及び目尻を抽出するために行われるパターン照合を部分空間法により実現し、前記蓄積部が前記部分空間法によるパターン照合に用いる複数の固有ベクトルを予め蓄積して成る請求項2又は請求項3に記載の瞳画像認識装置。
- 前記分割顔画像を局所領域における輝度の勾配方向をヒストグラム化したHOG(Histograms of oriented gradients)特徴量に変換する特徴量変換部を備え、
前記目端点抽出部において行われるパターン照合が輝度信号ではなく前記HOG特徴量により行われる請求項1乃至請求項3に記載の瞳画像認識装置。 - 前記目端点抽出部にて目頭と目尻の両方が抽出できた場合、前記瞳位置推定部による瞳の中心の推定位置は、抽出された目頭と目尻の中点に決定する請求項1乃至請求項3に記載の瞳画像認識装置。
- 前記目端点抽出部にて目頭と目尻のいずれか一方の目の端点が抽出できた場合、前記瞳位置推定部による瞳の中心の推定位置は、抽出された目の端点から顔の大きさに比例した距離だけ離れた位置に決定する請求項1乃至請求項3に記載の瞳画像認識装置。
- 前記瞳位置推定部にて推定された瞳のおおよその存在位置付近で、予め定めた面積の小領域内の輝度の総和がより低い場所を探索する瞳位置探索部を備えることで瞳の詳細な位置を特定する請求項1乃至請求項3に記載の瞳画像認識装置。
- 前記瞳位置探索部において行われる探索が、前記瞳位置推定部にて推定された瞳のおおよその存在位置を始点とし、この始点が含まれる着目画素及び着目画素の近傍8画素への再帰的な局所探索により実行される請求項8に記載の瞳画像認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008181346A JP2010020594A (ja) | 2008-07-11 | 2008-07-11 | 瞳画像認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008181346A JP2010020594A (ja) | 2008-07-11 | 2008-07-11 | 瞳画像認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010020594A true JP2010020594A (ja) | 2010-01-28 |
Family
ID=41705411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008181346A Pending JP2010020594A (ja) | 2008-07-11 | 2008-07-11 | 瞳画像認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010020594A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101298024B1 (ko) | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
JP2014048966A (ja) * | 2012-08-31 | 2014-03-17 | Toshiba Corp | 物体検出システムおよびプログラム |
JP2014048766A (ja) * | 2012-08-30 | 2014-03-17 | Casio Comput Co Ltd | 画像生成装置、画像生成方法及びプログラム |
JPWO2013042206A1 (ja) * | 2011-09-20 | 2015-03-26 | トヨタ自動車株式会社 | 対象物変化検出装置および対象物変化検出方法 |
US9594534B2 (en) | 2014-08-27 | 2017-03-14 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium that perform image processing for a downloaded image based on third party subjective evaluation information |
JP2018528543A (ja) * | 2015-09-11 | 2018-09-27 | アイベリファイ インコーポレイテッド | 眼球血管および顔認識のための画像および特徴品質、画像強化および特徴抽出、ならびにバイオメトリックシステムのための眼球血管と顔領域および/またはサブ顔領域との融合 |
CN111862287A (zh) * | 2020-07-20 | 2020-10-30 | 广州市百果园信息技术有限公司 | 眼部纹理图像生成方法、纹理贴图方法、装置和电子设备 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175725A (ja) * | 1997-12-11 | 1999-07-02 | Tech Res & Dev Inst Of Japan Def Agency | フレーム処理型ステレオ画像処理装置 |
JP2002056394A (ja) * | 2000-08-09 | 2002-02-20 | Matsushita Electric Ind Co Ltd | 眼位置検出方法および眼位置検出装置 |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2003271932A (ja) * | 2002-03-14 | 2003-09-26 | Nissan Motor Co Ltd | 視線方向検出装置 |
JP2005182829A (ja) * | 2003-12-23 | 2005-07-07 | Genesis Microchip Inc | 一時的動きベクトルフィルタリング |
JP2005196385A (ja) * | 2004-01-06 | 2005-07-21 | Toshiba Corp | 画像処理装置、画像処理方法およびデジタルカメラ |
JP2007094906A (ja) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | 特徴点検出装置および方法 |
JP2007213378A (ja) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | 特定表情顔検出方法、撮像制御方法および装置並びにプログラム |
JP2007213377A (ja) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | 顔特徴点検出方法および装置並びにプログラム |
JP2008129665A (ja) * | 2006-11-17 | 2008-06-05 | Sony Corp | 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
-
2008
- 2008-07-11 JP JP2008181346A patent/JP2010020594A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175725A (ja) * | 1997-12-11 | 1999-07-02 | Tech Res & Dev Inst Of Japan Def Agency | フレーム処理型ステレオ画像処理装置 |
JP2002056394A (ja) * | 2000-08-09 | 2002-02-20 | Matsushita Electric Ind Co Ltd | 眼位置検出方法および眼位置検出装置 |
JP2003015816A (ja) * | 2001-06-29 | 2003-01-17 | Honda Motor Co Ltd | ステレオカメラを使用した顔・視線認識装置 |
JP2003271932A (ja) * | 2002-03-14 | 2003-09-26 | Nissan Motor Co Ltd | 視線方向検出装置 |
JP2005182829A (ja) * | 2003-12-23 | 2005-07-07 | Genesis Microchip Inc | 一時的動きベクトルフィルタリング |
JP2005196385A (ja) * | 2004-01-06 | 2005-07-21 | Toshiba Corp | 画像処理装置、画像処理方法およびデジタルカメラ |
JP2007094906A (ja) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | 特徴点検出装置および方法 |
JP2007213378A (ja) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | 特定表情顔検出方法、撮像制御方法および装置並びにプログラム |
JP2007213377A (ja) * | 2006-02-10 | 2007-08-23 | Fujifilm Corp | 顔特徴点検出方法および装置並びにプログラム |
JP2008129665A (ja) * | 2006-11-17 | 2008-06-05 | Sony Corp | 画像処理装置、撮影装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101298024B1 (ko) | 2010-09-17 | 2013-08-26 | 엘지디스플레이 주식회사 | 사용자 동적 기관 제스처 인식 방법 및 인터페이스와, 이를 사용하는 전기 사용 장치 |
JPWO2013042206A1 (ja) * | 2011-09-20 | 2015-03-26 | トヨタ自動車株式会社 | 対象物変化検出装置および対象物変化検出方法 |
US9373042B2 (en) | 2011-09-20 | 2016-06-21 | Toyota Jidosha Kabushiki Kaisha | Subject change detection system and subject change detection method |
JP2014048766A (ja) * | 2012-08-30 | 2014-03-17 | Casio Comput Co Ltd | 画像生成装置、画像生成方法及びプログラム |
JP2014048966A (ja) * | 2012-08-31 | 2014-03-17 | Toshiba Corp | 物体検出システムおよびプログラム |
US10210414B2 (en) | 2012-08-31 | 2019-02-19 | Kabushiki Kaisha Toshiba | Object detection system and computer program product |
US9594534B2 (en) | 2014-08-27 | 2017-03-14 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium that perform image processing for a downloaded image based on third party subjective evaluation information |
JP2018528543A (ja) * | 2015-09-11 | 2018-09-27 | アイベリファイ インコーポレイテッド | 眼球血管および顔認識のための画像および特徴品質、画像強化および特徴抽出、ならびにバイオメトリックシステムのための眼球血管と顔領域および/またはサブ顔領域との融合 |
CN111862287A (zh) * | 2020-07-20 | 2020-10-30 | 广州市百果园信息技术有限公司 | 眼部纹理图像生成方法、纹理贴图方法、装置和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100891324B1 (ko) | 휴대용 개인단말장치를 이용한 지문인식 시스템 및지문특징 추출장치 및 방법 | |
US7697735B2 (en) | Image based multi-biometric system and method | |
JP5047005B2 (ja) | 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置 | |
JP4410732B2 (ja) | 顔画像検出装置、顔画像検出方法および顔画像検出プログラム | |
JP2010020594A (ja) | 瞳画像認識装置 | |
JP2000259814A (ja) | 画像処理装置及びその方法 | |
Boehnen et al. | A fast multi-modal approach to facial feature detection | |
JP2009211311A (ja) | 画像処理装置及び方法 | |
KR20100072772A (ko) | 스테레오 비전을 이용한 실시간 얼굴 검출 시스템 및 그 방법 | |
CN101339609A (zh) | 图像处理装置和图像处理方法 | |
JP5787845B2 (ja) | 画像認識装置、方法、及びプログラム | |
KR100473600B1 (ko) | 얼굴 인식 시스템에서의 사진 판별 장치 및 방법 | |
KR102458615B1 (ko) | 피부 상태 측정 장치, 이를 포함하는 피부 상태 측정 시스템 및 그 방법 | |
JP6410450B2 (ja) | オブジェクト識別装置、オブジェクト識別方法及びプログラム | |
CN111178252A (zh) | 多特征融合的身份识别方法 | |
Seo et al. | Face detection and facial feature extraction using color snake | |
JP2007025900A (ja) | 画像処理装置、画像処理方法 | |
JP2012068948A (ja) | 顔属性推定装置およびその方法 | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JP2012181629A (ja) | 顔検出方法および顔検出装置、ならびに、プログラム | |
JP2006323779A (ja) | 画像処理方法、画像処理装置 | |
JP5791361B2 (ja) | パターン識別装置、パターン識別方法およびプログラム | |
JPH05108804A (ja) | 3次元物体の識別方法及びその実施装置 | |
JP5286574B2 (ja) | オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム | |
KR101087250B1 (ko) | 피부색 영역 검출을 이용한 얼굴 검출 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110127 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111221 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120411 |