JP2004259215A - Face detection system and its method - Google Patents

Face detection system and its method Download PDF

Info

Publication number
JP2004259215A
JP2004259215A JP2003052046A JP2003052046A JP2004259215A JP 2004259215 A JP2004259215 A JP 2004259215A JP 2003052046 A JP2003052046 A JP 2003052046A JP 2003052046 A JP2003052046 A JP 2003052046A JP 2004259215 A JP2004259215 A JP 2004259215A
Authority
JP
Japan
Prior art keywords
face
detection
nostril
template
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003052046A
Other languages
Japanese (ja)
Other versions
JP4043973B2 (en
Inventor
Tsugumi Yamada
貢己 山田
Kazuhiro Fukui
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003052046A priority Critical patent/JP4043973B2/en
Publication of JP2004259215A publication Critical patent/JP2004259215A/en
Application granted granted Critical
Publication of JP4043973B2 publication Critical patent/JP4043973B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robust face detection system capable of accurately detecting a face even when a person greatly changes his/her face direction to the right/left or wears glasses. <P>SOLUTION: A face direction computing system 1 is provided with a part detecting a right nose hole and a left nose hole by a resolution filter and a part detecting a face by a plurality of face direction templates inside the system. The face direction computing system is constructed of a nose detection part 2, an image input part 3, a face detection part 10, a face direction template storage part 11, and a face direction computing part 12. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、広範囲の顔向き角度に対して、画像中から人物の顔画像を適切に切り出す、顔画像による顔検出システムとその方法に関する。
【0002】
【従来の技術】
(1)顔検出の応用
画像による顔検出は、2次元画像データ中に人物の顔が存在するかどうかを検査し、存在する場合にはその位置を求める技術であり、様々な分野で利用可能である。しかしながら、カメラで撮影した画像中から様々な状態(様々な顔向き、様々な照明条件、様々な表情など)の顔を、コンピュータを利用してリアルタイムで頑健に検出することは難しく、コンピュータビジョン分野の最先端技術をもってしてもまだ充分な性能に達したとは言えない。このため、顔検出の応用分野にはまだ顕在化していないものもあると思われる。
【0003】
現在において、顔検出技術は、主としてドアロックのようなセキュリティシステムへの応用としての顔認識システムに使われている。しかし、かりに顔検出技術の性能がさらに向上し様々な顔向きに対しても顔検出及び顔向き計算ができるようになれば、乗り物の運転者、展示物の観客、コンソール端末の操作者、ゲーム端末の操作者などに対して顔検出技術が応用可能である。
【0004】
乗り物の運転者に対しては、顔検出及び顔向き計算により運転に支障となる脇見を検知して警報を鳴らせたり、顔向きに応じて安全運行のための適切な情報を提示することができる。
【0005】
展示物の観客に対しては、顔検出及び顔向き計算により観客の注目している展示を見極めて、その展示に関する情報を自動提示することができる。
【0006】
コンソール端末の操作者に対しては、顔検出及び顔向き計算により操作しようとしている表示窓を特定してカーソルを移動させたりして業務効率を高めることができる。
【0007】
ゲーム端末の操作者に対しては、顔検出及び顔向き計算によりゲーム環境の視点を変更したり、シューティングの狙いを定めたり、首振り動作を用いて登場人物とのコミュニケーションに役立てたりすることができる。
【0008】
(2)従来の顔検出技術
従来の顔検出技術のうち有望なものの一つとして、分離度フィルタを用いた目鼻などの顔の特徴点の検出と、特徴点を含む領域のパターンの検出とを組み合わせるものがある(例えば、特許文献1、非特許文献1、2参照)。この組み合わせの方法は、処理が複雑にはなるが、分離度フィルタを用いた特徴点検出のみで顔の検出を行わせる方法や、顔領域全体のパターンとの照合のみで顔の検出を行わせる方法よりも頑健で高精度な顔検出が行える。しかしながら、この手法は顔向きの大きな変化に対しては顔検出を失敗することがあった。
【0009】
顔検出の別の手法として、顔向きの異なる顔向きテンプレートを予め登録しておき、それを用いる方法がある(例えば、非特許文献3参照)。この方法は顔向きの大きな変化に対しても顔検出が行えるが、特徴点検出の精度に関しては分離度フィルタを用いた方法には及ばない。
【0010】
さらに、従来の顔検出技術においては、顔の特徴点として目を利用しており、眼鏡を着用している場合に顔検出を失敗することがあった。
【0011】
【特許文献1】
特許第3279913号公報
【0012】
【非特許文献1】
山口、福井、「顔向きや表情の変化にロバストな顔認識システム“Smartface”」、電子情報通信学会論文誌、2001年6月、第J84−D−II巻、第6号、p.1045−1052
【0013】
【非特許文献2】
福井、山口、「形状抽出とパターン照合の組合わせによる顔特徴点抽出」、電子情報通信学会論文誌、1997年8月、第J80−D−II巻、第8号、p.2170−2177
【0014】
【非特許文献3】
A.Pentland,他2名、View−based and modular eigenspaces for face recognition,Proceedings of IEEE Computer SocietyConference on Computer Vision and Pattern Recognition,(Seattle,米国),1994年、p.84−91
【0015】
【発明が解決しようとする課題】
本発明は、上記事情を考慮してなされたもので、その目的は、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムとその方法を提供することにある。
【0016】
なお、「頑健」とは、画像によって顔検出処理などを行う際に、「悪条件においても大きな失敗をしにくい性質」のことを言う。例えば、顔画像が変形したり、照明条件が変化したり、化粧によって顔画像の色合いが変化しても、検出処理の失敗が起きにくいとき、「頑健な顔検出方式」等と呼ぶ。
【0017】
そして、本発明は主として、顔が大きく横を向いた場合の顔検出処理の頑健性に関して優れた技術を提供する。
【0018】
【課題を解決するための手段】
請求項1の発明は、画像中から人物の顔を検出する顔検出システムであって、前記画像を取得する画像取得手段と、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、前記抽出した特徴点候補と前記記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出手段と、前記抽出した特徴点候補と前記記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出手段と、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出手段と、を備えたことを特徴とする顔検出システムである。
【0019】
請求項2の発明は、両鼻孔テンプレートを記憶した両鼻孔テンプレート記憶手段と、前記抽出した特徴点候補と前記記憶した両鼻孔テンプレートを用いて両鼻孔検出を行う両鼻孔検出手段と、を備え、前記顔検出手段は、前記両鼻孔の検出状態、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行うことを特徴とする請求項1記載の顔検出システムである。
【0020】
請求項3の発明は、前記顔検出手段は、前記検出された右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行うことを特徴とする請求項1記載の顔検出システムである。
【0021】
請求項4の発明は、前記顔検出手段は、前記検出された両鼻孔、右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行うことを特徴とする請求項2記載の顔検出システムである。
【0022】
請求項5の発明は、前記顔検出手段は、前記取得した画像と複数の顔向きテンプレートとの類似度に基づいて顔向き計算を行うことを特徴とする請求項1から4のうち少なくとも一項に記載の顔検出システムである。
【0023】
請求項6の発明は、画像中から人物の顔を検出する顔検出方法であって、前記画像を取得する画像取得ステップと、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出ステップと、前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出ステップと、前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出ステップと、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出ステップと、を備えたことを特徴とする顔検出方法である。
【0024】
請求項7の発明は、画像中から人物の顔を検出する顔検出方法をコンピュータで実現するプログラムであって、前記画像を取得する画像取得機能と、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出機能と、前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出機能と、前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出機能と、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出機能と、を実現することを特徴とする顔検出方法のプログラムである。
【0025】
請求項1、6、7の発明は、単鼻孔テンプレートと顔向きテンプレートを用いたものである。
【0026】
請求項1、6、7の発明は、分離度フィルタと、右鼻孔テンプレートを用いた右鼻孔検出と左鼻孔テンプレートを用いた左鼻孔検出と複数の顔向きテンプレートを用いた顔検出を組み合わせているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0027】
請求項2の発明は、請求項1の発明に両鼻孔検出処理を加えたものである。
【0028】
請求項2の発明は、分離度フィルタと右鼻孔テンプレートを用いた右鼻孔検出と左鼻孔テンプレートを用いた左鼻孔検出と両鼻孔テンプレートを用いた両鼻孔検出と複数の顔向きテンプレートを用いた顔検出を組み合わせているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0029】
請求項3の発明は、請求項3の発明に顔探索範囲設定処理を加えたものである。
【0030】
請求項3の発明は、分離度フィルタを用いた右鼻孔検出と左鼻孔検出によって顔探索範囲を適切に設定しているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0031】
請求項4の発明は、請求項2の発明に顔探索範囲設定処理を加えたものである。
【0032】
請求項4の発明は、分離度フィルタを用いた右鼻孔検出と左鼻孔検出と両鼻孔検出によって顔探索範囲を適切に設定しているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0033】
請求項5の発明は、請求項1〜4の顔検出システムを用いたものである。
【0034】
請求項5の発明は、頑健で高精度の顔検出システムを用いて顔向き計算を行うために、頑健で高精度の顔向き計算ができる。
【0035】
【発明の実施の形態】
以下、図面を参照しながら本発明の各実施形態を説明する。
【0036】
(第1の実施形態)
(1)用語の定義
本明細書において、前提となる用語の定義を行う。
【0037】
(1−1)「左右」の定義について行う。
【0038】
左右の定義は、被写体(主として人物の顔)の解剖学的な左右とすることを基本とする。通常のカメラで正面から撮影した正常な(逆さまではない)顔画像における右目は、我々が顔画像を見るときに、我々から顔画像に向かって左側にあることになる。顔向き、鼻孔についてもこれと同様とする。また、図3で説明される左向きの顔は、我々から顔画像に向かって右を向いている。一方、右向きの顔は、我々から顔画像に向かって左を向いている。さらに、図2、3における右鼻孔23、33は、我々から図に向かって左側にあり、左鼻孔24、34は、我々から図に向かって右側にある。以上のように左右を定義することにより、たとえ、被写体が逆さまになっていようとも、右目や右向きの定義に曖昧さは生じない。
【0039】
右鼻孔と左鼻孔を総称して、両鼻孔に対して「単鼻孔」と呼ぶことにする。
【0040】
(1−2)「顔向きの正面向き」、「上向き」、「下向き」、「右向き」、「左向き」、「上向き度」、「横向き度」の定義について行う。
【0041】
カメラに写る顔画像は頭部の姿勢によって見え方が変化する。そのため、カメラを基準にした頭部の姿勢(すなわち、顔の姿勢)のことを「顔向き」と呼ぶことにする。
【0042】
図2のように真っ直ぐにカメラに顔を向けたときの顔向きを「正面向き」とする。
【0043】
正面向きよりも上を向いたとき「上向き」と呼び、角度変化が大きいほど「上向き度」が大きいとする。
【0044】
正面向きよりも下を向いたとき「下向き」と呼ぶ。
【0045】
正面向きよりも右を向いたとき「右向き」と呼び、角度変化が大きいほど右向き度が大きいとする。
【0046】
正面向きよりも左を向いたとき「左向き」と呼び、角度変化が大きいほど左向き度が大きいとする。
【0047】
図4に示したように、この右向き度と左向き度を総称して「横向き度」と呼ぶことにする。
【0048】
(1−3)テンプレートマッチングについて以下に説明する。
【0049】
「マッチング」とは(例えば、非特許文献4参照)、同じサイズの2つの画像があるとき、両者を重ね合わせてその違いを見ることでそれらが同じものか否かを判断することをいう。「マッチング」は「照合」ともいう。
【0050】
「テンプレートマッチング」とは(例えば、非特許文献4「画像処理標準テキストブック編集委員会(編)、画像処理標準テキストブック、画像情報教育振興協会(CG−ARTS)、1997年」参照)、「テンプレート」と呼ばれる標準画像を予め用意しておき、対象画像とこのテンプレートとのマッチングによって対象画像がテンプレートと同じものであるかどうか判断することをいう。
【0051】
2つの画像の違いを測る尺度としては、例えば、差の絶対値の和(SAD:Sum of Absolute Difference)が用いられる。SADは、画像サイズがM×Nの対象画像をI(m、n)、(m=1、…、M、n=1、…、N)、事前に用意する標準パターンであるテンプレートをT(m、n)、(m=1、…、M、n=1、…、N)とすると、差 I(m、n)−T(m、n)の絶対値をm=1、…、M、n=1、…、NについてM×N個の和を計算することで得られる。
【0052】
他に用いられる尺度として、正規化相互相関や差の自乗和がある。ここでは、さらに、部分空間法や増分符号相関法を用いた尺度も含めることにする。すなわち、マッチングの尺度が定義されるならば、用いられるテンプレートが元の画像そのままではなく変換されたものである場合も含めることにする。尺度を別の言葉で、「類似度」、「相違度」と呼ぶことがある。このとき、2つの画像の違いが小さいほど大きな値をとる場合は「類似度」、違いが小さいほど小さな値をとる場合は「相違度」と呼ぶ。
【0053】
顔検出システムに入力された画像がM×Nより大きなサイズであり、比較すべき対象画像が、その画像中のどこに含まれているか予め分かっていない場合は、画像中をテンプレートを移動させながら両画像の類似度を調べていく。そして、最大類似度が、予め設定しておいた閾値よりも大きい場合に、テンプレートと同じものが最大類似度を与える位置に検出されたと判断する。最大類似度が、予め設定しておいた閾値よりも小さい場合は、入力された画像中にテンプレートと同じものは検出されなかったと判断する。
【0054】
テンプレートの画像サイズよりも大きな画像サイズの対象画像を検出することが必要な場合がある。そのときは、画像中をテンプレートを移動させることと同時に画像を縮小することを行ってマッチングをとる。例えば、顔を検出するための顔テンプレートの画像サイズが15×15で、画像中の顔領域のサイズが100×100である場合等である。この場合、画像を縮小率=15/100で縮小する処理と画像中をテンプレートを移動させる処理との両方を行う。顔領域のサイズが予め分かっていない場合は、縮小率も変化させる必要があり、様々な縮小率の値についてマッチングをとる。テンプレートのサイズを画像中の対象領域のサイズよりも小さくすることで、計算機処理時間やメモリ量の節約になる。
【0055】
このようにしてテンプレートマッチングの処理により、テンプレートと同じものが画像中に存在するかどうか、存在するとすればその検出位置と大きさを知ることができる。存在すると判断された場合は「検出された」という。検出位置は、テンプレートと重ね合わせたときのテンプレートの中心位置や、テンプレートの左上隅、右下隅の位置等、その後の処理に便利な方法で表現する。
【0056】
(2)顔向き計算システム1の構成
図1は、本発明の第1の実施形態に係る顔向き計算システム1を示す構成図である。
【0057】
顔向き計算システム1は、画像を入力すると、画像中から顔を発見し、頭部位置と鼻位置と顔向きを出力するものであり、システム内部に、分離度フィルタによる右鼻孔検出と左鼻孔検出を行う部分と、複数の顔向きテンプレートによる顔検出を行う部分を持つことが特徴であり、図1に示すように、鼻検出部2と、画像入力部3と、顔検出部10と、顔向きテンプレート格納部11と、顔向き計算部12から構成されている。
【0058】
(2−1)画像入力部3
画像入力部3は、カメラから画像入力を受け取り、格納し、必要に応じて鼻検出部2や顔検出部10に画像を送る。
【0059】
(2−2)鼻検出部2
鼻検出部2は、画像入力部3に入力された画像を受け取り、画像中に鼻が存在するかどうか判定し、判定結果と、検出された鼻と鼻孔の位置の情報を顔検出部10へ送るものであり、図1に示すように、分離度検出部4と、右鼻孔検出部5と、右鼻孔テンプレート格納部6と、左鼻孔検出部7と、左鼻孔テンプレート格納部8と、鼻検出判定部9から構成されている。
【0060】
分離度検出部4は、画像入力部3から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部5と左鼻孔検出部7へ送る。
【0061】
右鼻孔検出部5は、分離度検出部4から特徴点候補の情報と画像を受け取り、右鼻孔テンプレート格納部6から右鼻孔テンプレートを受け取り、これらの情報を元に画像中に右鼻孔が存在するかどうか探索を行い、存在する場合は右鼻孔を検出する。そして、右鼻孔検出結果情報を鼻検出判定部9へ送る。
【0062】
ここで、「右鼻孔テンプレート」とは右鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、上記で説明したテンプレートマッチングによる画像照合で用いられるデータのことである。
【0063】
右鼻孔テンプレート格納部6は、予め右鼻孔テンプレートを格納しており、必要に応じて右鼻孔テンプレートを右鼻孔検出部5へ送る。
【0064】
左鼻孔検出部7は、分離度検出部4から特徴点候補の情報と画像を受け取り、左鼻孔テンプレート格納部8から左鼻孔テンプレートを受け取り、これらの情報を元に画像中に左鼻孔が存在するかどうか探索を行い、存在する場合は左鼻孔を検出する。そして、左鼻孔検出結果情報を鼻検出判定部9へ送る。
【0065】
左鼻孔テンプレート格納部8は、予め左鼻孔テンプレートを格納しており、必要に応じて左鼻孔テンプレートを左鼻孔検出部7へ送る。
【0066】
ここで、「左鼻孔テンプレート」とは左鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0067】
鼻検出判定部9は、右鼻孔検出部5から右鼻孔検出結果情報を受け取り、左鼻孔検出部7から左鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部10へ送る。
【0068】
(2−3)顔検出部10
顔検出部10は、画像入力部3から画像を受け取り、鼻検出部2から鼻検出判定結果と検出された鼻と鼻孔の位置情報を受け取り、顔向きテンプレート格納部11から複数の顔向きテンプレートを受け取る。
【0069】
そして、これらの情報を用いて、画像中から顔の検出を行い、総合的に判断して顔が検出されたかどうか判定を行い、判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを顔向き計算部12へ送る。
【0070】
顔が検出されたかどうかの判定は、例えば次のように行う。
【0071】
鼻検出判定結果が「未検出」ならば、顔も未検出と判定する。
【0072】
鼻検出判定結果が「検出」ならば、検出された鼻と鼻孔の位置を利用してその近傍の範囲に対して顔向きテンプレートを移動させてマッチングを行う。顔向きテンプレートとの最大類似度が設定された閾値より大きければ、最大類似度を与える位置に顔が検出されたと判定する。このとき、もし右鼻孔のみが検出されている場合は、右向き顔よりも左向き顔の方が検出され易いと考えられるので、右向き顔のみが検出されるようなことが生じた場合には、その矛盾は誤検出から生じたものであろうと総合的に判断し、顔は未検出であると判定することができる。
【0073】
(2−4)顔向きテンプレート格納部11
顔向きテンプレート格納部11は、予め複数の顔向きテンプレートを格納しており、必要に応じて複数の顔向きテンプレートを顔検出部10へ送る。
【0074】
(2−5)顔向き計算部12
顔向き計算部12は、顔検出部10から顔検出判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを受け取る。
【0075】
そして、類似度情報を元に検出された顔の顔向きを判定し、顔検出判定結果と、顔と鼻と鼻孔の位置情報と、顔向き情報をシステム外部に出力する。
【0076】
(3)顔向き計算システム1の動作内容
図2は、顔向きテンプレート対応領域21と両鼻孔テンプレート対応領域22と右鼻孔23と左鼻孔24との位置関係を説明するための概念図である。
【0077】
この顔画像の顔向きは正面向きであり、2つの鼻孔とも画像中に存在しており、両鼻孔が検出可能である。
【0078】
図3は、顔向きテンプレート対応領域31と右鼻孔テンプレート対応領域32と右鼻孔33と左鼻孔34との位置関係を説明するための概念図である。
【0079】
この顔画像の顔向きは左向きであり、右鼻孔が画像中に存在しており、右鼻孔が検出可能である。左鼻孔は隠れによって見えにくくなっており、左鼻孔の検出は困難である。
【0080】
図4は、顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【0081】
顔向きが正面向きならば両鼻孔、単鼻孔ともに検出可能であるが、横向き度が右向きになっていくに従い右鼻孔が隠れるようになり、その結果左鼻孔のみ検出可能という事態になる。さらに右向き度が大きくなるとついには左鼻孔も検出できなくなる。逆に、横向き度が左向きになっていくに従い左鼻孔が隠れるようになり、その結果右鼻孔のみ検出可能という事態になる。さらに左向き度が大きくなるとついには右鼻孔も検出できなくなる。
【0082】
これにより、顔が右向きであったり左向きであったりしても顔検出を成功させるためには、顔の特徴点である鼻孔の検出の際に、左鼻孔検出と右鼻孔検出の両方を行わせて、少なくともどちらか一方を検出することで鼻を検出すれば、広い範囲の横向き度に対して鼻検出及びそれを利用した顔検出を行わせることができるということが図4から判る。
【0083】
(4)顔向き計算処理手順
図5は、本実施形態における顔向き計算システム1の処理手順を示す流れ図である。
【0084】
最初に画像を入力し(ST1)、分離度検出部4が入力画像に分離度フィルタをかけて、分離度の値が大きく、極大値となる点(分離度ピーク)の画像上の位置を複数個抽出する(ST2)。
【0085】
次に、右鼻孔検出部5が右鼻孔テンプレートと分離度ピーク上の画像を照合し(ST3)、左鼻孔検出部7が左鼻孔テンプレートと分離度ピーク上の画像を照合する(ST4)。これらステップST3とステップST4は同時に処理することができる。
【0086】
次に、鼻検出判定部9が画像中から鼻が検出されたかどうか判定を行い(ST5)、検出された場合はステップST7へ進み、検出されなかった場合はステップST1へ行く(ST6)。
【0087】
ステップST7では、検出された鼻位置の情報に基づいて顔向きテンプレートを移動させる顔探索範囲の設定を行う。顔探索範囲は、検出された鼻位置と顔の位置の整合性が著しく損なわれないようなある範囲に設定したり、鼻位置を基準にして決められた顔領域1個所のみに限定させる場合がある。
【0088】
次に、顔検出部10が画像中から顔の検出を行い、顔向き計算部12が顔の顔向きを判定する(ST8)。
【0089】
次に、顔向き計算部12が頭部位置、鼻位置、顔向きを出力し(ST9)、顔向き計算を続ける場合はステップST1へ行き、顔向き計算を終了する場合は顔向き計算を終了する(ST10)。
【0090】
(第2の実施形態)
図6は、本発明の第2の実施形態に係る顔向き計算システム101を示す構成図であり、図1と同一部分には下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0091】
本実施形態では、両鼻孔検出を利用することにより正面向きの顔に対する検出性能を向上させている。
【0092】
特に、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定した場合に、右鼻孔や左鼻孔の単鼻孔は検出できないが両鼻孔を検出できる場合がある。そのため、このような場合に両鼻孔の検出状態を用いて正面向きの顔を検出するのに有効である。なお、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定する理由は、両鼻孔は二つの孔が並んだ特有の特徴点候補であるため、閾値を低く設定しても検出できるからである。
【0093】
(1)顔向き計算システム101の構成
鼻検出部102は、分離度検出部104と、右鼻孔検出部105と、右鼻孔テンプレート格納部106と、左鼻孔検出部107と、左鼻孔テンプレート格納部108と、両鼻孔検出部113と、両鼻孔テンプレート格納部114と、鼻検出判定部109から構成されている。
【0094】
分離度検出部104は、画像入力部103から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部105と左鼻孔検出部107と両鼻孔検出部113へ送る。
【0095】
両鼻孔検出部113は、分離度検出部104から特徴点候補の情報と画像を受け取り、両鼻孔テンプレート格納部114から両鼻孔テンプレートを受け取り、これらの情報を元に画像中に両鼻孔が存在するかどうか探索を行い、存在する場合は両鼻孔を検出する。そして、両鼻孔検出結果情報を鼻検出判定部109へ送る。
【0096】
両鼻孔テンプレート格納部114は、予め両鼻孔テンプレートを格納しており、必要に応じて両鼻孔テンプレートを両鼻孔検出部113へ送る。
【0097】
ここで「両鼻孔テンプレート」とは、右鼻孔と左鼻孔を含む特定の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0098】
鼻検出判定部109は、右鼻孔検出部105から右鼻孔検出結果情報を受け取り、左鼻孔検出部107から左鼻孔検出結果情報を受け取り、両鼻孔検出部113から両鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部110へ送る。
【0099】
(2)顔向き計算処理手順
図7は同実施形態に係る顔向き計算システム101の処理手順を示す流れ図であり、図5と同一部分には数値下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0100】
ステップST111では、分離度ピークの全ピーク対に対して、両鼻孔が対応づけ得るかどうか幾何学的な制約を課して判定を行う。
【0101】
次に、判定結果がOKだったピーク対に対して両鼻孔テンプレートとの照合を行う(ST112)。ステップST103と、ステップST104と、「ステップST111とステップST112」の3者は同時に処理することができる。
【0102】
【発明の効果】
上記詳記したように本発明によれば、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図2】同実施形態に係る両鼻孔テンプレートを説明する概念図である。
【図3】同実施形態に係る単鼻孔テンプレートを説明する概念図である。
【図4】同実施形態に係る顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【図5】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【図6】本発明の第2の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図7】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【符号の説明】
1、101 顔向き計算システム
2、102 鼻検出部
3、103 画像入力部
4、104 分離度検出部
5、105 右鼻孔検出部
6、106 右鼻孔テンプレート格納部
7、107 左鼻孔検出部
8、108 左鼻孔テンプレート格納部
9、109 鼻検出判定部
10、110 顔検出部
11、111 顔向きテンプレート格納部
12、112 顔向き計算部
21、31 顔向きテンプレート対応領域
22 両鼻孔テンプレート対応領域
23、33 右鼻孔
24、34 左鼻孔
32 右鼻孔テンプレート対応領域
113 両鼻孔検出部
114 両鼻孔テンプレート格納部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a face detection system based on a face image and a method for appropriately cutting out a face image of a person from an image for a wide range of face orientation angles.
[0002]
[Prior art]
(1) Application of face detection
Face detection based on an image is a technique for examining whether or not a human face exists in two-dimensional image data, and when present, finding the position of the face, and can be used in various fields. However, it is difficult to detect a face in various states (various face orientations, various lighting conditions, various expressions, etc.) robustly in real time using a computer from images taken by a camera. Even with the state-of-the-art technology, it cannot be said that sufficient performance has yet been achieved. For this reason, it is considered that some face detection application fields have not yet become apparent.
[0003]
At present, face detection technology is mainly used in face recognition systems as applications to security systems such as door locks. However, if the performance of face detection technology can be further improved and face detection and face direction calculation can be performed for various face orientations, drivers of vehicles, audiences of exhibits, operators of console terminals, games Face detection technology can be applied to a terminal operator or the like.
[0004]
For the driver of the vehicle, face detection and face direction calculation can detect inattentive driving hindrance and sound an alarm, or present appropriate information for safe operation according to the face direction. .
[0005]
For the audience of the exhibit, it is possible to identify the exhibition that the audience is paying attention to by face detection and face orientation calculation, and to automatically present information on the exhibition.
[0006]
For the operator of the console terminal, the work efficiency can be improved by specifying the display window to be operated by face detection and face direction calculation and moving the cursor.
[0007]
For game terminal operators, face detection and face direction calculation can be used to change the viewpoint of the game environment, determine shooting targets, and use swinging motions to help communicate with characters. it can.
[0008]
(2) Conventional face detection technology
As one of the promising conventional face detection technologies, there is a technology that combines detection of a feature point of a face such as an eye and a nose with a separation filter and detection of a pattern of an area including the feature point (for example, see Patent Literature 1, Non-Patent Literatures 1 and 2). Although the method of this combination is complicated, the face is detected only by the feature point detection using the separability filter, or the face is detected only by the comparison with the pattern of the entire face area. More robust face detection than the method can be performed. However, this method sometimes failed in face detection for a large change in the face direction.
[0009]
As another method of face detection, there is a method in which face direction templates having different face directions are registered in advance and used (for example, see Non-Patent Document 3). Although this method can detect a face even with a large change in the face direction, the accuracy of feature point detection is inferior to a method using a separability filter.
[0010]
Furthermore, in the conventional face detection technology, eyes are used as feature points of the face, and face detection sometimes fails when wearing spectacles.
[0011]
[Patent Document 1]
Japanese Patent No. 3279913
[0012]
[Non-patent document 1]
Yamaguchi, Fukui, "Face Recognition System" Smartface "Robust to Changes in Face Direction and Expression", Transactions of the Institute of Electronics, Information and Communication Engineers, June 2001, J84-D-II, No. 6, p. 1045-1052
[0013]
[Non-patent document 2]
Fukui, Yamaguchi, "Face feature point extraction by combination of shape extraction and pattern matching", IEICE Transactions, August 1997, J80-D-II, No. 8, p. 2170-2177
[0014]
[Non-Patent Document 3]
A. Pentland, and two others, View-based and modular eigenspaces for face recognition, Proceedings of IEEE Computer Computer Society, Union of Computers, Republic of the Union, United States, USA 84-91
[0015]
[Problems to be solved by the invention]
The present invention has been made in consideration of the above circumstances, and its object is to provide a robust and high-precision face detection system and a highly accurate face detection system, even when the face direction of a person changes significantly from side to side or wearing glasses. It is to provide a method.
[0016]
Note that “robustness” refers to “a property that is unlikely to cause a large failure even under bad conditions” when performing face detection processing or the like using an image. For example, when the detection process is unlikely to fail even if the face image is deformed, the lighting conditions change, or the color of the face image changes due to makeup, the method is referred to as a “robust face detection method”.
[0017]
The present invention mainly provides an excellent technique regarding the robustness of the face detection processing when the face is largely turned sideways.
[0018]
[Means for Solving the Problems]
The invention according to claim 1 is a face detection system for detecting a person's face from an image, comprising: an image acquisition unit that acquires the image; and a separation filter that extracts a feature point candidate from the acquired image using a separation degree filter. Degree detection means, face direction template storage means storing a plurality of face direction templates, right nostril template storage means storing a right nostril template, left nostril template storage means storing a left nostril template, and the extracted features. Right nostril detection means for performing right nostril detection using the point candidates and the stored right nostril template, left nostril detection means for performing left nostril detection using the extracted feature point candidates and the stored left nostril template, Based on the detection state of the right nostril, or the detection state of the left nostril, a predetermined Select the orientation template, a face detection system characterized by comprising a face detection unit for performing face detection using the selected face orientation template and the acquired image.
[0019]
The invention of claim 2 comprises a nostril template storage means for storing a nostril template, and a nostril detection means for performing a nostril detection using the extracted feature point candidate and the stored nostril template, The face detecting means selects a predetermined face direction template from the plurality of stored face direction templates based on the detection state of the both nostrils, the detection state of the right nostril, or the detection state of the left nostril. The face detection system according to claim 1, wherein face detection is performed using the selected face orientation template and the acquired image.
[0020]
The face detecting means may limit the face search range to a predetermined range based on the detected right nostril or left nostril, and the face direction may be determined in the limited face search range. The face detection system according to claim 1, wherein the face is detected by moving the template.
[0021]
The invention according to claim 4 is characterized in that the face detecting means limits the face search range to a predetermined range based on the detected both nostrils, right nostrils, or left nostrils, and The face detection system according to claim 2, wherein the face detection is performed by moving the face orientation template.
[0022]
The invention according to claim 5 is characterized in that the face detection means performs face direction calculation based on the similarity between the acquired image and a plurality of face direction templates. 2. A face detection system according to claim 1.
[0023]
The invention of claim 6 is a face detection method for detecting a person's face from an image, comprising: an image obtaining step of obtaining the image; and a separation step of extracting a feature point candidate from the obtained image by a separation degree filter. Degree detection step, a right nostril detection step of performing right nostril detection using the extracted feature point candidates and a pre-stored right nostril template, and a left nostril using the extracted feature point candidates and a pre-stored left nostril template. A left nostril detecting step of performing detection, a right nostril detection state, or a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates based on the left nostril detection state; A face detection method comprising: a face detection step of performing face detection using an orientation template and the acquired image.
[0024]
The invention according to claim 7 is a program for realizing a face detection method for detecting a face of a person from an image by a computer, the program comprising: an image acquisition function for acquiring the image; and a feature point candidate extraction from the acquired image. A separation degree detection function performed by a separation degree filter, a right nostril detection function of performing right nostril detection using the extracted feature point candidates and a pre-stored right nostril template, and a left nostril stored in advance with the extracted feature point candidates. Based on the left nostril detection function for performing left nostril detection using a template, the right nostril detection state, or the left nostril detection state, a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates. And a face detection function for performing face detection using the selected face orientation template and the acquired image. A gram.
[0025]
The inventions of claims 1, 6, and 7 use a single nostril template and a face orientation template.
[0026]
The inventions of claims 1, 6, and 7 combine a separation filter, right nostril detection using a right nostril template, left nostril detection using a left nostril template, and face detection using a plurality of face orientation templates. For this reason, even if the face direction of a person greatly changes left and right, a robust and highly accurate face detection system can be provided.
[0027]
A second aspect of the present invention is obtained by adding both nostrils detection processing to the first aspect of the present invention.
[0028]
The invention of claim 2 provides a right nostril detection using a separation filter and a right nostril template, a left nostril detection using a left nostril template, a double nostril detection using a both nostril template, and a face using a plurality of face orientation templates. Since detection is combined, a robust and high-accuracy face detection system can be provided even when the face direction of a person greatly changes from side to side.
[0029]
According to a third aspect of the present invention, a face search range setting process is added to the third aspect of the present invention.
[0030]
According to the third aspect of the present invention, since the face search range is appropriately set by the right nostril detection and the left nostril detection using the separability filter, even if the face direction of the person greatly changes from side to side, it is robust and high. An accurate face detection system can be provided.
[0031]
According to a fourth aspect of the present invention, a face search range setting process is added to the second aspect of the present invention.
[0032]
According to the fourth aspect of the present invention, since the face search range is appropriately set by the right nostril detection, the left nostril detection, and the both nostrils detection using the degree of separation filter, even if the face direction of the person greatly changes from side to side. A robust and highly accurate face detection system can be provided.
[0033]
The invention of claim 5 uses the face detection system of claims 1 to 4.
[0034]
According to the fifth aspect of the present invention, since the face direction calculation is performed using a robust and high-accuracy face detection system, a robust and high-accuracy face direction calculation can be performed.
[0035]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0036]
(1st Embodiment)
(1) Definition of terms
In this specification, a prerequisite term is defined.
[0037]
(1-1) The definition of “left and right” is performed.
[0038]
The definition of left and right is based on the anatomical left and right of a subject (mainly a human face). The right eye in a normal (not upside down) face image taken from the front with a normal camera will be on the left side from us toward the face image when we look at the face image. The same applies to the face orientation and the nostrils. In addition, the left-facing face described in FIG. 3 faces right from us toward the face image. On the other hand, the right-facing face is facing left from us toward the face image. In addition, the right nostrils 23, 33 in FIGS. 2 and 3 are on the left from us in the figure, and the left nostrils 24, 34 are on the right from us in the figure. By defining the left and right as described above, even if the subject is upside down, there is no ambiguity in the definition of the right eye or the right direction.
[0039]
The right and left nostrils are collectively referred to as "single nostrils" for both nostrils.
[0040]
(1-2) Definition of “front direction of face direction”, “upward direction”, “downward direction”, “rightward direction”, “leftward direction”, “upward degree”, and “horizontal degree” is performed.
[0041]
The appearance of the face image captured by the camera changes depending on the posture of the head. Therefore, the posture of the head with respect to the camera (that is, the posture of the face) will be referred to as “facial orientation”.
[0042]
As shown in FIG. 2, the face direction when the face is pointed straight at the camera is referred to as “front direction”.
[0043]
When facing upward from the front, it is referred to as "upward", and the greater the angle change, the greater the "upward degree".
[0044]
When facing downward from the front, it is called "downward".
[0045]
It is called “rightward” when facing rightward rather than frontward, and it is assumed that the greater the angle change, the greater the degree of rightward facing.
[0046]
It is called “leftward” when facing leftward rather than frontward, and the greater the angle change, the greater the degree of leftward facing.
[0047]
As shown in FIG. 4, the rightward degree and the leftward degree are collectively referred to as “lateral degree”.
[0048]
(1-3) Template matching will be described below.
[0049]
"Matching" (for example, see Non-Patent Document 4) means that when there are two images of the same size, they are overlapped and the difference is determined to determine whether they are the same. “Matching” is also called “collation”.
[0050]
“Template matching” is described in, for example, Non-Patent Document 4, “Image Processing Standard Textbook Editing Committee (ed.), Image Processing Standard Textbook, Image Information Education Promotion Association (CG-ARTS), 1997”. A standard image called “template” is prepared in advance, and it is determined whether or not the target image is the same as the template by matching the target image with the template.
[0051]
As a scale for measuring a difference between two images, for example, a sum of absolute values (SAD: Sum of Absolute Difference) is used. In the SAD, a target image having an image size of M × N is I (m, n), (m = 1,..., M, n = 1,..., N), and a template which is a standard pattern prepared in advance is T ( m, n), (m = 1,..., M, n = 1,..., N), the absolute value of the difference I (m, n) −T (m, n) is m = 1,. , N = 1,..., N are obtained by calculating M × N sums.
[0052]
Other measures used include normalized cross-correlation and sum of squared differences. Here, a measure using the subspace method or the incremental code correlation method is also included. That is, if the matching scale is defined, the case where the template used is not the original image itself but a converted one is also included. The scale may be called "similarity" or "difference" in another word. At this time, the smaller the difference between the two images, the larger the value is called “similarity”, and the smaller the difference, the smaller the value is called “dissimilarity”.
[0053]
If the image input to the face detection system has a size larger than M × N, and it is not known in advance where the target image to be compared is included in the image, the user moves both templates in the image while moving the template. Check the similarity of the images. Then, when the maximum similarity is larger than a preset threshold, it is determined that the same one as the template has been detected at the position giving the maximum similarity. If the maximum similarity is smaller than a preset threshold, it is determined that the same image as the template has not been detected in the input image.
[0054]
It may be necessary to detect a target image having an image size larger than the image size of the template. In that case, matching is performed by moving the template in the image and simultaneously reducing the image. For example, there is a case where the image size of the face template for detecting a face is 15 × 15 and the size of the face region in the image is 100 × 100. In this case, both processing for reducing the image at a reduction ratio of 15/100 and processing for moving the template in the image are performed. If the size of the face area is not known in advance, it is necessary to change the reduction ratio, and matching is performed for various values of the reduction ratio. By making the size of the template smaller than the size of the target area in the image, computer processing time and memory amount can be saved.
[0055]
In this way, by the template matching process, it is possible to know whether or not the same thing as the template exists in the image, and if so, its detection position and size. If it is determined that it exists, it is said to have been detected. The detection position is represented by a method convenient for the subsequent processing, such as the center position of the template when it is superimposed on the template, the position of the upper left corner, the lower right corner of the template, and the like.
[0056]
(2) Configuration of face direction calculation system 1
FIG. 1 is a configuration diagram showing a face orientation calculation system 1 according to the first embodiment of the present invention.
[0057]
Upon input of an image, the face direction calculation system 1 finds a face in the image, and outputs the head position, the nose position, and the face direction. It has a feature of performing detection and a portion of performing face detection using a plurality of face orientation templates. As shown in FIG. 1, a nose detection unit 2, an image input unit 3, a face detection unit 10, It comprises a face direction template storage unit 11 and a face direction calculation unit 12.
[0058]
(2-1) Image input unit 3
The image input unit 3 receives an image input from the camera, stores the image input, and sends the image to the nose detection unit 2 and the face detection unit 10 as necessary.
[0059]
(2-2) Nose detector 2
The nose detection unit 2 receives the image input to the image input unit 3, determines whether or not a nose exists in the image, and sends the determination result and information on the detected nose and nostril position to the face detection unit 10. As shown in FIG. 1, as shown in FIG. 1, a separation degree detection unit 4, a right nostril detection unit 5, a right nostril template storage unit 6, a left nostril detection unit 7, a left nostril template storage unit 8, It comprises a detection determination unit 9.
[0060]
The degree-of-separation detection unit 4 receives the image from the image input unit 3, extracts feature point candidates for the face using a degree-of-separation filter, and extracts information and image of the feature point candidates from the right nostril detection unit 5 and the left nostril detection unit 7. Send to
[0061]
The right nostril detection unit 5 receives the information and the image of the feature point candidate from the separation degree detection unit 4, receives the right nostril template from the right nostril template storage unit 6, and based on the information, the right nostril exists in the image. A search is performed to determine if the right nostril exists. Then, the right nostril detection result information is sent to the nose detection determining unit 9.
[0062]
Here, the “right nostril template” is obtained by converting an image of a region near the position of the right nostril as it is or by performing principal component analysis and the like, and is data used in image matching by template matching described above. It is.
[0063]
The right nostril template storage unit 6 stores the right nostril template in advance, and sends the right nostril template to the right nostril detection unit 5 as necessary.
[0064]
The left nostril detection unit 7 receives the information and the image of the feature point candidate from the separation degree detection unit 4, receives the left nostril template from the left nostril template storage unit 8, and has a left nostril in the image based on the information. A search is performed to determine if there is a left nostril. Then, the left nostril detection result information is sent to the nose detection determining unit 9.
[0065]
The left nostril template storage unit 8 stores the left nostril template in advance, and sends the left nostril template to the left nostril detection unit 7 as necessary.
[0066]
Here, the “left nostril template” is obtained by converting an image of a region near the left nostril position as it is or by performing principal component analysis, and is data used in image matching by template matching.
[0067]
The nose detection determination unit 9 receives the right nostril detection result information from the right nostril detection unit 5, receives the left nostril detection result information from the left nostril detection unit 7, comprehensively determines these information, and determines the nose from the image. It is determined whether or not it has been detected, and the determination result and the detected nose and nostril position information are sent to the face detection unit 10.
[0068]
(2-3) Face detection unit 10
The face detection unit 10 receives the image from the image input unit 3, receives the nose detection determination result and the detected nose and nostril position information from the nose detection unit 2, and stores a plurality of face direction templates from the face direction template storage unit 11. receive.
[0069]
Then, using these pieces of information, a face is detected from the image, and a comprehensive determination is made to determine whether a face has been detected. The determination result, similarity information for a plurality of face orientation templates, and detection The obtained face, nose, and nostril position information are sent to the face direction calculation unit 12.
[0070]
The determination as to whether a face has been detected is performed, for example, as follows.
[0071]
If the nose detection determination result is “not detected”, it is determined that the face has not been detected.
[0072]
If the result of the nose detection determination is "detection", matching is performed by moving the face direction template to a range in the vicinity of the detected nose and the position of the nostril. If the maximum similarity with the face orientation template is larger than the set threshold value, it is determined that the face is detected at the position giving the maximum similarity. At this time, if only the right nostril is detected, it is considered that the left-facing face is more likely to be detected than the right-facing face. It is possible to comprehensively determine that the contradiction is caused by erroneous detection, and determine that the face has not been detected.
[0073]
(2-4) Face orientation template storage unit 11
The face orientation template storage unit 11 stores a plurality of face orientation templates in advance, and sends the plurality of face orientation templates to the face detection unit 10 as necessary.
[0074]
(2-5) Face direction calculation unit 12
The face direction calculation unit 12 receives the face detection determination result from the face detection unit 10, similarity information for a plurality of face direction templates, and position information of the detected face, nose, and nostril.
[0075]
Then, the face direction of the detected face is determined based on the similarity information, and the face detection determination result, the position information of the face, the nose and the nostrils, and the face direction information are output to the outside of the system.
[0076]
(3) Operation contents of the face orientation calculation system 1
FIG. 2 is a conceptual diagram for explaining the positional relationship between the face orientation template corresponding region 21, the double nostril template corresponding region 22, the right nostril 23, and the left nostril 24.
[0077]
The face direction of this face image is the front direction, both nostrils are present in the image, and both nostrils can be detected.
[0078]
FIG. 3 is a conceptual diagram for explaining the positional relationship between the face orientation template corresponding region 31, the right nostril template corresponding region 32, the right nostril 33, and the left nostril.
[0079]
The face direction of this face image is to the left, the right nostril is present in the image, and the right nostril can be detected. The left nostril is difficult to see due to hiding, and it is difficult to detect the left nostril.
[0080]
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range.
[0081]
If the face is facing forward, both nostrils and single nostrils can be detected, but as the degree of laterality becomes right, the right nostrils become hidden, and as a result, only the left nostrils can be detected. When the rightward degree further increases, finally the left nostril cannot be detected. Conversely, the left nostrils become hidden as the horizontal degree becomes leftward, so that only the right nostrils can be detected. When the degree of leftward orientation further increases, the right nostril can no longer be detected.
[0082]
Thus, in order to successfully detect the face even if the face is facing right or left, both the left nostril detection and the right nostril detection should be performed when the nostrils that are the feature points of the face are detected. FIG. 4 shows that if the nose is detected by detecting at least one of them, the nose detection and the face detection using the nose can be performed for a wide range of lateral degrees.
[0083]
(4) Face direction calculation processing procedure
FIG. 5 is a flowchart illustrating a processing procedure of the face orientation calculation system 1 according to the present embodiment.
[0084]
First, an image is input (ST1), and the separability detecting unit 4 applies a separability filter to the input image, and determines a plurality of positions on the image where the value of the separability is large and has a maximum value (separation peak). Individuals are extracted (ST2).
[0085]
Next, the right nostril detection unit 5 collates the right nostril template with the image on the separability peak (ST3), and the left nostril detection unit 7 collates the left nostril template with the image on the separability peak (ST4). These steps ST3 and ST4 can be processed simultaneously.
[0086]
Next, the nose detection determination unit 9 determines whether a nose is detected in the image (ST5). If detected, the process proceeds to step ST7, and if not detected, the process proceeds to step ST1 (ST6).
[0087]
In step ST7, a face search range in which the face direction template is moved is set based on the information on the detected nose position. The face search range may be set to a certain range that does not significantly impair the consistency between the detected nose position and the face position, or may be limited to only one face region determined based on the nose position. is there.
[0088]
Next, the face detection unit 10 detects a face from the image, and the face direction calculation unit 12 determines the face direction of the face (ST8).
[0089]
Next, the face direction calculation unit 12 outputs the head position, the nose position, and the face direction (ST9). If the face direction calculation is to be continued, the procedure goes to step ST1, and if the face direction calculation is ended, the face direction calculation is ended. (ST10).
[0090]
(Second embodiment)
FIG. 6 is a configuration diagram showing a face orientation calculation system 101 according to the second embodiment of the present invention. The same parts as those in FIG. Only different parts will be described.
[0091]
In the present embodiment, the detection performance for a front-facing face is improved by utilizing the detection of both nostrils.
[0092]
In particular, when the threshold value for detecting the right nostril or the left nostril is set higher than the threshold value for detecting the both nostrils, a single nostril of the right nostril or the left nostril cannot be detected, but both nostrils may be detected. Therefore, in such a case, it is effective to detect a front-facing face using the detection state of both nostrils. Note that the reason for setting the threshold for detecting the right nostril and the left nostril higher than the threshold for detecting both nostrils is that both nostrils are unique feature point candidates in which two holes are lined up. This is because it can be detected.
[0093]
(1) Configuration of face direction calculation system 101
The nose detection unit 102 includes a separation degree detection unit 104, a right nostril detection unit 105, a right nostril template storage unit 106, a left nostril detection unit 107, a left nostril template storage unit 108, a double nostril detection unit 113, It comprises a nostril template storage unit 114 and a nose detection determination unit 109.
[0094]
The degree-of-separation detection unit 104 receives the image from the image input unit 103, extracts a feature point candidate of the face using a degree-of-separation filter, and extracts the information and image of the feature point candidate from the right nostril detection unit 105 and the left nostril detection unit 107 Is sent to the both nostrils detection unit 113.
[0095]
Both nostrils detection unit 113 receives feature point candidate information and image from separation degree detection unit 104, receives both nostrils templates from both nostrils template storage unit 114, and has both nostrils in the image based on these information. A search is performed to determine if both are present. Then, both nostrils detection result information is sent to the nose detection determination unit 109.
[0096]
The nostril template storage unit 114 stores both nostril templates in advance, and sends both nostril templates to the nostril detection unit 113 as necessary.
[0097]
Here, the “bore nostril template” is obtained by converting an image of a specific region including the right nostril and the left nostril as it is or by performing principal component analysis, and is data used in image matching by template matching. is there.
[0098]
The nose detection determination unit 109 receives right nostril detection result information from the right nostril detection unit 105, receives left nostril detection result information from the left nostril detection unit 107, receives both nostrils detection result information from the both nostrils detection unit 113, Then, it is determined whether or not the nose is detected from the image by comprehensively determining the information of the nose and the position information of the detected nose and nostril is sent to the face detection unit 110.
[0099]
(2) Face direction calculation processing procedure
FIG. 7 is a flowchart showing a processing procedure of the face orientation calculation system 101 according to the embodiment. The same parts as those in FIG. Only mention.
[0100]
In step ST111, a determination is made by imposing a geometric constraint on whether or not both nostrils can correspond to all peak pairs of the resolution peak.
[0101]
Next, the peak pair whose determination result is OK is collated with both nostril templates (ST112). Step ST103, step ST104, and “step ST111 and step ST112” can be performed simultaneously.
[0102]
【The invention's effect】
As described in detail above, according to the present invention, it is possible to provide a robust and highly accurate face detection system even when the face direction of a person changes greatly from side to side or wearing glasses.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating an example of a face orientation calculation system according to a first embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a nostril template according to the embodiment.
FIG. 3 is a conceptual diagram illustrating a single nostril template according to the embodiment.
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range according to the embodiment.
FIG. 5 is a flowchart illustrating an example of a face direction calculation process according to the embodiment.
FIG. 6 is a configuration diagram illustrating an example of a face direction calculation system according to a second embodiment of the present invention.
FIG. 7 is a flowchart showing an example of a face direction calculation process according to the embodiment.
[Explanation of symbols]
1,101 Face orientation calculation system
2,102 Nose detector
3,103 Image input unit
4,104 Separation degree detector
5, 105 Right nostril detector
6,106 Right nostril template storage
7, 107 Left nostril detector
8,108 Left nostril template storage
9,109 Nose detection determination unit
10,110 Face detection unit
11,111 Face orientation template storage
12, 112 Face direction calculation unit
21, 31 Face orientation template corresponding area
22 Nostril template corresponding area
23, 33 right nostril
24, 34 Left nostril
32 Right nostril template corresponding area
113 Nostril detector
114 Nostril template storage

Claims (7)

画像中から人物の顔を検出する顔検出システムであって、
前記画像を取得する画像取得手段と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、
複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、
右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、
左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、
前記抽出した特徴点候補と前記記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出手段と、
前記抽出した特徴点候補と前記記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出手段と、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出手段と、
を備えた
ことを特徴とする顔検出システム。
A face detection system that detects a human face from an image,
Image acquisition means for acquiring the image,
Separation degree detecting means for extracting a feature point candidate from the obtained image by a separation degree filter,
A face orientation template storage means for storing a plurality of face orientation templates,
Right nostril template storage means for storing a right nostril template;
Left nostril template storage means for storing a left nostril template;
Right nostril detection means for performing right nostril detection using the extracted feature point candidates and the stored right nostril template,
Left nostril detection means for performing left nostril detection using the extracted feature point candidates and the stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from the plurality of stored face orientation templates, and the selected face orientation template and the acquired image are used. Face detection means for performing face detection by
A face detection system comprising:
両鼻孔テンプレートを記憶した両鼻孔テンプレート記憶手段と、
前記抽出した特徴点候補と前記記憶した両鼻孔テンプレートを用いて両鼻孔検出を行う両鼻孔検出手段と、
を備え、
前記顔検出手段は、
前記両鼻孔の検出状態、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。
Nostril template storage means for storing both nostril templates,
Nostril detecting means for detecting both nostrils using the extracted feature point candidates and the stored nostril template,
With
The face detection means,
Based on the detection state of the both nostrils, the detection state of the right nostril, or the detection state of the left nostril, a predetermined face direction template is selected from the plurality of stored face direction templates, and the selected face is selected. The face detection system according to claim 1, wherein face detection is performed using an orientation template and the acquired image.
前記顔検出手段は、
前記検出された右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。
The face detection means,
The detected right nostril, or limiting the face search range to a predetermined range based on the left nostril, performing the face detection by moving the face orientation template in the limited face search range. The face detection system according to claim 1, wherein
前記顔検出手段は、
前記検出された両鼻孔、右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項2記載の顔検出システム。
The face detection means,
Limiting the face search range to a predetermined range based on the detected nostrils, right nostril, or left nostril, and performing face detection by moving the face orientation template in the limited face search range The face detection system according to claim 2, wherein:
前記顔検出手段は、
前記取得した画像と複数の顔向きテンプレートとの類似度に基づいて顔向き計算を行う
ことを特徴とする請求項1から4のうち少なくとも一項に記載の顔検出システム。
The face detection means,
The face detection system according to claim 1, wherein a face direction is calculated based on a degree of similarity between the obtained image and a plurality of face direction templates.
画像中から人物の顔を検出する顔検出方法であって、
前記画像を取得する画像取得ステップと、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出ステップと、
前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出ステップと、
前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出ステップと、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出ステップと、
を備えた
ことを特徴とする顔検出方法。
A face detection method for detecting a human face from an image,
An image acquisition step of acquiring the image,
A separation degree detecting step of extracting a feature point candidate from the obtained image by a separation degree filter,
A right nostril detection step of performing a right nostril detection using the extracted feature point candidates and a pre-stored right nostril template;
A left nostril detection step of performing left nostril detection using the extracted feature point candidates and a previously stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates, and the selected face orientation template and the acquired image are used. A face detection step of performing face detection by
A face detection method comprising:
画像中から人物の顔を検出する顔検出方法をコンピュータで実現するプログラムであって、
前記画像を取得する画像取得機能と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出機能と、
前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出機能と、
前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出機能と、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出機能と、
を実現する
ことを特徴とする顔検出方法のプログラム。
A computer-implemented program for detecting a face of a person from an image by a computer,
An image acquisition function for acquiring the image,
A separation degree detection function of extracting a feature point candidate from the acquired image by a separation degree filter,
A right nostril detection function for performing right nostril detection using the extracted feature point candidates and a pre-stored right nostril template,
A left nostril detection function for performing left nostril detection using the extracted feature point candidates and a pre-stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates, and the selected face orientation template and the acquired image are used. A face detection function that performs face detection
A program for a face detection method characterized by realizing the following.
JP2003052046A 2003-02-27 2003-02-27 Face detection system and method Expired - Fee Related JP4043973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003052046A JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003052046A JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Publications (2)

Publication Number Publication Date
JP2004259215A true JP2004259215A (en) 2004-09-16
JP4043973B2 JP4043973B2 (en) 2008-02-06

Family

ID=33117007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003052046A Expired - Fee Related JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Country Status (1)

Country Link
JP (1) JP4043973B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266868A (en) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ Method for detecting direction of head part using pupil and nostril
JP2006120128A (en) * 2004-09-21 2006-05-11 Fuji Photo Film Co Ltd Image processing device, image processing method and image processing program
JP2008194309A (en) * 2007-02-14 2008-08-28 Toyota Motor Corp Eye detector, nap detector, and method of eye detector
JP2009232243A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Image processing unit, image processing method, and computer program for image processing
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method
JP2009279186A (en) * 2008-05-22 2009-12-03 Toyota Motor Corp Face detecting device and method
US7835551B2 (en) 2006-02-20 2010-11-16 Funai Electric Co., Ltd. Television set and authentication device
US8044990B2 (en) 2005-08-17 2011-10-25 Sony Corporation Camera controller and teleconferencing system
JP2012155631A (en) * 2011-01-27 2012-08-16 Fujitsu Ltd Facial expression determining program and facial expression determining device
US8331631B2 (en) 2006-02-08 2012-12-11 Fujifilm Corporation Method, apparatus, and program for discriminating the states of subjects
US20130076881A1 (en) * 2011-09-26 2013-03-28 Honda Motor Co., Ltd. Facial direction detecting apparatus
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system
JP2022043749A (en) * 2020-09-04 2022-03-16 株式会社セルシス Information processing device, information processing system, information processing method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005266868A (en) * 2004-03-16 2005-09-29 National Univ Corp Shizuoka Univ Method for detecting direction of head part using pupil and nostril
JP2006120128A (en) * 2004-09-21 2006-05-11 Fuji Photo Film Co Ltd Image processing device, image processing method and image processing program
JP4702534B2 (en) * 2004-09-21 2011-06-15 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
US8044990B2 (en) 2005-08-17 2011-10-25 Sony Corporation Camera controller and teleconferencing system
US8331631B2 (en) 2006-02-08 2012-12-11 Fujifilm Corporation Method, apparatus, and program for discriminating the states of subjects
US7835551B2 (en) 2006-02-20 2010-11-16 Funai Electric Co., Ltd. Television set and authentication device
JP2008194309A (en) * 2007-02-14 2008-08-28 Toyota Motor Corp Eye detector, nap detector, and method of eye detector
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method
JP2009232243A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Image processing unit, image processing method, and computer program for image processing
JP2009279186A (en) * 2008-05-22 2009-12-03 Toyota Motor Corp Face detecting device and method
JP2012155631A (en) * 2011-01-27 2012-08-16 Fujitsu Ltd Facial expression determining program and facial expression determining device
US20130076881A1 (en) * 2011-09-26 2013-03-28 Honda Motor Co., Ltd. Facial direction detecting apparatus
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system
JP2022043749A (en) * 2020-09-04 2022-03-16 株式会社セルシス Information processing device, information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP4043973B2 (en) 2008-02-06

Similar Documents

Publication Publication Date Title
JP6430064B2 (en) Method and system for aligning data
JP6464934B2 (en) Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program
Colombo et al. 3D face detection using curvature analysis
Malassiotis et al. Robust real-time 3D head pose estimation from range data
EP1556805B1 (en) Tracking a surface in a 3-dimensional scene using natural visual features of the surface
US10033985B2 (en) Camera pose estimation apparatus and method for augmented reality imaging
EP2201495B1 (en) Computer vision cad models
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
JP4653606B2 (en) Image recognition apparatus, method and program
KR101956071B1 (en) Method and apparatus for verifying a user
EP1742169B1 (en) Tracking apparatus
JP6587435B2 (en) Image processing apparatus, information processing method, and program
US9916495B2 (en) Face comparison device, method, and recording medium
JP2007042072A (en) Tracking apparatus
JP2004259215A (en) Face detection system and its method
Shao et al. Robust height estimation of moving objects from uncalibrated videos
JP2008250999A (en) Object tracing method, object tracing device and object tracing program
KR20150065445A (en) Apparatus and method for detecting frontal face image using facial pose
US20120314904A1 (en) Image collation system, image collation method and computer program
Hayet et al. Visual landmarks detection and recognition for mobile robot navigation
Rekik et al. 3d face pose tracking using low quality depth cameras
JP5734000B2 (en) Object identification system and method, and feature point position extraction system and method
CN111797652A (en) Object tracking method, device and storage medium
JP2014032605A (en) Image recognition device, image recognition method, and image recognition program
JP2017097549A (en) Image processing apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees