JP4043973B2 - Face detection system and method - Google Patents

Face detection system and method Download PDF

Info

Publication number
JP4043973B2
JP4043973B2 JP2003052046A JP2003052046A JP4043973B2 JP 4043973 B2 JP4043973 B2 JP 4043973B2 JP 2003052046 A JP2003052046 A JP 2003052046A JP 2003052046 A JP2003052046 A JP 2003052046A JP 4043973 B2 JP4043973 B2 JP 4043973B2
Authority
JP
Japan
Prior art keywords
face
nostril
template
image
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003052046A
Other languages
Japanese (ja)
Other versions
JP2004259215A (en
Inventor
貢己 山田
和広 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003052046A priority Critical patent/JP4043973B2/en
Publication of JP2004259215A publication Critical patent/JP2004259215A/en
Application granted granted Critical
Publication of JP4043973B2 publication Critical patent/JP4043973B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、広範囲の顔向き角度に対して、画像中から人物の顔画像を適切に切り出す、顔画像による顔検出システムとその方法に関する。
【0002】
【従来の技術】
(1)顔検出の応用
画像による顔検出は、2次元画像データ中に人物の顔が存在するかどうかを検査し、存在する場合にはその位置を求める技術であり、様々な分野で利用可能である。しかしながら、カメラで撮影した画像中から様々な状態(様々な顔向き、様々な照明条件、様々な表情など)の顔を、コンピュータを利用してリアルタイムで頑健に検出することは難しく、コンピュータビジョン分野の最先端技術をもってしてもまだ充分な性能に達したとは言えない。このため、顔検出の応用分野にはまだ顕在化していないものもあると思われる。
【0003】
現在において、顔検出技術は、主としてドアロックのようなセキュリティシステムへの応用としての顔認識システムに使われている。しかし、かりに顔検出技術の性能がさらに向上し様々な顔向きに対しても顔検出及び顔向き計算ができるようになれば、乗り物の運転者、展示物の観客、コンソール端末の操作者、ゲーム端末の操作者などに対して顔検出技術が応用可能である。
【0004】
乗り物の運転者に対しては、顔検出及び顔向き計算により運転に支障となる脇見を検知して警報を鳴らせたり、顔向きに応じて安全運行のための適切な情報を提示することができる。
【0005】
展示物の観客に対しては、顔検出及び顔向き計算により観客の注目している展示を見極めて、その展示に関する情報を自動提示することができる。
【0006】
コンソール端末の操作者に対しては、顔検出及び顔向き計算により操作しようとしている表示窓を特定してカーソルを移動させたりして業務効率を高めることができる。
【0007】
ゲーム端末の操作者に対しては、顔検出及び顔向き計算によりゲーム環境の視点を変更したり、シューティングの狙いを定めたり、首振り動作を用いて登場人物とのコミュニケーションに役立てたりすることができる。
【0008】
(2)従来の顔検出技術
従来の顔検出技術のうち有望なものの一つとして、分離度フィルタを用いた目鼻などの顔の特徴点の検出と、特徴点を含む領域のパターンの検出とを組み合わせるものがある(例えば、特許文献1、非特許文献1、2参照)。この組み合わせの方法は、処理が複雑にはなるが、分離度フィルタを用いた特徴点検出のみで顔の検出を行わせる方法や、顔領域全体のパターンとの照合のみで顔の検出を行わせる方法よりも頑健で高精度な顔検出が行える。しかしながら、この手法は顔向きの大きな変化に対しては顔検出を失敗することがあった。
【0009】
顔検出の別の手法として、顔向きの異なる顔向きテンプレートを予め登録しておき、それを用いる方法がある(例えば、非特許文献3参照)。この方法は顔向きの大きな変化に対しても顔検出が行えるが、特徴点検出の精度に関しては分離度フィルタを用いた方法には及ばない。
【0010】
さらに、従来の顔検出技術においては、顔の特徴点として目を利用しており、眼鏡を着用している場合に顔検出を失敗することがあった。
【0011】
【特許文献1】
特許第3279913号公報
【0012】
【非特許文献1】
山口、福井、「顔向きや表情の変化にロバストな顔認識システム“Smartface”」、電子情報通信学会論文誌、2001年6月、第J84−D−II巻、第6号、p.1045−1052
【0013】
【非特許文献2】
福井、山口、「形状抽出とパターン照合の組合わせによる顔特徴点抽出」、電子情報通信学会論文誌、1997年8月、第J80−D−II巻、第8号、p.2170−2177
【0014】
【非特許文献3】
A.Pentland,他2名、View−based and modular eigenspaces for face recognition,Proceedings of IEEE Computer SocietyConference on Computer Vision and Pattern Recognition,(Seattle,米国),1994年、p.84−91
【0015】
【発明が解決しようとする課題】
本発明は、上記事情を考慮してなされたもので、その目的は、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムとその方法を提供することにある。
【0016】
なお、「頑健」とは、画像によって顔検出処理などを行う際に、「悪条件においても大きな失敗をしにくい性質」のことを言う。例えば、顔画像が変形したり、照明条件が変化したり、化粧によって顔画像の色合いが変化しても、検出処理の失敗が起きにくいとき、「頑健な顔検出方式」等と呼ぶ。
【0017】
そして、本発明は主として、顔が大きく横を向いた場合の顔検出処理の頑健性に関して優れた技術を提供する。
【0018】
【課題を解決するための手段】
本発明は、画像中から人物の顔を検出する顔検出システムであって、前記画像を取得する画像取得手段と、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、前記抽出した特徴点候補前記記憶した右鼻孔テンプレートを照合してテンプレートマッチングを行って右鼻孔検出を行う右鼻孔検出手段と、前記抽出した特徴点候補前記記憶した左鼻孔テンプレートを照合してテンプレートマッチングを行って左鼻孔検出を行う左鼻孔検出手段と、前記右鼻孔が検出されたときは正面向きと左向きの顔向きテンプレート、または、前記左鼻孔が検出されたときは正面向きと右向きの顔向きテンプレートを選択し、この選択した顔向きテンプレート前記取得した画像に照合してテンプレートマッチングを行って顔検出を行う顔検出手段と、を備えたことを特徴とする顔検出システムである。
【0026】
発明は、分離度フィルタと、右鼻孔テンプレートを用いた右鼻孔検出と左鼻孔テンプレートを用いた左鼻孔検出と複数の顔向きテンプレートを用いた顔検出を組み合わせているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0035】
【発明の実施の形態】
以下、図面を参照しながら本発明の各実施形態を説明する。
【0036】
(第1の実施形態)
(1)用語の定義
本明細書において、前提となる用語の定義を行う。
【0037】
(1−1)「左右」の定義について行う。
【0038】
左右の定義は、被写体(主として人物の顔)の解剖学的な左右とすることを基本とする。通常のカメラで正面から撮影した正常な(逆さまではない)顔画像における右目は、我々が顔画像を見るときに、我々から顔画像に向かって左側にあることになる。顔向き、鼻孔についてもこれと同様とする。また、図3で説明される左向きの顔は、我々から顔画像に向かって右を向いている。一方、右向きの顔は、我々から顔画像に向かって左を向いている。さらに、図2、3における右鼻孔23、33は、我々から図に向かって左側にあり、左鼻孔24、34は、我々から図に向かって右側にある。以上のように左右を定義することにより、たとえ、被写体が逆さまになっていようとも、右目や右向きの定義に曖昧さは生じない。
【0039】
右鼻孔と左鼻孔を総称して、両鼻孔に対して「単鼻孔」と呼ぶことにする。
【0040】
(1−2)「顔向きの正面向き」、「上向き」、「下向き」、「右向き」、「左向き」、「上向き度」、「横向き度」の定義について行う。
【0041】
カメラに写る顔画像は頭部の姿勢によって見え方が変化する。そのため、カメラを基準にした頭部の姿勢(すなわち、顔の姿勢)のことを「顔向き」と呼ぶことにする。
【0042】
図2のように真っ直ぐにカメラに顔を向けたときの顔向きを「正面向き」とする。
【0043】
正面向きよりも上を向いたとき「上向き」と呼び、角度変化が大きいほど「上向き度」が大きいとする。
【0044】
正面向きよりも下を向いたとき「下向き」と呼ぶ。
【0045】
正面向きよりも右を向いたとき「右向き」と呼び、角度変化が大きいほど右向き度が大きいとする。
【0046】
正面向きよりも左を向いたとき「左向き」と呼び、角度変化が大きいほど左向き度が大きいとする。
【0047】
図4に示したように、この右向き度と左向き度を総称して「横向き度」と呼ぶことにする。
【0048】
(1−3)テンプレートマッチングについて以下に説明する。
【0049】
「マッチング」とは(例えば、非特許文献4参照)、同じサイズの2つの画像があるとき、両者を重ね合わせてその違いを見ることでそれらが同じものか否かを判断することをいう。「マッチング」は「照合」ともいう。
【0050】
「テンプレートマッチング」とは(例えば、非特許文献4「画像処理標準テキストブック編集委員会(編)、画像処理標準テキストブック、画像情報教育振興協会(CG-ARTS)、1997年」参照)、「テンプレート」と呼ばれる標準画像を予め用意しておき、対象画像とこのテンプレートとのマッチングによって対象画像がテンプレートと同じものであるかどうか判断することをいう。
【0051】
2つの画像の違いを測る尺度としては、例えば、差の絶対値の和(SAD:Sum of Absolute Difference)が用いられる。SADは、画像サイズがM×Nの対象画像をI(m、n)、(m=1、…、M、n=1、…、N)、事前に用意する標準パターンであるテンプレートをT(m、n)、(m=1、…、M、n=1、…、N)とすると、差 I(m、n)−T(m、n)の絶対値をm=1、…、M、n=1、…、NについてM×N個の和を計算することで得られる。
【0052】
他に用いられる尺度として、正規化相互相関や差の自乗和がある。ここでは、さらに、部分空間法や増分符号相関法を用いた尺度も含めることにする。すなわち、マッチングの尺度が定義されるならば、用いられるテンプレートが元の画像そのままではなく変換されたものである場合も含めることにする。尺度を別の言葉で、「類似度」、「相違度」と呼ぶことがある。このとき、2つの画像の違いが小さいほど大きな値をとる場合は「類似度」、違いが小さいほど小さな値をとる場合は「相違度」と呼ぶ。
【0053】
顔検出システムに入力された画像がM×Nより大きなサイズであり、比較すべき対象画像が、その画像中のどこに含まれているか予め分かっていない場合は、画像中をテンプレートを移動させながら両画像の類似度を調べていく。そして、最大類似度が、予め設定しておいた閾値よりも大きい場合に、テンプレートと同じものが最大類似度を与える位置に検出されたと判断する。最大類似度が、予め設定しておいた閾値よりも小さい場合は、入力された画像中にテンプレートと同じものは検出されなかったと判断する。
【0054】
テンプレートの画像サイズよりも大きな画像サイズの対象画像を検出することが必要な場合がある。そのときは、画像中をテンプレートを移動させることと同時に画像を縮小することを行ってマッチングをとる。例えば、顔を検出するための顔テンプレートの画像サイズが15×15で、画像中の顔領域のサイズが100×100である場合等である。この場合、画像を縮小率=15/100で縮小する処理と画像中をテンプレートを移動させる処理との両方を行う。顔領域のサイズが予め分かっていない場合は、縮小率も変化させる必要があり、様々な縮小率の値についてマッチングをとる。テンプレートのサイズを画像中の対象領域のサイズよりも小さくすることで、計算機処理時間やメモリ量の節約になる。
【0055】
このようにしてテンプレートマッチングの処理により、テンプレートと同じものが画像中に存在するかどうか、存在するとすればその検出位置と大きさを知ることができる。存在すると判断された場合は「検出された」という。検出位置は、テンプレートと重ね合わせたときのテンプレートの中心位置や、テンプレートの左上隅、右下隅の位置等、その後の処理に便利な方法で表現する。
【0056】
(2)顔向き計算システム1の構成
図1は、本発明の第1の実施形態に係る顔向き計算システム1を示す構成図である。
【0057】
顔向き計算システム1は、画像を入力すると、画像中から顔を発見し、頭部位置と鼻位置と顔向きを出力するものであり、システム内部に、分離度フィルタによる右鼻孔検出と左鼻孔検出を行う部分と、複数の顔向きテンプレートによる顔検出を行う部分を持つことが特徴であり、図1に示すように、鼻検出部2と、画像入力部3と、顔検出部10と、顔向きテンプレート格納部11と、顔向き計算部12から構成されている。
【0058】
(2−1)画像入力部3
画像入力部3は、カメラから画像入力を受け取り、格納し、必要に応じて鼻検出部2や顔検出部10に画像を送る。
【0059】
(2−2)鼻検出部2
鼻検出部2は、画像入力部3に入力された画像を受け取り、画像中に鼻が存在するかどうか判定し、判定結果と、検出された鼻と鼻孔の位置の情報を顔検出部10へ送るものであり、図1に示すように、分離度検出部4と、右鼻孔検出部5と、右鼻孔テンプレート格納部6と、左鼻孔検出部7と、左鼻孔テンプレート格納部8と、鼻検出判定部9から構成されている。
【0060】
分離度検出部4は、画像入力部3から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部5と左鼻孔検出部7へ送る。
【0061】
右鼻孔検出部5は、分離度検出部4から特徴点候補の情報と画像を受け取り、右鼻孔テンプレート格納部6から右鼻孔テンプレートを受け取り、これらの情報を元に画像中に右鼻孔が存在するかどうか探索を行い、存在する場合は右鼻孔を検出する。そして、右鼻孔検出結果情報を鼻検出判定部9へ送る。
【0062】
ここで、「右鼻孔テンプレート」とは右鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、上記で説明したテンプレートマッチングによる画像照合で用いられるデータのことである。
【0063】
右鼻孔テンプレート格納部6は、予め右鼻孔テンプレートを格納しており、必要に応じて右鼻孔テンプレートを右鼻孔検出部5へ送る。
【0064】
左鼻孔検出部7は、分離度検出部4から特徴点候補の情報と画像を受け取り、左鼻孔テンプレート格納部8から左鼻孔テンプレートを受け取り、これらの情報を元に画像中に左鼻孔が存在するかどうか探索を行い、存在する場合は左鼻孔を検出する。そして、左鼻孔検出結果情報を鼻検出判定部9へ送る。
【0065】
左鼻孔テンプレート格納部8は、予め左鼻孔テンプレートを格納しており、必要に応じて左鼻孔テンプレートを左鼻孔検出部7へ送る。
【0066】
ここで、「左鼻孔テンプレート」とは左鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0067】
鼻検出判定部9は、右鼻孔検出部5から右鼻孔検出結果情報を受け取り、左鼻孔検出部7から左鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部10へ送る。
【0068】
(2−3)顔検出部10
顔検出部10は、画像入力部3から画像を受け取り、鼻検出部2から鼻検出判定結果と検出された鼻と鼻孔の位置情報を受け取り、顔向きテンプレート格納部11から複数の顔向きテンプレートを受け取る。
【0069】
そして、これらの情報を用いて、画像中から顔の検出を行い、総合的に判断して顔が検出されたかどうか判定を行い、判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを顔向き計算部12へ送る。
【0070】
顔が検出されたかどうかの判定は、例えば次のように行う。
【0071】
鼻検出判定結果が「未検出」ならば、顔も未検出と判定する。
【0072】
鼻検出判定結果が「検出」ならば、検出された鼻と鼻孔の位置を利用してその近傍の範囲に対して顔向きテンプレートを移動させてマッチングを行う。顔向きテンプレートとの最大類似度が設定された閾値より大きければ、最大類似度を与える位置に顔が検出されたと判定する。このとき、もし右鼻孔のみが検出されている場合は、右向き顔よりも左向き顔の方が検出され易いと考えられるので、右向き顔のみが検出されるようなことが生じた場合には、その矛盾は誤検出から生じたものであろうと総合的に判断し、顔は未検出であると判定することができる。
【0073】
(2−4)顔向きテンプレート格納部11
顔向きテンプレート格納部11は、予め複数の顔向きテンプレートを格納しており、必要に応じて複数の顔向きテンプレートを顔検出部10へ送る。
【0074】
(2−5)顔向き計算部12
顔向き計算部12は、顔検出部10から顔検出判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを受け取る。
【0075】
そして、類似度情報を元に検出された顔の顔向きを判定し、顔検出判定結果と、顔と鼻と鼻孔の位置情報と、顔向き情報をシステム外部に出力する。
【0076】
(3)顔向き計算システム1の動作内容
図2は、顔向きテンプレート対応領域21と両鼻孔テンプレート対応領域22と右鼻孔23と左鼻孔24との位置関係を説明するための概念図である。
【0077】
この顔画像の顔向きは正面向きであり、2つの鼻孔とも画像中に存在しており、両鼻孔が検出可能である。
【0078】
図3は、顔向きテンプレート対応領域31と右鼻孔テンプレート対応領域32と右鼻孔33と左鼻孔34との位置関係を説明するための概念図である。
【0079】
この顔画像の顔向きは左向きであり、右鼻孔が画像中に存在しており、右鼻孔が検出可能である。左鼻孔は隠れによって見えにくくなっており、左鼻孔の検出は困難である。
【0080】
図4は、顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【0081】
顔向きが正面向きならば両鼻孔、単鼻孔ともに検出可能であるが、横向き度が右向きになっていくに従い右鼻孔が隠れるようになり、その結果左鼻孔のみ検出可能という事態になる。さらに右向き度が大きくなるとついには左鼻孔も検出できなくなる。逆に、横向き度が左向きになっていくに従い左鼻孔が隠れるようになり、その結果右鼻孔のみ検出可能という事態になる。さらに左向き度が大きくなるとついには右鼻孔も検出できなくなる。
【0082】
これにより、顔が右向きであったり左向きであったりしても顔検出を成功させるためには、顔の特徴点である鼻孔の検出の際に、左鼻孔検出と右鼻孔検出の両方を行わせて、少なくともどちらか一方を検出することで鼻を検出すれば、広い範囲の横向き度に対して鼻検出及びそれを利用した顔検出を行わせることができるということが図4から判る。
【0083】
(4)顔向き計算処理手順
図5は、本実施形態における顔向き計算システム1の処理手順を示す流れ図である。
【0084】
最初に画像を入力し(ST1)、分離度検出部4が入力画像に分離度フィルタをかけて、分離度の値が大きく、極大値となる点(分離度ピーク)の画像上の位置を複数個抽出する(ST2)。
【0085】
次に、右鼻孔検出部5が右鼻孔テンプレートと分離度ピーク上の画像を照合し(ST3)、左鼻孔検出部7が左鼻孔テンプレートと分離度ピーク上の画像を照合する(ST4)。これらステップST3とステップST4は同時に処理することができる。
【0086】
次に、鼻検出判定部9が画像中から鼻が検出されたかどうか判定を行い(ST5)、検出された場合はステップST7へ進み、検出されなかった場合はステップST1へ行く(ST6)。
【0087】
ステップST7では、検出された鼻位置の情報に基づいて顔向きテンプレートを移動させる顔探索範囲の設定を行う。顔探索範囲は、検出された鼻位置と顔の位置の整合性が著しく損なわれないようなある範囲に設定したり、鼻位置を基準にして決められた顔領域1個所のみに限定させる場合がある。
【0088】
次に、顔検出部10が画像中から顔の検出を行い、顔向き計算部12が顔の顔向きを判定する(ST8)。
【0089】
次に、顔向き計算部12が頭部位置、鼻位置、顔向きを出力し(ST9)、顔向き計算を続ける場合はステップST1へ行き、顔向き計算を終了する場合は顔向き計算を終了する(ST10)。
【0090】
(第2の実施形態)
図6は、本発明の第2の実施形態に係る顔向き計算システム101を示す構成図であり、図1と同一部分には下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0091】
本実施形態では、両鼻孔検出を利用することにより正面向きの顔に対する検出性能を向上させている。
【0092】
特に、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定した場合に、右鼻孔や左鼻孔の単鼻孔は検出できないが両鼻孔を検出できる場合がある。そのため、このような場合に両鼻孔の検出状態を用いて正面向きの顔を検出するのに有効である。なお、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定する理由は、両鼻孔は二つの孔が並んだ特有の特徴点候補であるため、閾値を低く設定しても検出できるからである。
【0093】
(1)顔向き計算システム101の構成
鼻検出部102は、分離度検出部104と、右鼻孔検出部105と、右鼻孔テンプレート格納部106と、左鼻孔検出部107と、左鼻孔テンプレート格納部108と、両鼻孔検出部113と、両鼻孔テンプレート格納部114と、鼻検出判定部109から構成されている。
【0094】
分離度検出部104は、画像入力部103から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部105と左鼻孔検出部107と両鼻孔検出部113へ送る。
【0095】
両鼻孔検出部113は、分離度検出部104から特徴点候補の情報と画像を受け取り、両鼻孔テンプレート格納部114から両鼻孔テンプレートを受け取り、これらの情報を元に画像中に両鼻孔が存在するかどうか探索を行い、存在する場合は両鼻孔を検出する。そして、両鼻孔検出結果情報を鼻検出判定部109へ送る。
【0096】
両鼻孔テンプレート格納部114は、予め両鼻孔テンプレートを格納しており、必要に応じて両鼻孔テンプレートを両鼻孔検出部113へ送る。
【0097】
ここで「両鼻孔テンプレート」とは、右鼻孔と左鼻孔を含む特定の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0098】
鼻検出判定部109は、右鼻孔検出部105から右鼻孔検出結果情報を受け取り、左鼻孔検出部107から左鼻孔検出結果情報を受け取り、両鼻孔検出部113から両鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部110へ送る。
【0099】
(2)顔向き計算処理手順
図7は同実施形態に係る顔向き計算システム101の処理手順を示す流れ図であり、図5と同一部分には数値下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0100】
ステップST111では、分離度ピークの全ピーク対に対して、両鼻孔が対応づけ得るかどうか幾何学的な制約を課して判定を行う。
【0101】
次に、判定結果がOKだったピーク対に対して両鼻孔テンプレートとの照合を行う(ST112)。ステップST103と、ステップST104と、「ステップST111とステップST112」の3者は同時に処理することができる。
【0102】
【発明の効果】
上記詳記したように本発明によれば、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図2】同実施形態に係る両鼻孔テンプレートを説明する概念図である。
【図3】同実施形態に係る単鼻孔テンプレートを説明する概念図である。
【図4】同実施形態に係る顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【図5】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【図6】本発明の第2の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図7】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【符号の説明】
1、101 顔向き計算システム
2、102 鼻検出部
3、103 画像入力部
4、104 分離度検出部
5、105 右鼻孔検出部
6、106 右鼻孔テンプレート格納部
7、107 左鼻孔検出部
8、108 左鼻孔テンプレート格納部
9、109 鼻検出判定部
10、110 顔検出部
11、111 顔向きテンプレート格納部
12、112 顔向き計算部
21、31 顔向きテンプレート対応領域
22 両鼻孔テンプレート対応領域
23、33 右鼻孔
24、34 左鼻孔
32 右鼻孔テンプレート対応領域
113 両鼻孔検出部
114 両鼻孔テンプレート格納部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face detection system using a face image and a method thereof, which appropriately cuts out a person's face image from an image over a wide range of face orientation angles.
[0002]
[Prior art]
(1) Face detection using face detection images Face detection is a technology that checks whether a human face exists in two-dimensional image data, and if so, finds its position, and can be used in various fields. It is. However, it is difficult to robustly detect faces in various states (various face orientations, various lighting conditions, various facial expressions, etc.) from images taken with a camera in real time using a computer. Even with the state-of-the-art technology, it cannot be said that the performance has been reached yet. For this reason, it seems that some of the application fields of face detection have not yet been realized.
[0003]
At present, the face detection technology is mainly used in a face recognition system as an application to a security system such as a door lock. However, if the performance of face detection technology is further improved and face detection and face direction calculation can be performed for various face orientations, the driver of the vehicle, the audience of the exhibit, the operator of the console terminal, the game Face detection technology can be applied to the operator of the terminal.
[0004]
For vehicle drivers, face detection and face direction calculations can be used to detect side effects that hinder driving and to sound an alarm, or to provide appropriate information for safe driving according to the face direction. .
[0005]
For the audience of the exhibit, it is possible to identify the exhibition that the audience is paying attention by face detection and face orientation calculation, and to automatically present information related to the exhibition.
[0006]
For the operator of the console terminal, it is possible to increase work efficiency by specifying the display window to be operated by face detection and face direction calculation and moving the cursor.
[0007]
For game terminal operators, it is possible to change the viewpoint of the game environment by face detection and face orientation calculation, to set the aim of shooting, and to use it for communication with characters using the swing motion it can.
[0008]
(2) Conventional face detection technology As one of the promising conventional face detection technologies, detection of facial feature points such as eyes and nose using a separability filter and detection of a pattern of a region including the feature points are performed. Some are combined (see, for example, Patent Document 1, Non-Patent Documents 1 and 2). Although this combination method is complicated in processing, the face detection is performed only by feature point detection using a separability filter, or the face is detected only by matching with the pattern of the entire face area. The face detection is more robust and accurate than the method. However, this method sometimes fails to detect a face for a large change in face orientation.
[0009]
As another face detection method, there is a method in which face orientation templates having different face orientations are registered in advance and used (for example, see Non-Patent Document 3). This method can perform face detection even for a large change in face orientation, but the accuracy of feature point detection is not as good as that using a separability filter.
[0010]
Furthermore, in the conventional face detection technique, eyes are used as facial feature points, and face detection sometimes fails when wearing spectacles.
[0011]
[Patent Document 1]
Japanese Patent No. 3279913 [0012]
[Non-Patent Document 1]
Yamaguchi, Fukui, “Robust Face Recognition System“ Smartface ”for Changes in Face Orientation and Expression,” IEICE Transactions, June 2001, Volume J84-D-II, No. 6, p. 1045-1052
[0013]
[Non-Patent Document 2]
Fukui, Yamaguchi, “Facial feature point extraction by a combination of shape extraction and pattern matching”, IEICE Transactions, August, 1997, J80-D-II, No. 8, p. 2170-2177
[0014]
[Non-Patent Document 3]
A. Pentland, 2 others, View-based and modular eigenspaces for face recognition, Proceedings of IEEE Computer Society Society Computer Reputation, United States. 84-91
[0015]
[Problems to be solved by the invention]
The present invention has been made in consideration of the above circumstances, and its purpose is to provide a robust and highly accurate face detection system even when the face direction of a person changes greatly from side to side or when wearing glasses. It is to provide a method.
[0016]
Note that “robust” means “a property that makes it difficult to make a major failure even under adverse conditions” when performing face detection processing or the like using an image. For example, when the face image is deformed, the illumination condition changes, or the face image color changes due to makeup, if the detection process is not likely to fail, it is called a “robust face detection method”.
[0017]
And this invention mainly provides the outstanding technique regarding the robustness of the face detection process when a face greatly turns sideways.
[0018]
[Means for Solving the Problems]
The present invention is a face detection system for detecting a human face from an image, an image acquisition unit for acquiring the image, and a degree of separation detection unit for extracting feature point candidates from the acquired image by a degree of separation filter. A face direction template storage unit storing a plurality of face direction templates, a right nostril template storage unit storing a right nostril template, a left nostril template storage unit storing a left nostril template, and the extracted feature point candidates . a right nostril detecting means for performing right nostril detected by performing template matching by matching the right nostril template the storage, the left nostril performs template matching by matching the left nostril template the stored in the extracted feature point candidate a left nostril detecting means for detecting, frontal and leftward face direction when the right nostril is detected Plates, or the when the left nostril is detected selects the frontal and right direction of the face of the template, performs face detection by performing a template matching the selected face orientation template matching on the obtained image And a face detection unit.
[0026]
The present invention combines a separability filter, right nostril detection using a right nostril template, left nostril detection using a left nostril template, and face detection using a plurality of face orientation templates. Even if the angle changes greatly from side to side, a robust and highly accurate face detection system can be provided.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0036]
(First embodiment)
(1) Definition of terms In this specification, terms used as prerequisites are defined.
[0037]
(1-1) The definition of “left and right” is performed.
[0038]
The definition of right and left is based on the anatomical right and left of the subject (mainly a human face). The right eye in a normal (not upside down) face image taken from the front with a normal camera would be on the left side from us toward the face image when we look at the face image. The same applies to the face orientation and nostril. Further, the left-facing face described in FIG. 3 is facing right from the face image from us. On the other hand, the face facing right is facing left from us toward the face image. Further, the right nostrils 23, 33 in FIGS. 2 and 3 are on the left side from the view to us, and the left nostrils 24 and 34 are on the right side from the view to the view. By defining left and right as described above, there is no ambiguity in the definition of the right eye or right direction even if the subject is turned upside down.
[0039]
The right nostril and the left nostril are collectively referred to as “single nostril” for both nostrils.
[0040]
(1-2) Definitions of “face-to-front”, “upward”, “downward”, “rightward”, “leftward”, “upward”, and “lateral” are performed.
[0041]
The appearance of the face image reflected in the camera changes depending on the posture of the head. Therefore, the posture of the head with respect to the camera (that is, the posture of the face) is referred to as “face orientation”.
[0042]
As shown in FIG. 2, the face direction when facing the camera straight to the camera is defined as “front direction”.
[0043]
When facing upward from the front, it is called “upward”, and the greater the angle change, the greater the “upward degree”.
[0044]
When facing down from the front, it is called “downward”.
[0045]
When facing right rather than front, it is called “right”, and the greater the change in angle, the greater the right direction.
[0046]
When facing the left rather than the front, it is called “left”, and the greater the change in angle, the greater the leftward degree.
[0047]
As shown in FIG. 4, the rightward degree and the leftward degree are collectively referred to as “lateral direction degree”.
[0048]
(1-3) Template matching will be described below.
[0049]
“Matching” (see, for example, Non-Patent Document 4) means that when there are two images of the same size, it is determined whether or not they are the same by superimposing them and seeing the difference. “Matching” is also called “collation”.
[0050]
“Template matching” (see, for example, Non-Patent Document 4 “Image Processing Standard Textbook Editorial Committee (Edition), Image Processing Standard Textbook, Association for Promotion of Image Information Education (CG-ARTS), 1997”), “ This means that a standard image called “template” is prepared in advance and it is determined whether or not the target image is the same as the template by matching the target image with this template.
[0051]
As a scale for measuring the difference between two images, for example, the sum of absolute values of differences (SAD: Sum of Absolute Difference) is used. In SAD, a target image having an image size of M × N is I (m, n), (m = 1,..., M, n = 1,..., N), and a template that is a standard pattern prepared in advance is T ( m, n), (m = 1,..., M, n = 1,..., N), the absolute value of the difference I (m, n) −T (m, n) is m = 1,. , N = 1,..., N is obtained by calculating M × N sums.
[0052]
Other measures used include normalized cross-correlation and sum of squares of differences. Here, a scale using a subspace method or an incremental code correlation method is also included. That is, if a matching scale is defined, the case where the template used is not the original image but is converted is included. The scale may be called “similarity” or “difference” in other words. At this time, when the difference between the two images is smaller, the larger value is called “similarity”, and when the difference is smaller, the smaller value is called “difference”.
[0053]
If the image input to the face detection system has a size larger than M × N and it is not known in advance where the target image to be compared is included in the image, move both templates while moving the template in the image. Check the similarity of images. Then, when the maximum similarity is larger than a preset threshold, it is determined that the same template as the template has been detected at a position that gives the maximum similarity. If the maximum similarity is smaller than a preset threshold value, it is determined that the same image as the template has not been detected in the input image.
[0054]
It may be necessary to detect a target image having an image size larger than the image size of the template. At that time, matching is performed by moving the template in the image and simultaneously reducing the image. For example, the face template for detecting the face has an image size of 15 × 15, and the size of the face area in the image is 100 × 100. In this case, both the process of reducing the image at a reduction ratio = 15/100 and the process of moving the template in the image are performed. When the size of the face area is not known in advance, it is necessary to change the reduction ratio, and matching is performed for various values of the reduction ratio. By making the size of the template smaller than the size of the target area in the image, the computer processing time and the memory amount can be saved.
[0055]
In this way, by the template matching process, it is possible to know whether or not the same template exists in the image, and if so, the detected position and size. If it is determined that it exists, it is said to have been detected. The detection position is expressed by a convenient method for subsequent processing, such as the center position of the template when superimposed on the template, the positions of the upper left corner and the lower right corner of the template.
[0056]
(2) Configuration of Face Orientation Calculation System 1 FIG. 1 is a configuration diagram showing the face orientation calculation system 1 according to the first embodiment of the present invention.
[0057]
When an image is input, the face orientation calculation system 1 finds a face from the image and outputs a head position, a nose position, and a face orientation. Inside the system, right nostril detection and a left nostril are detected by a separability filter. It is characterized by having a part for performing detection and a part for performing face detection using a plurality of face orientation templates, and as shown in FIG. 1, a nose detection unit 2, an image input unit 3, a face detection unit 10, The face direction template storage unit 11 and the face direction calculation unit 12 are configured.
[0058]
(2-1) Image input unit 3
The image input unit 3 receives an image input from the camera, stores it, and sends an image to the nose detection unit 2 and the face detection unit 10 as necessary.
[0059]
(2-2) Nose detection unit 2
The nose detection unit 2 receives the image input to the image input unit 3, determines whether or not the nose exists in the image, and sends the determination result and information on the detected nose and nostril position to the face detection unit 10. As shown in FIG. 1, the separation degree detection unit 4, the right nostril detection unit 5, the right nostril template storage unit 6, the left nostril detection unit 7, the left nostril template storage unit 8, and the nose It consists of a detection determination unit 9.
[0060]
The separability detection unit 4 receives an image from the image input unit 3, extracts facial feature point candidates using a separability filter, and extracts feature point candidate information and images from the right nostril detection unit 5 and the left nostril detection unit 7. Send to.
[0061]
The right nostril detection unit 5 receives the feature point candidate information and the image from the separation degree detection unit 4, receives the right nostril template from the right nostril template storage unit 6, and the right nostril exists in the image based on these information. A search is performed to detect the right nostril if present. Then, the right nostril detection result information is sent to the nose detection determination unit 9.
[0062]
Here, the “right nostril template” is a data obtained by converting the image of the region near the right nostril position as it is or by performing principal component analysis, etc., and is used in the image matching by the template matching described above. It is.
[0063]
The right nostril template storage unit 6 stores the right nostril template in advance, and sends the right nostril template to the right nostril detection unit 5 as necessary.
[0064]
The left nostril detection unit 7 receives feature point candidate information and an image from the separation degree detection unit 4, receives a left nostril template from the left nostril template storage unit 8, and a left nostril exists in the image based on these information. A search is made to determine if there is a left nostril. Then, the left nostril detection result information is sent to the nose detection determination unit 9.
[0065]
The left nostril template storage unit 8 stores a left nostril template in advance, and sends the left nostril template to the left nostril detection unit 7 as necessary.
[0066]
Here, the “left nostril template” is an image obtained by converting an image of a region in the vicinity of the left nostril position as it is or by performing principal component analysis or the like, and is data used for image matching by template matching.
[0067]
The nose detection determination unit 9 receives the right nostril detection result information from the right nostril detection unit 5, receives the left nostril detection result information from the left nostril detection unit 7, comprehensively determines these information, and the nose is detected from the image. It is determined whether it has been detected, and the determination result and the position information of the detected nose and nostril are sent to the face detection unit 10.
[0068]
(2-3) Face detection unit 10
The face detection unit 10 receives an image from the image input unit 3, receives a nose detection determination result and detected nose and nostril position information from the nose detection unit 2, and receives a plurality of face orientation templates from the face orientation template storage unit 11. receive.
[0069]
Then, using these pieces of information, the face is detected from the image, and it is determined whether or not the face has been detected comprehensively. The determination result, similarity information for a plurality of face orientation templates, and detection are detected. The position information of the face, nose and nostril thus sent is sent to the face orientation calculation unit 12.
[0070]
Whether or not a face has been detected is determined as follows, for example.
[0071]
If the nose detection determination result is “not detected”, the face is also determined not to be detected.
[0072]
If the nose detection determination result is “detection”, matching is performed by moving the face direction template to a range in the vicinity of the detected nose and nostril position. If the maximum similarity with the face orientation template is greater than the set threshold, it is determined that a face has been detected at a position that gives the maximum similarity. At this time, if only the right nostril is detected, it is considered that the left-facing face is more easily detected than the right-facing face. It can be comprehensively determined that the contradiction is caused by erroneous detection, and it can be determined that the face has not been detected.
[0073]
(2-4) Face orientation template storage unit 11
The face orientation template storage unit 11 stores a plurality of face orientation templates in advance, and sends a plurality of face orientation templates to the face detection unit 10 as necessary.
[0074]
(2-5) Face orientation calculation unit 12
The face orientation calculation unit 12 receives a face detection determination result, similarity information for a plurality of face orientation templates, and detected face, nose, and nostril position information from the face detection unit 10.
[0075]
Then, the face orientation of the detected face is determined based on the similarity information, and the face detection determination result, the position information of the face, nose and nostril, and the face orientation information are output to the outside of the system.
[0076]
(3) Operation Contents of Face Orientation Calculation System 1 FIG. 2 is a conceptual diagram for explaining the positional relationship among the face orientation template corresponding region 21, both nostril template corresponding regions 22, the right nostril 23, and the left nostril 24.
[0077]
The face orientation of this face image is front-facing, and both nostrils are present in the image, and both nostrils can be detected.
[0078]
FIG. 3 is a conceptual diagram for explaining the positional relationship among the face orientation template corresponding region 31, the right nostril template corresponding region 32, the right nostril 33, and the left nostril 34.
[0079]
The face orientation of the face image is leftward, the right nostril is present in the image, and the right nostril can be detected. The left nostril is difficult to see due to hiding, and it is difficult to detect the left nostril.
[0080]
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range.
[0081]
If the face is front, both nostrils and single nostril can be detected, but the right nostril becomes hidden as the degree of lateral orientation turns right, and as a result, only the left nostril can be detected. Furthermore, if the rightward degree increases, the left nostril can no longer be detected. Conversely, the left nostril becomes hidden as the degree of lateral orientation becomes leftward, and as a result, only the right nostril can be detected. Furthermore, when the degree of leftward direction increases, the right nostril can no longer be detected.
[0082]
Thus, in order for face detection to succeed even if the face is facing right or left, both left nostril detection and right nostril detection are performed when detecting the nostril that is a feature point of the face. Thus, it can be seen from FIG. 4 that if the nose is detected by detecting at least one of them, nose detection and face detection using the nose can be performed for a wide range of lateral orientation.
[0083]
(4) Face Orientation Calculation Processing Procedure FIG. 5 is a flowchart showing the processing procedure of the face orientation calculation system 1 in this embodiment.
[0084]
First, an image is input (ST1), the separability detection unit 4 applies a separability filter to the input image, and a plurality of positions on the image where the separability value is large and the maximum value (separation peak) is set. Individually extracted (ST2).
[0085]
Next, the right nostril detection unit 5 collates the right nostril template with the image on the separation degree peak (ST3), and the left nostril detection unit 7 collates the left nostril template with the image on the separation degree peak (ST4). These steps ST3 and ST4 can be processed simultaneously.
[0086]
Next, the nose detection determination unit 9 determines whether or not the nose is detected from the image (ST5). If it is detected, the process proceeds to step ST7, and if it is not detected, the process proceeds to step ST1 (ST6).
[0087]
In step ST7, a face search range for moving the face orientation template is set based on the detected nose position information. The face search range may be set to a range that does not significantly impair the consistency between the detected nose position and the face position, or may be limited to only one face area determined based on the nose position. is there.
[0088]
Next, the face detection unit 10 detects a face from the image, and the face direction calculation unit 12 determines the face direction of the face (ST8).
[0089]
Next, the face orientation calculation unit 12 outputs the head position, the nose position, and the face orientation (ST9). When the face orientation calculation is continued, the process goes to step ST1, and when the face orientation calculation is finished, the face orientation calculation is finished. (ST10).
[0090]
(Second Embodiment)
FIG. 6 is a block diagram showing a face orientation calculation system 101 according to the second embodiment of the present invention. The same parts as those in FIG. Only the differences are described.
[0091]
In this embodiment, the detection performance for a face facing forward is improved by utilizing both nostril detection.
[0092]
In particular, when the threshold value for detecting the right nostril and the left nostril is set higher than the threshold value for detecting both nostrils, a single nostril of the right nostril or left nostril cannot be detected, but both nostrils may be detected. Therefore, in such a case, it is effective to detect a face facing forward using the detection state of both nostrils. The reason for setting the threshold for detecting the right nostril and the left nostril higher than the threshold for detecting both nostrils is because both nostrils are unique feature point candidates in which two holes are arranged. This is because it can be detected.
[0093]
(1) Configuration of Face Orientation Calculation System 101 The nose detection unit 102 includes a separation degree detection unit 104, a right nostril detection unit 105, a right nostril template storage unit 106, a left nostril detection unit 107, and a left nostril template storage unit. 108, a nostril detection unit 113, a nostril template storage unit 114, and a nose detection determination unit 109.
[0094]
The degree-of-separation detection unit 104 receives an image from the image input unit 103, extracts facial feature point candidates using a degree-of-separation filter, and extracts feature point candidate information and images from the right nostril detection unit 105 and the left nostril detection unit 107. And sent to both nostril detector 113.
[0095]
The nostril detection unit 113 receives feature point candidate information and an image from the separation degree detection unit 104, receives both nostril templates from the nostril template storage unit 114, and both nostrils are present in the image based on the information. A search is made to see if both nostrils are present. Then, both nostril detection result information is sent to the nose detection determination unit 109.
[0096]
Both nostril template storage units 114 store both nostril templates in advance, and send both nostril templates to both nostril detection unit 113 as necessary.
[0097]
Here, “both nostril template” refers to data used in image matching by template matching, which is obtained by converting an image of a specific region including the right nostril and left nostril as it is or by performing principal component analysis. is there.
[0098]
The nose detection determination unit 109 receives right nostril detection result information from the right nostril detection unit 105, receives left nostril detection result information from the left nostril detection unit 107, receives both nostril detection result information from both nostril detection units 113, and This information is comprehensively determined to determine whether or not the nose is detected in the image, and the determination result and the detected nose and nostril position information are sent to the face detection unit 110.
[0099]
(2) Face Orientation Calculation Processing Procedure FIG. 7 is a flowchart showing the processing procedure of the face orientation calculation system 101 according to the embodiment. The same parts as those in FIG. Omitted and only the differences are described here.
[0100]
In step ST111, it is determined whether geometrical restrictions are imposed on whether or not both nostrils can be associated with all pairs of separation peaks.
[0101]
Next, collation with both nostril templates is performed for the peak pair whose determination result is OK (ST112). Step ST103, step ST104, and “step ST111 and step ST112” can be processed simultaneously.
[0102]
【The invention's effect】
As described above in detail, according to the present invention, it is possible to provide a robust and highly accurate face detection system even when the face direction of a person greatly changes from side to side or when wearing glasses.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an example of a face orientation calculation system according to a first embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating both nostril templates according to the embodiment.
FIG. 3 is a conceptual diagram illustrating a single nostril template according to the embodiment.
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range according to the embodiment;
FIG. 5 is a flowchart showing an example of face orientation calculation processing according to the embodiment;
FIG. 6 is a configuration diagram showing an example of a face orientation calculation system according to a second embodiment of the present invention.
FIG. 7 is a flowchart showing an example of face orientation calculation processing according to the embodiment;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1,101 Face orientation calculation system 2,102 Nose detection part 3,103 Image input part 4,104 Separation degree detection part 5,105 Right nostril detection part 6,106 Right nostril template storage part 7,107 Left nostril detection part 8, 108 left nostril template storage unit 9, 109 nose detection determination unit 10, 110 face detection unit 11, 111 face direction template storage unit 12, 112 face direction calculation unit 21, 31 face direction template corresponding region 22 both nostril template corresponding region 23, 33 Right nostril 24, 34 Left nostril 32 Right nostril template corresponding region 113 Nostril detection unit 114 Nostril template storage unit

Claims (6)

画像中から人物の顔を検出する顔検出システムであって、
前記画像を取得する画像取得手段と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、
複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、
右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、
左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、
前記抽出した特徴点候補前記記憶した右鼻孔テンプレートを照合してテンプレートマッチングを行って右鼻孔検出を行う右鼻孔検出手段と、
前記抽出した特徴点候補前記記憶した左鼻孔テンプレートを照合してテンプレートマッチングを行って左鼻孔検出を行う左鼻孔検出手段と、
前記右鼻孔が検出されたときは正面向きと左向きの顔向きテンプレート、または、前記左鼻孔が検出されたときは正面向きと右向きの顔向きテンプレートを選択し、この選択した顔向きテンプレート前記取得した画像に照合してテンプレートマッチングを行って顔検出を行う顔検出手段と、
を備えたことを特徴とする顔検出システム。
A face detection system for detecting a human face in an image,
Image acquisition means for acquiring the image;
A degree-of-separation detection means for extracting feature point candidates from the acquired image using a degree-of-separation filter;
A face orientation template storage means for storing a plurality of face orientation templates;
A right nostril template storage means storing a right nostril template;
Left nostril template storage means storing the left nostril template;
A right nostril detecting means for performing right nostril detected by performing template matching by matching the right nostril template the stored in the extracted feature point candidates,
A left nostril detecting means for performing left nostril detected by performing template matching by matching the left nostril template the stored in the extracted feature point candidates,
When the right nostril is detected, the front-facing and left-facing face orientation templates are selected, or when the left nostril is detected, the front-facing and right-facing face orientation templates are selected, and the selected face-facing template is acquired. Face detection means for performing face matching by performing template matching against the image that has been made ,
A face detection system characterized by comprising:
両鼻孔テンプレートを記憶した両鼻孔テンプレート記憶手段と、
前記抽出した特徴点候補前記記憶した両鼻孔テンプレートを照合してテンプレートマッチングを行って両鼻孔検出を行う両鼻孔検出手段と、
を備え、
前記顔検出手段は、
前記両鼻孔が検出されたときは正面向きの顔向きテンプレートを選択し、この選択した顔向きテンプレート前記取得した画像に照合してテンプレートマッチングを行って顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。
Both nostril template storage means storing both nostril templates;
And both nostrils detecting means for performing both nostrils detected by performing template matching by matching both nostrils template the stored in the extracted feature point candidates,
With
The face detection means includes
The face detection is performed by selecting a face-facing template when both the nostrils are detected , matching the selected face-facing template with the acquired image , and performing template matching. The face detection system according to 1.
前記顔検出手段は、
前記検出された右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。
The face detection means includes
A face search range is limited to a predetermined range based on the detected right nostril or left nostril, and the face direction template is moved within the limited face search range to perform face detection. The face detection system according to claim 1.
前記顔検出手段は、
前記検出された両鼻孔、右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項2記載の顔検出システム。
The face detection means includes
The face search range is limited to a predetermined range based on the detected nostril, right nostril, or left nostril, and the face direction template is moved within the limited face search range to perform face detection. The face detection system according to claim 2.
画像中から人物の顔を検出する顔検出方法であって、
前記画像を取得する画像取得ステップと、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出ステップと、
前記抽出した特徴点候補予め記憶した右鼻孔テンプレートを照合してテンプレートマッチングを行って右鼻孔検出を行う右鼻孔検出ステップと、
前記抽出した特徴点候補予め記憶した左鼻孔テンプレートを照合してテンプレートマッチングを行って左鼻孔検出を行う左鼻孔検出ステップと、
前記右鼻孔が検出されたときは正面向きと左向きの顔向きテンプレート、または、前記左鼻孔が検出されたときは正面向きと右向きの顔向きテンプレートを選択し、この選択した顔向きテンプレート前記取得した画像に照合してテンプレートマッチングを行って顔検出を行う顔検出ステップと、
を備えたことを特徴とする顔検出方法。
A face detection method for detecting a human face in an image,
An image acquisition step of acquiring the image;
A separation degree detection step of extracting feature point candidates from the acquired image by a separation degree filter;
A right nostril detecting step of performing right nostril detected by performing template matching by matching the right nostril template stored in advance in the extracted feature point candidates,
A left nostril detecting step of performing the left nostril detected by performing template matching by matching the left nostril template stored in advance in the extracted feature point candidates,
When the right nostril is detected, the front-facing and left-facing face orientation templates are selected, or when the left nostril is detected, the front-facing and right-facing face orientation templates are selected, and the selected face-facing template is acquired. A face detection step of performing face detection by performing template matching against the image that has been performed ,
A face detection method comprising:
画像中から人物の顔を検出する顔検出方法をコンピュータで実現するプログラムであって、
前記画像を取得する画像取得機能と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出機能と、
前記抽出した特徴点候補予め記憶した右鼻孔テンプレートを照合してテンプレートマッチングを行って右鼻孔検出を行う右鼻孔検出機能と、
前記抽出した特徴点候補予め記憶した左鼻孔テンプレートを照合してテンプレートマッチングを行って左鼻孔検出を行う左鼻孔検出機能と、
前記右鼻孔が検出されたときは正面向きと左向きの顔向きテンプレート、または、前記左鼻孔が検出されたときは正面向きと右向きの顔向きテンプレートを選択し、この選択した顔向きテンプレート前記取得した画像に照合してテンプレートマッチングを行って顔検出を行う顔検出機能と、
を実現することを特徴とする顔検出方法のプログラム。
A program for realizing a face detection method for detecting a human face in an image by a computer,
An image acquisition function for acquiring the image;
A separability detection function for extracting feature point candidates from the acquired image by a separability filter;
A right nostril detecting function for right nostril detected by performing template matching by matching the right nostril template stored in advance in the extracted feature point candidates,
A left nostril detection function for left nostril detected by performing template matching by matching the left nostril template stored in advance in the extracted feature point candidates,
When the right nostril is detected, the front-facing and left-facing face orientation templates are selected, or when the left nostril is detected, the front-facing and right-facing face orientation templates are selected, and the selected face-facing template is acquired. A face detection function that performs face matching by performing template matching against the image
A program for a face detection method characterized by realizing the above.
JP2003052046A 2003-02-27 2003-02-27 Face detection system and method Expired - Fee Related JP4043973B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003052046A JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003052046A JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Publications (2)

Publication Number Publication Date
JP2004259215A JP2004259215A (en) 2004-09-16
JP4043973B2 true JP4043973B2 (en) 2008-02-06

Family

ID=33117007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003052046A Expired - Fee Related JP4043973B2 (en) 2003-02-27 2003-02-27 Face detection system and method

Country Status (1)

Country Link
JP (1) JP4043973B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4765008B2 (en) * 2004-03-16 2011-09-07 国立大学法人静岡大学 A method to detect head direction using pupil and nostril
JP4702534B2 (en) * 2004-09-21 2011-06-15 富士フイルム株式会社 Image processing apparatus, image processing method, and image processing program
JP4356663B2 (en) 2005-08-17 2009-11-04 ソニー株式会社 Camera control device and electronic conference system
JP2007213182A (en) 2006-02-08 2007-08-23 Fujifilm Corp Object status recognition method, device, and program
JP2007220004A (en) 2006-02-20 2007-08-30 Funai Electric Co Ltd Television and authentication device
JP4989249B2 (en) * 2007-02-14 2012-08-01 トヨタ自動車株式会社 Eye detection device, dozing detection device, and method of eye detection device
JP2009231878A (en) * 2008-03-19 2009-10-08 Seiko Epson Corp Image processing unit and image processing method
JP2009232243A (en) * 2008-03-24 2009-10-08 Seiko Epson Corp Image processing unit, image processing method, and computer program for image processing
JP4992823B2 (en) * 2008-05-22 2012-08-08 トヨタ自動車株式会社 Face detection apparatus and face detection method
JP5776187B2 (en) * 2011-01-27 2015-09-09 富士通株式会社 Facial expression determination program and facial expression determination apparatus
JP5367037B2 (en) * 2011-09-26 2013-12-11 本田技研工業株式会社 Face orientation detection device
JP6526527B2 (en) 2015-09-09 2019-06-05 株式会社東芝 Identification device and authentication system
JP6927540B1 (en) * 2020-09-04 2021-09-01 株式会社セルシス Information processing equipment, information processing system, information processing method and program

Also Published As

Publication number Publication date
JP2004259215A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
Colombo et al. 3D face detection using curvature analysis
Lu et al. Automatic feature extraction for multiview 3D face recognition
JP4043973B2 (en) Face detection system and method
JP4241763B2 (en) Person recognition apparatus and method
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
CN105740778B (en) Improved three-dimensional human face in-vivo detection method and device
JP2006133946A (en) Moving object recognition device
JP2017017431A (en) Image processing apparatus, information processing method, and program
WO2020065954A1 (en) Authentication device, authentication method, and storage medium
US8938132B2 (en) Image collation system, image collation method and computer program
KR100922429B1 (en) Pose robust human detection and tracking method using the stereo image
KR20210049570A (en) Apparatus and method for detecting forgery or alteration of the face
Zhang et al. Robust real-time human perception with depth camera
WO2022130616A1 (en) Authentication method, information processing device, and authentication program
CN111797652A (en) Object tracking method, device and storage medium
Makris et al. Robust 3d human pose estimation guided by filtered subsets of body keypoints
JP2013218605A (en) Image recognition device, image recognition method, and program
JPH1185988A (en) Face image recognition system
EP2128820A1 (en) Information extracting method, registering device, collating device and program
Alyuz et al. Adaptive registration for occlusion robust 3D face recognition
Gupta et al. Facial range image matching using the complexwavelet structural similarity metric
Verlekar et al. Walking direction identification using perceptual hashing
Loncomilla et al. Gaze direction determination of opponents and teammates in robot soccer
WO2021250845A1 (en) Authentication method, information processing device, and authentication program
JP2001222716A (en) Personal identification method and personal identification system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees