JP2004259215A - Face detection system and its method - Google Patents
Face detection system and its method Download PDFInfo
- Publication number
- JP2004259215A JP2004259215A JP2003052046A JP2003052046A JP2004259215A JP 2004259215 A JP2004259215 A JP 2004259215A JP 2003052046 A JP2003052046 A JP 2003052046A JP 2003052046 A JP2003052046 A JP 2003052046A JP 2004259215 A JP2004259215 A JP 2004259215A
- Authority
- JP
- Japan
- Prior art keywords
- face
- detection
- nostril
- template
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、広範囲の顔向き角度に対して、画像中から人物の顔画像を適切に切り出す、顔画像による顔検出システムとその方法に関する。
【0002】
【従来の技術】
(1)顔検出の応用
画像による顔検出は、2次元画像データ中に人物の顔が存在するかどうかを検査し、存在する場合にはその位置を求める技術であり、様々な分野で利用可能である。しかしながら、カメラで撮影した画像中から様々な状態(様々な顔向き、様々な照明条件、様々な表情など)の顔を、コンピュータを利用してリアルタイムで頑健に検出することは難しく、コンピュータビジョン分野の最先端技術をもってしてもまだ充分な性能に達したとは言えない。このため、顔検出の応用分野にはまだ顕在化していないものもあると思われる。
【0003】
現在において、顔検出技術は、主としてドアロックのようなセキュリティシステムへの応用としての顔認識システムに使われている。しかし、かりに顔検出技術の性能がさらに向上し様々な顔向きに対しても顔検出及び顔向き計算ができるようになれば、乗り物の運転者、展示物の観客、コンソール端末の操作者、ゲーム端末の操作者などに対して顔検出技術が応用可能である。
【0004】
乗り物の運転者に対しては、顔検出及び顔向き計算により運転に支障となる脇見を検知して警報を鳴らせたり、顔向きに応じて安全運行のための適切な情報を提示することができる。
【0005】
展示物の観客に対しては、顔検出及び顔向き計算により観客の注目している展示を見極めて、その展示に関する情報を自動提示することができる。
【0006】
コンソール端末の操作者に対しては、顔検出及び顔向き計算により操作しようとしている表示窓を特定してカーソルを移動させたりして業務効率を高めることができる。
【0007】
ゲーム端末の操作者に対しては、顔検出及び顔向き計算によりゲーム環境の視点を変更したり、シューティングの狙いを定めたり、首振り動作を用いて登場人物とのコミュニケーションに役立てたりすることができる。
【0008】
(2)従来の顔検出技術
従来の顔検出技術のうち有望なものの一つとして、分離度フィルタを用いた目鼻などの顔の特徴点の検出と、特徴点を含む領域のパターンの検出とを組み合わせるものがある(例えば、特許文献1、非特許文献1、2参照)。この組み合わせの方法は、処理が複雑にはなるが、分離度フィルタを用いた特徴点検出のみで顔の検出を行わせる方法や、顔領域全体のパターンとの照合のみで顔の検出を行わせる方法よりも頑健で高精度な顔検出が行える。しかしながら、この手法は顔向きの大きな変化に対しては顔検出を失敗することがあった。
【0009】
顔検出の別の手法として、顔向きの異なる顔向きテンプレートを予め登録しておき、それを用いる方法がある(例えば、非特許文献3参照)。この方法は顔向きの大きな変化に対しても顔検出が行えるが、特徴点検出の精度に関しては分離度フィルタを用いた方法には及ばない。
【0010】
さらに、従来の顔検出技術においては、顔の特徴点として目を利用しており、眼鏡を着用している場合に顔検出を失敗することがあった。
【0011】
【特許文献1】
特許第3279913号公報
【0012】
【非特許文献1】
山口、福井、「顔向きや表情の変化にロバストな顔認識システム“Smartface”」、電子情報通信学会論文誌、2001年6月、第J84−D−II巻、第6号、p.1045−1052
【0013】
【非特許文献2】
福井、山口、「形状抽出とパターン照合の組合わせによる顔特徴点抽出」、電子情報通信学会論文誌、1997年8月、第J80−D−II巻、第8号、p.2170−2177
【0014】
【非特許文献3】
A.Pentland,他2名、View−based and modular eigenspaces for face recognition,Proceedings of IEEE Computer SocietyConference on Computer Vision and Pattern Recognition,(Seattle,米国),1994年、p.84−91
【0015】
【発明が解決しようとする課題】
本発明は、上記事情を考慮してなされたもので、その目的は、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムとその方法を提供することにある。
【0016】
なお、「頑健」とは、画像によって顔検出処理などを行う際に、「悪条件においても大きな失敗をしにくい性質」のことを言う。例えば、顔画像が変形したり、照明条件が変化したり、化粧によって顔画像の色合いが変化しても、検出処理の失敗が起きにくいとき、「頑健な顔検出方式」等と呼ぶ。
【0017】
そして、本発明は主として、顔が大きく横を向いた場合の顔検出処理の頑健性に関して優れた技術を提供する。
【0018】
【課題を解決するための手段】
請求項1の発明は、画像中から人物の顔を検出する顔検出システムであって、前記画像を取得する画像取得手段と、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、前記抽出した特徴点候補と前記記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出手段と、前記抽出した特徴点候補と前記記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出手段と、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出手段と、を備えたことを特徴とする顔検出システムである。
【0019】
請求項2の発明は、両鼻孔テンプレートを記憶した両鼻孔テンプレート記憶手段と、前記抽出した特徴点候補と前記記憶した両鼻孔テンプレートを用いて両鼻孔検出を行う両鼻孔検出手段と、を備え、前記顔検出手段は、前記両鼻孔の検出状態、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行うことを特徴とする請求項1記載の顔検出システムである。
【0020】
請求項3の発明は、前記顔検出手段は、前記検出された右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行うことを特徴とする請求項1記載の顔検出システムである。
【0021】
請求項4の発明は、前記顔検出手段は、前記検出された両鼻孔、右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行うことを特徴とする請求項2記載の顔検出システムである。
【0022】
請求項5の発明は、前記顔検出手段は、前記取得した画像と複数の顔向きテンプレートとの類似度に基づいて顔向き計算を行うことを特徴とする請求項1から4のうち少なくとも一項に記載の顔検出システムである。
【0023】
請求項6の発明は、画像中から人物の顔を検出する顔検出方法であって、前記画像を取得する画像取得ステップと、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出ステップと、前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出ステップと、前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出ステップと、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出ステップと、を備えたことを特徴とする顔検出方法である。
【0024】
請求項7の発明は、画像中から人物の顔を検出する顔検出方法をコンピュータで実現するプログラムであって、前記画像を取得する画像取得機能と、前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出機能と、前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出機能と、前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出機能と、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出機能と、を実現することを特徴とする顔検出方法のプログラムである。
【0025】
請求項1、6、7の発明は、単鼻孔テンプレートと顔向きテンプレートを用いたものである。
【0026】
請求項1、6、7の発明は、分離度フィルタと、右鼻孔テンプレートを用いた右鼻孔検出と左鼻孔テンプレートを用いた左鼻孔検出と複数の顔向きテンプレートを用いた顔検出を組み合わせているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0027】
請求項2の発明は、請求項1の発明に両鼻孔検出処理を加えたものである。
【0028】
請求項2の発明は、分離度フィルタと右鼻孔テンプレートを用いた右鼻孔検出と左鼻孔テンプレートを用いた左鼻孔検出と両鼻孔テンプレートを用いた両鼻孔検出と複数の顔向きテンプレートを用いた顔検出を組み合わせているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0029】
請求項3の発明は、請求項3の発明に顔探索範囲設定処理を加えたものである。
【0030】
請求項3の発明は、分離度フィルタを用いた右鼻孔検出と左鼻孔検出によって顔探索範囲を適切に設定しているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0031】
請求項4の発明は、請求項2の発明に顔探索範囲設定処理を加えたものである。
【0032】
請求項4の発明は、分離度フィルタを用いた右鼻孔検出と左鼻孔検出と両鼻孔検出によって顔探索範囲を適切に設定しているために、人物の顔向きが左右に大きく変化しても、頑健で高精度の顔検出システムを提供することができる。
【0033】
請求項5の発明は、請求項1〜4の顔検出システムを用いたものである。
【0034】
請求項5の発明は、頑健で高精度の顔検出システムを用いて顔向き計算を行うために、頑健で高精度の顔向き計算ができる。
【0035】
【発明の実施の形態】
以下、図面を参照しながら本発明の各実施形態を説明する。
【0036】
(第1の実施形態)
(1)用語の定義
本明細書において、前提となる用語の定義を行う。
【0037】
(1−1)「左右」の定義について行う。
【0038】
左右の定義は、被写体(主として人物の顔)の解剖学的な左右とすることを基本とする。通常のカメラで正面から撮影した正常な(逆さまではない)顔画像における右目は、我々が顔画像を見るときに、我々から顔画像に向かって左側にあることになる。顔向き、鼻孔についてもこれと同様とする。また、図3で説明される左向きの顔は、我々から顔画像に向かって右を向いている。一方、右向きの顔は、我々から顔画像に向かって左を向いている。さらに、図2、3における右鼻孔23、33は、我々から図に向かって左側にあり、左鼻孔24、34は、我々から図に向かって右側にある。以上のように左右を定義することにより、たとえ、被写体が逆さまになっていようとも、右目や右向きの定義に曖昧さは生じない。
【0039】
右鼻孔と左鼻孔を総称して、両鼻孔に対して「単鼻孔」と呼ぶことにする。
【0040】
(1−2)「顔向きの正面向き」、「上向き」、「下向き」、「右向き」、「左向き」、「上向き度」、「横向き度」の定義について行う。
【0041】
カメラに写る顔画像は頭部の姿勢によって見え方が変化する。そのため、カメラを基準にした頭部の姿勢(すなわち、顔の姿勢)のことを「顔向き」と呼ぶことにする。
【0042】
図2のように真っ直ぐにカメラに顔を向けたときの顔向きを「正面向き」とする。
【0043】
正面向きよりも上を向いたとき「上向き」と呼び、角度変化が大きいほど「上向き度」が大きいとする。
【0044】
正面向きよりも下を向いたとき「下向き」と呼ぶ。
【0045】
正面向きよりも右を向いたとき「右向き」と呼び、角度変化が大きいほど右向き度が大きいとする。
【0046】
正面向きよりも左を向いたとき「左向き」と呼び、角度変化が大きいほど左向き度が大きいとする。
【0047】
図4に示したように、この右向き度と左向き度を総称して「横向き度」と呼ぶことにする。
【0048】
(1−3)テンプレートマッチングについて以下に説明する。
【0049】
「マッチング」とは(例えば、非特許文献4参照)、同じサイズの2つの画像があるとき、両者を重ね合わせてその違いを見ることでそれらが同じものか否かを判断することをいう。「マッチング」は「照合」ともいう。
【0050】
「テンプレートマッチング」とは(例えば、非特許文献4「画像処理標準テキストブック編集委員会(編)、画像処理標準テキストブック、画像情報教育振興協会(CG−ARTS)、1997年」参照)、「テンプレート」と呼ばれる標準画像を予め用意しておき、対象画像とこのテンプレートとのマッチングによって対象画像がテンプレートと同じものであるかどうか判断することをいう。
【0051】
2つの画像の違いを測る尺度としては、例えば、差の絶対値の和(SAD:Sum of Absolute Difference)が用いられる。SADは、画像サイズがM×Nの対象画像をI(m、n)、(m=1、…、M、n=1、…、N)、事前に用意する標準パターンであるテンプレートをT(m、n)、(m=1、…、M、n=1、…、N)とすると、差 I(m、n)−T(m、n)の絶対値をm=1、…、M、n=1、…、NについてM×N個の和を計算することで得られる。
【0052】
他に用いられる尺度として、正規化相互相関や差の自乗和がある。ここでは、さらに、部分空間法や増分符号相関法を用いた尺度も含めることにする。すなわち、マッチングの尺度が定義されるならば、用いられるテンプレートが元の画像そのままではなく変換されたものである場合も含めることにする。尺度を別の言葉で、「類似度」、「相違度」と呼ぶことがある。このとき、2つの画像の違いが小さいほど大きな値をとる場合は「類似度」、違いが小さいほど小さな値をとる場合は「相違度」と呼ぶ。
【0053】
顔検出システムに入力された画像がM×Nより大きなサイズであり、比較すべき対象画像が、その画像中のどこに含まれているか予め分かっていない場合は、画像中をテンプレートを移動させながら両画像の類似度を調べていく。そして、最大類似度が、予め設定しておいた閾値よりも大きい場合に、テンプレートと同じものが最大類似度を与える位置に検出されたと判断する。最大類似度が、予め設定しておいた閾値よりも小さい場合は、入力された画像中にテンプレートと同じものは検出されなかったと判断する。
【0054】
テンプレートの画像サイズよりも大きな画像サイズの対象画像を検出することが必要な場合がある。そのときは、画像中をテンプレートを移動させることと同時に画像を縮小することを行ってマッチングをとる。例えば、顔を検出するための顔テンプレートの画像サイズが15×15で、画像中の顔領域のサイズが100×100である場合等である。この場合、画像を縮小率=15/100で縮小する処理と画像中をテンプレートを移動させる処理との両方を行う。顔領域のサイズが予め分かっていない場合は、縮小率も変化させる必要があり、様々な縮小率の値についてマッチングをとる。テンプレートのサイズを画像中の対象領域のサイズよりも小さくすることで、計算機処理時間やメモリ量の節約になる。
【0055】
このようにしてテンプレートマッチングの処理により、テンプレートと同じものが画像中に存在するかどうか、存在するとすればその検出位置と大きさを知ることができる。存在すると判断された場合は「検出された」という。検出位置は、テンプレートと重ね合わせたときのテンプレートの中心位置や、テンプレートの左上隅、右下隅の位置等、その後の処理に便利な方法で表現する。
【0056】
(2)顔向き計算システム1の構成
図1は、本発明の第1の実施形態に係る顔向き計算システム1を示す構成図である。
【0057】
顔向き計算システム1は、画像を入力すると、画像中から顔を発見し、頭部位置と鼻位置と顔向きを出力するものであり、システム内部に、分離度フィルタによる右鼻孔検出と左鼻孔検出を行う部分と、複数の顔向きテンプレートによる顔検出を行う部分を持つことが特徴であり、図1に示すように、鼻検出部2と、画像入力部3と、顔検出部10と、顔向きテンプレート格納部11と、顔向き計算部12から構成されている。
【0058】
(2−1)画像入力部3
画像入力部3は、カメラから画像入力を受け取り、格納し、必要に応じて鼻検出部2や顔検出部10に画像を送る。
【0059】
(2−2)鼻検出部2
鼻検出部2は、画像入力部3に入力された画像を受け取り、画像中に鼻が存在するかどうか判定し、判定結果と、検出された鼻と鼻孔の位置の情報を顔検出部10へ送るものであり、図1に示すように、分離度検出部4と、右鼻孔検出部5と、右鼻孔テンプレート格納部6と、左鼻孔検出部7と、左鼻孔テンプレート格納部8と、鼻検出判定部9から構成されている。
【0060】
分離度検出部4は、画像入力部3から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部5と左鼻孔検出部7へ送る。
【0061】
右鼻孔検出部5は、分離度検出部4から特徴点候補の情報と画像を受け取り、右鼻孔テンプレート格納部6から右鼻孔テンプレートを受け取り、これらの情報を元に画像中に右鼻孔が存在するかどうか探索を行い、存在する場合は右鼻孔を検出する。そして、右鼻孔検出結果情報を鼻検出判定部9へ送る。
【0062】
ここで、「右鼻孔テンプレート」とは右鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、上記で説明したテンプレートマッチングによる画像照合で用いられるデータのことである。
【0063】
右鼻孔テンプレート格納部6は、予め右鼻孔テンプレートを格納しており、必要に応じて右鼻孔テンプレートを右鼻孔検出部5へ送る。
【0064】
左鼻孔検出部7は、分離度検出部4から特徴点候補の情報と画像を受け取り、左鼻孔テンプレート格納部8から左鼻孔テンプレートを受け取り、これらの情報を元に画像中に左鼻孔が存在するかどうか探索を行い、存在する場合は左鼻孔を検出する。そして、左鼻孔検出結果情報を鼻検出判定部9へ送る。
【0065】
左鼻孔テンプレート格納部8は、予め左鼻孔テンプレートを格納しており、必要に応じて左鼻孔テンプレートを左鼻孔検出部7へ送る。
【0066】
ここで、「左鼻孔テンプレート」とは左鼻孔位置の近傍の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0067】
鼻検出判定部9は、右鼻孔検出部5から右鼻孔検出結果情報を受け取り、左鼻孔検出部7から左鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部10へ送る。
【0068】
(2−3)顔検出部10
顔検出部10は、画像入力部3から画像を受け取り、鼻検出部2から鼻検出判定結果と検出された鼻と鼻孔の位置情報を受け取り、顔向きテンプレート格納部11から複数の顔向きテンプレートを受け取る。
【0069】
そして、これらの情報を用いて、画像中から顔の検出を行い、総合的に判断して顔が検出されたかどうか判定を行い、判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを顔向き計算部12へ送る。
【0070】
顔が検出されたかどうかの判定は、例えば次のように行う。
【0071】
鼻検出判定結果が「未検出」ならば、顔も未検出と判定する。
【0072】
鼻検出判定結果が「検出」ならば、検出された鼻と鼻孔の位置を利用してその近傍の範囲に対して顔向きテンプレートを移動させてマッチングを行う。顔向きテンプレートとの最大類似度が設定された閾値より大きければ、最大類似度を与える位置に顔が検出されたと判定する。このとき、もし右鼻孔のみが検出されている場合は、右向き顔よりも左向き顔の方が検出され易いと考えられるので、右向き顔のみが検出されるようなことが生じた場合には、その矛盾は誤検出から生じたものであろうと総合的に判断し、顔は未検出であると判定することができる。
【0073】
(2−4)顔向きテンプレート格納部11
顔向きテンプレート格納部11は、予め複数の顔向きテンプレートを格納しており、必要に応じて複数の顔向きテンプレートを顔検出部10へ送る。
【0074】
(2−5)顔向き計算部12
顔向き計算部12は、顔検出部10から顔検出判定結果と、複数の顔向きテンプレートに対する類似度情報と、検出された顔、鼻、鼻孔の位置情報とを受け取る。
【0075】
そして、類似度情報を元に検出された顔の顔向きを判定し、顔検出判定結果と、顔と鼻と鼻孔の位置情報と、顔向き情報をシステム外部に出力する。
【0076】
(3)顔向き計算システム1の動作内容
図2は、顔向きテンプレート対応領域21と両鼻孔テンプレート対応領域22と右鼻孔23と左鼻孔24との位置関係を説明するための概念図である。
【0077】
この顔画像の顔向きは正面向きであり、2つの鼻孔とも画像中に存在しており、両鼻孔が検出可能である。
【0078】
図3は、顔向きテンプレート対応領域31と右鼻孔テンプレート対応領域32と右鼻孔33と左鼻孔34との位置関係を説明するための概念図である。
【0079】
この顔画像の顔向きは左向きであり、右鼻孔が画像中に存在しており、右鼻孔が検出可能である。左鼻孔は隠れによって見えにくくなっており、左鼻孔の検出は困難である。
【0080】
図4は、顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【0081】
顔向きが正面向きならば両鼻孔、単鼻孔ともに検出可能であるが、横向き度が右向きになっていくに従い右鼻孔が隠れるようになり、その結果左鼻孔のみ検出可能という事態になる。さらに右向き度が大きくなるとついには左鼻孔も検出できなくなる。逆に、横向き度が左向きになっていくに従い左鼻孔が隠れるようになり、その結果右鼻孔のみ検出可能という事態になる。さらに左向き度が大きくなるとついには右鼻孔も検出できなくなる。
【0082】
これにより、顔が右向きであったり左向きであったりしても顔検出を成功させるためには、顔の特徴点である鼻孔の検出の際に、左鼻孔検出と右鼻孔検出の両方を行わせて、少なくともどちらか一方を検出することで鼻を検出すれば、広い範囲の横向き度に対して鼻検出及びそれを利用した顔検出を行わせることができるということが図4から判る。
【0083】
(4)顔向き計算処理手順
図5は、本実施形態における顔向き計算システム1の処理手順を示す流れ図である。
【0084】
最初に画像を入力し(ST1)、分離度検出部4が入力画像に分離度フィルタをかけて、分離度の値が大きく、極大値となる点(分離度ピーク)の画像上の位置を複数個抽出する(ST2)。
【0085】
次に、右鼻孔検出部5が右鼻孔テンプレートと分離度ピーク上の画像を照合し(ST3)、左鼻孔検出部7が左鼻孔テンプレートと分離度ピーク上の画像を照合する(ST4)。これらステップST3とステップST4は同時に処理することができる。
【0086】
次に、鼻検出判定部9が画像中から鼻が検出されたかどうか判定を行い(ST5)、検出された場合はステップST7へ進み、検出されなかった場合はステップST1へ行く(ST6)。
【0087】
ステップST7では、検出された鼻位置の情報に基づいて顔向きテンプレートを移動させる顔探索範囲の設定を行う。顔探索範囲は、検出された鼻位置と顔の位置の整合性が著しく損なわれないようなある範囲に設定したり、鼻位置を基準にして決められた顔領域1個所のみに限定させる場合がある。
【0088】
次に、顔検出部10が画像中から顔の検出を行い、顔向き計算部12が顔の顔向きを判定する(ST8)。
【0089】
次に、顔向き計算部12が頭部位置、鼻位置、顔向きを出力し(ST9)、顔向き計算を続ける場合はステップST1へ行き、顔向き計算を終了する場合は顔向き計算を終了する(ST10)。
【0090】
(第2の実施形態)
図6は、本発明の第2の実施形態に係る顔向き計算システム101を示す構成図であり、図1と同一部分には下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0091】
本実施形態では、両鼻孔検出を利用することにより正面向きの顔に対する検出性能を向上させている。
【0092】
特に、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定した場合に、右鼻孔や左鼻孔の単鼻孔は検出できないが両鼻孔を検出できる場合がある。そのため、このような場合に両鼻孔の検出状態を用いて正面向きの顔を検出するのに有効である。なお、両鼻孔を検出する閾値より右鼻孔や左鼻孔を検出する閾値を高く設定する理由は、両鼻孔は二つの孔が並んだ特有の特徴点候補であるため、閾値を低く設定しても検出できるからである。
【0093】
(1)顔向き計算システム101の構成
鼻検出部102は、分離度検出部104と、右鼻孔検出部105と、右鼻孔テンプレート格納部106と、左鼻孔検出部107と、左鼻孔テンプレート格納部108と、両鼻孔検出部113と、両鼻孔テンプレート格納部114と、鼻検出判定部109から構成されている。
【0094】
分離度検出部104は、画像入力部103から画像を受け取り、分離度フィルタを用いて顔の特徴点候補を抽出し、特徴点候補の情報と画像を右鼻孔検出部105と左鼻孔検出部107と両鼻孔検出部113へ送る。
【0095】
両鼻孔検出部113は、分離度検出部104から特徴点候補の情報と画像を受け取り、両鼻孔テンプレート格納部114から両鼻孔テンプレートを受け取り、これらの情報を元に画像中に両鼻孔が存在するかどうか探索を行い、存在する場合は両鼻孔を検出する。そして、両鼻孔検出結果情報を鼻検出判定部109へ送る。
【0096】
両鼻孔テンプレート格納部114は、予め両鼻孔テンプレートを格納しており、必要に応じて両鼻孔テンプレートを両鼻孔検出部113へ送る。
【0097】
ここで「両鼻孔テンプレート」とは、右鼻孔と左鼻孔を含む特定の領域の画像をそのまま或いは主成分分析を行う等で変換したものであり、テンプレートマッチングによる画像照合で用いられるデータのことである。
【0098】
鼻検出判定部109は、右鼻孔検出部105から右鼻孔検出結果情報を受け取り、左鼻孔検出部107から左鼻孔検出結果情報を受け取り、両鼻孔検出部113から両鼻孔検出結果情報を受け取り、これらの情報を総合的に判断して画像中から鼻が検出されたかどうか判定を行い、判定結果と検出された鼻と鼻孔の位置情報を顔検出部110へ送る。
【0099】
(2)顔向き計算処理手順
図7は同実施形態に係る顔向き計算システム101の処理手順を示す流れ図であり、図5と同一部分には数値下2桁に関して同一符号を付して説明を省略し、ここでは異なる部分についてのみ述べる。
【0100】
ステップST111では、分離度ピークの全ピーク対に対して、両鼻孔が対応づけ得るかどうか幾何学的な制約を課して判定を行う。
【0101】
次に、判定結果がOKだったピーク対に対して両鼻孔テンプレートとの照合を行う(ST112)。ステップST103と、ステップST104と、「ステップST111とステップST112」の3者は同時に処理することができる。
【0102】
【発明の効果】
上記詳記したように本発明によれば、人物の顔向きが左右に大きく変化したり、眼鏡を着用している場合でも、頑健で高精度の顔検出システムを提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図2】同実施形態に係る両鼻孔テンプレートを説明する概念図である。
【図3】同実施形態に係る単鼻孔テンプレートを説明する概念図である。
【図4】同実施形態に係る顔の横向き度と鼻孔検出可能範囲との関係を説明する概念図である。
【図5】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【図6】本発明の第2の実施形態に係る顔向き計算システムの一例を示す構成図である。
【図7】同実施形態に係る顔向き計算処理の一例を示す流れ図である。
【符号の説明】
1、101 顔向き計算システム
2、102 鼻検出部
3、103 画像入力部
4、104 分離度検出部
5、105 右鼻孔検出部
6、106 右鼻孔テンプレート格納部
7、107 左鼻孔検出部
8、108 左鼻孔テンプレート格納部
9、109 鼻検出判定部
10、110 顔検出部
11、111 顔向きテンプレート格納部
12、112 顔向き計算部
21、31 顔向きテンプレート対応領域
22 両鼻孔テンプレート対応領域
23、33 右鼻孔
24、34 左鼻孔
32 右鼻孔テンプレート対応領域
113 両鼻孔検出部
114 両鼻孔テンプレート格納部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a face detection system based on a face image and a method for appropriately cutting out a face image of a person from an image for a wide range of face orientation angles.
[0002]
[Prior art]
(1) Application of face detection
Face detection based on an image is a technique for examining whether or not a human face exists in two-dimensional image data, and when present, finding the position of the face, and can be used in various fields. However, it is difficult to detect a face in various states (various face orientations, various lighting conditions, various expressions, etc.) robustly in real time using a computer from images taken by a camera. Even with the state-of-the-art technology, it cannot be said that sufficient performance has yet been achieved. For this reason, it is considered that some face detection application fields have not yet become apparent.
[0003]
At present, face detection technology is mainly used in face recognition systems as applications to security systems such as door locks. However, if the performance of face detection technology can be further improved and face detection and face direction calculation can be performed for various face orientations, drivers of vehicles, audiences of exhibits, operators of console terminals, games Face detection technology can be applied to a terminal operator or the like.
[0004]
For the driver of the vehicle, face detection and face direction calculation can detect inattentive driving hindrance and sound an alarm, or present appropriate information for safe operation according to the face direction. .
[0005]
For the audience of the exhibit, it is possible to identify the exhibition that the audience is paying attention to by face detection and face orientation calculation, and to automatically present information on the exhibition.
[0006]
For the operator of the console terminal, the work efficiency can be improved by specifying the display window to be operated by face detection and face direction calculation and moving the cursor.
[0007]
For game terminal operators, face detection and face direction calculation can be used to change the viewpoint of the game environment, determine shooting targets, and use swinging motions to help communicate with characters. it can.
[0008]
(2) Conventional face detection technology
As one of the promising conventional face detection technologies, there is a technology that combines detection of a feature point of a face such as an eye and a nose with a separation filter and detection of a pattern of an area including the feature point (for example, see
[0009]
As another method of face detection, there is a method in which face direction templates having different face directions are registered in advance and used (for example, see Non-Patent Document 3). Although this method can detect a face even with a large change in the face direction, the accuracy of feature point detection is inferior to a method using a separability filter.
[0010]
Furthermore, in the conventional face detection technology, eyes are used as feature points of the face, and face detection sometimes fails when wearing spectacles.
[0011]
[Patent Document 1]
Japanese Patent No. 3279913
[0012]
[Non-patent document 1]
Yamaguchi, Fukui, "Face Recognition System" Smartface "Robust to Changes in Face Direction and Expression", Transactions of the Institute of Electronics, Information and Communication Engineers, June 2001, J84-D-II, No. 6, p. 1045-1052
[0013]
[Non-patent document 2]
Fukui, Yamaguchi, "Face feature point extraction by combination of shape extraction and pattern matching", IEICE Transactions, August 1997, J80-D-II, No. 8, p. 2170-2177
[0014]
[Non-Patent Document 3]
A. Pentland, and two others, View-based and modular eigenspaces for face recognition, Proceedings of IEEE Computer Computer Society, Union of Computers, Republic of the Union, United States, USA 84-91
[0015]
[Problems to be solved by the invention]
The present invention has been made in consideration of the above circumstances, and its object is to provide a robust and high-precision face detection system and a highly accurate face detection system, even when the face direction of a person changes significantly from side to side or wearing glasses. It is to provide a method.
[0016]
Note that “robustness” refers to “a property that is unlikely to cause a large failure even under bad conditions” when performing face detection processing or the like using an image. For example, when the detection process is unlikely to fail even if the face image is deformed, the lighting conditions change, or the color of the face image changes due to makeup, the method is referred to as a “robust face detection method”.
[0017]
The present invention mainly provides an excellent technique regarding the robustness of the face detection processing when the face is largely turned sideways.
[0018]
[Means for Solving the Problems]
The invention according to
[0019]
The invention of claim 2 comprises a nostril template storage means for storing a nostril template, and a nostril detection means for performing a nostril detection using the extracted feature point candidate and the stored nostril template, The face detecting means selects a predetermined face direction template from the plurality of stored face direction templates based on the detection state of the both nostrils, the detection state of the right nostril, or the detection state of the left nostril. The face detection system according to
[0020]
The face detecting means may limit the face search range to a predetermined range based on the detected right nostril or left nostril, and the face direction may be determined in the limited face search range. The face detection system according to
[0021]
The invention according to
[0022]
The invention according to claim 5 is characterized in that the face detection means performs face direction calculation based on the similarity between the acquired image and a plurality of face direction templates. 2. A face detection system according to
[0023]
The invention of
[0024]
The invention according to
[0025]
The inventions of
[0026]
The inventions of
[0027]
A second aspect of the present invention is obtained by adding both nostrils detection processing to the first aspect of the present invention.
[0028]
The invention of claim 2 provides a right nostril detection using a separation filter and a right nostril template, a left nostril detection using a left nostril template, a double nostril detection using a both nostril template, and a face using a plurality of face orientation templates. Since detection is combined, a robust and high-accuracy face detection system can be provided even when the face direction of a person greatly changes from side to side.
[0029]
According to a third aspect of the present invention, a face search range setting process is added to the third aspect of the present invention.
[0030]
According to the third aspect of the present invention, since the face search range is appropriately set by the right nostril detection and the left nostril detection using the separability filter, even if the face direction of the person greatly changes from side to side, it is robust and high. An accurate face detection system can be provided.
[0031]
According to a fourth aspect of the present invention, a face search range setting process is added to the second aspect of the present invention.
[0032]
According to the fourth aspect of the present invention, since the face search range is appropriately set by the right nostril detection, the left nostril detection, and the both nostrils detection using the degree of separation filter, even if the face direction of the person greatly changes from side to side. A robust and highly accurate face detection system can be provided.
[0033]
The invention of claim 5 uses the face detection system of
[0034]
According to the fifth aspect of the present invention, since the face direction calculation is performed using a robust and high-accuracy face detection system, a robust and high-accuracy face direction calculation can be performed.
[0035]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0036]
(1st Embodiment)
(1) Definition of terms
In this specification, a prerequisite term is defined.
[0037]
(1-1) The definition of “left and right” is performed.
[0038]
The definition of left and right is based on the anatomical left and right of a subject (mainly a human face). The right eye in a normal (not upside down) face image taken from the front with a normal camera will be on the left side from us toward the face image when we look at the face image. The same applies to the face orientation and the nostrils. In addition, the left-facing face described in FIG. 3 faces right from us toward the face image. On the other hand, the right-facing face is facing left from us toward the face image. In addition, the
[0039]
The right and left nostrils are collectively referred to as "single nostrils" for both nostrils.
[0040]
(1-2) Definition of “front direction of face direction”, “upward direction”, “downward direction”, “rightward direction”, “leftward direction”, “upward degree”, and “horizontal degree” is performed.
[0041]
The appearance of the face image captured by the camera changes depending on the posture of the head. Therefore, the posture of the head with respect to the camera (that is, the posture of the face) will be referred to as “facial orientation”.
[0042]
As shown in FIG. 2, the face direction when the face is pointed straight at the camera is referred to as “front direction”.
[0043]
When facing upward from the front, it is referred to as "upward", and the greater the angle change, the greater the "upward degree".
[0044]
When facing downward from the front, it is called "downward".
[0045]
It is called “rightward” when facing rightward rather than frontward, and it is assumed that the greater the angle change, the greater the degree of rightward facing.
[0046]
It is called “leftward” when facing leftward rather than frontward, and the greater the angle change, the greater the degree of leftward facing.
[0047]
As shown in FIG. 4, the rightward degree and the leftward degree are collectively referred to as “lateral degree”.
[0048]
(1-3) Template matching will be described below.
[0049]
"Matching" (for example, see Non-Patent Document 4) means that when there are two images of the same size, they are overlapped and the difference is determined to determine whether they are the same. “Matching” is also called “collation”.
[0050]
“Template matching” is described in, for example,
[0051]
As a scale for measuring a difference between two images, for example, a sum of absolute values (SAD: Sum of Absolute Difference) is used. In the SAD, a target image having an image size of M × N is I (m, n), (m = 1,..., M, n = 1,..., N), and a template which is a standard pattern prepared in advance is T ( m, n), (m = 1,..., M, n = 1,..., N), the absolute value of the difference I (m, n) −T (m, n) is m = 1,. , N = 1,..., N are obtained by calculating M × N sums.
[0052]
Other measures used include normalized cross-correlation and sum of squared differences. Here, a measure using the subspace method or the incremental code correlation method is also included. That is, if the matching scale is defined, the case where the template used is not the original image itself but a converted one is also included. The scale may be called "similarity" or "difference" in another word. At this time, the smaller the difference between the two images, the larger the value is called “similarity”, and the smaller the difference, the smaller the value is called “dissimilarity”.
[0053]
If the image input to the face detection system has a size larger than M × N, and it is not known in advance where the target image to be compared is included in the image, the user moves both templates in the image while moving the template. Check the similarity of the images. Then, when the maximum similarity is larger than a preset threshold, it is determined that the same one as the template has been detected at the position giving the maximum similarity. If the maximum similarity is smaller than a preset threshold, it is determined that the same image as the template has not been detected in the input image.
[0054]
It may be necessary to detect a target image having an image size larger than the image size of the template. In that case, matching is performed by moving the template in the image and simultaneously reducing the image. For example, there is a case where the image size of the face template for detecting a face is 15 × 15 and the size of the face region in the image is 100 × 100. In this case, both processing for reducing the image at a reduction ratio of 15/100 and processing for moving the template in the image are performed. If the size of the face area is not known in advance, it is necessary to change the reduction ratio, and matching is performed for various values of the reduction ratio. By making the size of the template smaller than the size of the target area in the image, computer processing time and memory amount can be saved.
[0055]
In this way, by the template matching process, it is possible to know whether or not the same thing as the template exists in the image, and if so, its detection position and size. If it is determined that it exists, it is said to have been detected. The detection position is represented by a method convenient for the subsequent processing, such as the center position of the template when it is superimposed on the template, the position of the upper left corner, the lower right corner of the template, and the like.
[0056]
(2) Configuration of face
FIG. 1 is a configuration diagram showing a face
[0057]
Upon input of an image, the face
[0058]
(2-1)
The
[0059]
(2-2) Nose detector 2
The nose detection unit 2 receives the image input to the
[0060]
The degree-of-
[0061]
The right nostril detection unit 5 receives the information and the image of the feature point candidate from the separation
[0062]
Here, the “right nostril template” is obtained by converting an image of a region near the position of the right nostril as it is or by performing principal component analysis and the like, and is data used in image matching by template matching described above. It is.
[0063]
The right nostril
[0064]
The left
[0065]
The left nostril template storage unit 8 stores the left nostril template in advance, and sends the left nostril template to the left
[0066]
Here, the “left nostril template” is obtained by converting an image of a region near the left nostril position as it is or by performing principal component analysis, and is data used in image matching by template matching.
[0067]
The nose detection determination unit 9 receives the right nostril detection result information from the right nostril detection unit 5, receives the left nostril detection result information from the left
[0068]
(2-3)
The
[0069]
Then, using these pieces of information, a face is detected from the image, and a comprehensive determination is made to determine whether a face has been detected. The determination result, similarity information for a plurality of face orientation templates, and detection The obtained face, nose, and nostril position information are sent to the face
[0070]
The determination as to whether a face has been detected is performed, for example, as follows.
[0071]
If the nose detection determination result is “not detected”, it is determined that the face has not been detected.
[0072]
If the result of the nose detection determination is "detection", matching is performed by moving the face direction template to a range in the vicinity of the detected nose and the position of the nostril. If the maximum similarity with the face orientation template is larger than the set threshold value, it is determined that the face is detected at the position giving the maximum similarity. At this time, if only the right nostril is detected, it is considered that the left-facing face is more likely to be detected than the right-facing face. It is possible to comprehensively determine that the contradiction is caused by erroneous detection, and determine that the face has not been detected.
[0073]
(2-4) Face orientation
The face orientation
[0074]
(2-5) Face
The face
[0075]
Then, the face direction of the detected face is determined based on the similarity information, and the face detection determination result, the position information of the face, the nose and the nostrils, and the face direction information are output to the outside of the system.
[0076]
(3) Operation contents of the face
FIG. 2 is a conceptual diagram for explaining the positional relationship between the face orientation
[0077]
The face direction of this face image is the front direction, both nostrils are present in the image, and both nostrils can be detected.
[0078]
FIG. 3 is a conceptual diagram for explaining the positional relationship between the face orientation
[0079]
The face direction of this face image is to the left, the right nostril is present in the image, and the right nostril can be detected. The left nostril is difficult to see due to hiding, and it is difficult to detect the left nostril.
[0080]
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range.
[0081]
If the face is facing forward, both nostrils and single nostrils can be detected, but as the degree of laterality becomes right, the right nostrils become hidden, and as a result, only the left nostrils can be detected. When the rightward degree further increases, finally the left nostril cannot be detected. Conversely, the left nostrils become hidden as the horizontal degree becomes leftward, so that only the right nostrils can be detected. When the degree of leftward orientation further increases, the right nostril can no longer be detected.
[0082]
Thus, in order to successfully detect the face even if the face is facing right or left, both the left nostril detection and the right nostril detection should be performed when the nostrils that are the feature points of the face are detected. FIG. 4 shows that if the nose is detected by detecting at least one of them, the nose detection and the face detection using the nose can be performed for a wide range of lateral degrees.
[0083]
(4) Face direction calculation processing procedure
FIG. 5 is a flowchart illustrating a processing procedure of the face
[0084]
First, an image is input (ST1), and the
[0085]
Next, the right nostril detection unit 5 collates the right nostril template with the image on the separability peak (ST3), and the left
[0086]
Next, the nose detection determination unit 9 determines whether a nose is detected in the image (ST5). If detected, the process proceeds to step ST7, and if not detected, the process proceeds to step ST1 (ST6).
[0087]
In step ST7, a face search range in which the face direction template is moved is set based on the information on the detected nose position. The face search range may be set to a certain range that does not significantly impair the consistency between the detected nose position and the face position, or may be limited to only one face region determined based on the nose position. is there.
[0088]
Next, the
[0089]
Next, the face
[0090]
(Second embodiment)
FIG. 6 is a configuration diagram showing a face
[0091]
In the present embodiment, the detection performance for a front-facing face is improved by utilizing the detection of both nostrils.
[0092]
In particular, when the threshold value for detecting the right nostril or the left nostril is set higher than the threshold value for detecting the both nostrils, a single nostril of the right nostril or the left nostril cannot be detected, but both nostrils may be detected. Therefore, in such a case, it is effective to detect a front-facing face using the detection state of both nostrils. Note that the reason for setting the threshold for detecting the right nostril and the left nostril higher than the threshold for detecting both nostrils is that both nostrils are unique feature point candidates in which two holes are lined up. This is because it can be detected.
[0093]
(1) Configuration of face
The
[0094]
The degree-of-
[0095]
Both
[0096]
The nostril
[0097]
Here, the “bore nostril template” is obtained by converting an image of a specific region including the right nostril and the left nostril as it is or by performing principal component analysis, and is data used in image matching by template matching. is there.
[0098]
The nose
[0099]
(2) Face direction calculation processing procedure
FIG. 7 is a flowchart showing a processing procedure of the face
[0100]
In step ST111, a determination is made by imposing a geometric constraint on whether or not both nostrils can correspond to all peak pairs of the resolution peak.
[0101]
Next, the peak pair whose determination result is OK is collated with both nostril templates (ST112). Step ST103, step ST104, and “step ST111 and step ST112” can be performed simultaneously.
[0102]
【The invention's effect】
As described in detail above, according to the present invention, it is possible to provide a robust and highly accurate face detection system even when the face direction of a person changes greatly from side to side or wearing glasses.
[Brief description of the drawings]
FIG. 1 is a configuration diagram illustrating an example of a face orientation calculation system according to a first embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating a nostril template according to the embodiment.
FIG. 3 is a conceptual diagram illustrating a single nostril template according to the embodiment.
FIG. 4 is a conceptual diagram illustrating the relationship between the degree of lateral orientation of the face and the nostril detectable range according to the embodiment.
FIG. 5 is a flowchart illustrating an example of a face direction calculation process according to the embodiment.
FIG. 6 is a configuration diagram illustrating an example of a face direction calculation system according to a second embodiment of the present invention.
FIG. 7 is a flowchart showing an example of a face direction calculation process according to the embodiment.
[Explanation of symbols]
1,101 Face orientation calculation system
2,102 Nose detector
3,103 Image input unit
4,104 Separation degree detector
5, 105 Right nostril detector
6,106 Right nostril template storage
7, 107 Left nostril detector
8,108 Left nostril template storage
9,109 Nose detection determination unit
10,110 Face detection unit
11,111 Face orientation template storage
12, 112 Face direction calculation unit
21, 31 Face orientation template corresponding area
22 Nostril template corresponding area
23, 33 right nostril
24, 34 Left nostril
32 Right nostril template corresponding area
113 Nostril detector
114 Nostril template storage
Claims (7)
前記画像を取得する画像取得手段と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出手段と、
複数の顔向きテンプレートを記憶した顔向きテンプレート記憶手段と、
右鼻孔テンプレートを記憶した右鼻孔テンプレート記憶手段と、
左鼻孔テンプレートを記憶した左鼻孔テンプレート記憶手段と、
前記抽出した特徴点候補と前記記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出手段と、
前記抽出した特徴点候補と前記記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出手段と、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出手段と、
を備えた
ことを特徴とする顔検出システム。A face detection system that detects a human face from an image,
Image acquisition means for acquiring the image,
Separation degree detecting means for extracting a feature point candidate from the obtained image by a separation degree filter,
A face orientation template storage means for storing a plurality of face orientation templates,
Right nostril template storage means for storing a right nostril template;
Left nostril template storage means for storing a left nostril template;
Right nostril detection means for performing right nostril detection using the extracted feature point candidates and the stored right nostril template,
Left nostril detection means for performing left nostril detection using the extracted feature point candidates and the stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from the plurality of stored face orientation templates, and the selected face orientation template and the acquired image are used. Face detection means for performing face detection by
A face detection system comprising:
前記抽出した特徴点候補と前記記憶した両鼻孔テンプレートを用いて両鼻孔検出を行う両鼻孔検出手段と、
を備え、
前記顔検出手段は、
前記両鼻孔の検出状態、前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、前記記憶した複数の複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。Nostril template storage means for storing both nostril templates,
Nostril detecting means for detecting both nostrils using the extracted feature point candidates and the stored nostril template,
With
The face detection means,
Based on the detection state of the both nostrils, the detection state of the right nostril, or the detection state of the left nostril, a predetermined face direction template is selected from the plurality of stored face direction templates, and the selected face is selected. The face detection system according to claim 1, wherein face detection is performed using an orientation template and the acquired image.
前記検出された右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項1記載の顔検出システム。The face detection means,
The detected right nostril, or limiting the face search range to a predetermined range based on the left nostril, performing the face detection by moving the face orientation template in the limited face search range. The face detection system according to claim 1, wherein
前記検出された両鼻孔、右鼻孔、または、左鼻孔を基準にした所定の範囲に顔探索範囲を限定して、この限定した顔探索範囲で前記顔向きテンプレートを移動させて顔検出を行う
ことを特徴とする請求項2記載の顔検出システム。The face detection means,
Limiting the face search range to a predetermined range based on the detected nostrils, right nostril, or left nostril, and performing face detection by moving the face orientation template in the limited face search range The face detection system according to claim 2, wherein:
前記取得した画像と複数の顔向きテンプレートとの類似度に基づいて顔向き計算を行う
ことを特徴とする請求項1から4のうち少なくとも一項に記載の顔検出システム。The face detection means,
The face detection system according to claim 1, wherein a face direction is calculated based on a degree of similarity between the obtained image and a plurality of face direction templates.
前記画像を取得する画像取得ステップと、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出ステップと、
前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出ステップと、
前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出ステップと、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出ステップと、
を備えた
ことを特徴とする顔検出方法。A face detection method for detecting a human face from an image,
An image acquisition step of acquiring the image,
A separation degree detecting step of extracting a feature point candidate from the obtained image by a separation degree filter,
A right nostril detection step of performing a right nostril detection using the extracted feature point candidates and a pre-stored right nostril template;
A left nostril detection step of performing left nostril detection using the extracted feature point candidates and a previously stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates, and the selected face orientation template and the acquired image are used. A face detection step of performing face detection by
A face detection method comprising:
前記画像を取得する画像取得機能と、
前記取得した画像から特徴点候補の抽出を分離度フィルタによって行う分離度検出機能と、
前記抽出した特徴点候補と予め記憶した右鼻孔テンプレートを用いて右鼻孔検出を行う右鼻孔検出機能と、
前記抽出した特徴点候補と予め記憶した左鼻孔テンプレートを用いて左鼻孔検出を行う左鼻孔検出機能と、
前記右鼻孔の検出状態、または、前記左鼻孔の検出状態に基づいて、予め記憶した複数の顔向きテンプレートから所定の顔向きテンプレートを選択し、この選択した顔向きテンプレートと前記取得した画像を用いて顔検出を行う顔検出機能と、
を実現する
ことを特徴とする顔検出方法のプログラム。A computer-implemented program for detecting a face of a person from an image by a computer,
An image acquisition function for acquiring the image,
A separation degree detection function of extracting a feature point candidate from the acquired image by a separation degree filter,
A right nostril detection function for performing right nostril detection using the extracted feature point candidates and a pre-stored right nostril template,
A left nostril detection function for performing left nostril detection using the extracted feature point candidates and a pre-stored left nostril template,
Based on the detection state of the right nostril or the detection state of the left nostril, a predetermined face orientation template is selected from a plurality of pre-stored face orientation templates, and the selected face orientation template and the acquired image are used. A face detection function that performs face detection
A program for a face detection method characterized by realizing the following.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052046A JP4043973B2 (en) | 2003-02-27 | 2003-02-27 | Face detection system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003052046A JP4043973B2 (en) | 2003-02-27 | 2003-02-27 | Face detection system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004259215A true JP2004259215A (en) | 2004-09-16 |
JP4043973B2 JP4043973B2 (en) | 2008-02-06 |
Family
ID=33117007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003052046A Expired - Fee Related JP4043973B2 (en) | 2003-02-27 | 2003-02-27 | Face detection system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4043973B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005266868A (en) * | 2004-03-16 | 2005-09-29 | National Univ Corp Shizuoka Univ | Method for detecting direction of head part using pupil and nostril |
JP2006120128A (en) * | 2004-09-21 | 2006-05-11 | Fuji Photo Film Co Ltd | Image processing device, image processing method and image processing program |
JP2008194309A (en) * | 2007-02-14 | 2008-08-28 | Toyota Motor Corp | Eye detector, nap detector, and method of eye detector |
JP2009232243A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Image processing unit, image processing method, and computer program for image processing |
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
JP2009279186A (en) * | 2008-05-22 | 2009-12-03 | Toyota Motor Corp | Face detecting device and method |
US7835551B2 (en) | 2006-02-20 | 2010-11-16 | Funai Electric Co., Ltd. | Television set and authentication device |
US8044990B2 (en) | 2005-08-17 | 2011-10-25 | Sony Corporation | Camera controller and teleconferencing system |
JP2012155631A (en) * | 2011-01-27 | 2012-08-16 | Fujitsu Ltd | Facial expression determining program and facial expression determining device |
US8331631B2 (en) | 2006-02-08 | 2012-12-11 | Fujifilm Corporation | Method, apparatus, and program for discriminating the states of subjects |
US20130076881A1 (en) * | 2011-09-26 | 2013-03-28 | Honda Motor Co., Ltd. | Facial direction detecting apparatus |
US9858471B2 (en) | 2015-09-09 | 2018-01-02 | Kabushiki Kaisha Toshiba | Identification apparatus and authentication system |
JP2022043749A (en) * | 2020-09-04 | 2022-03-16 | 株式会社セルシス | Information processing device, information processing system, information processing method, and program |
-
2003
- 2003-02-27 JP JP2003052046A patent/JP4043973B2/en not_active Expired - Fee Related
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005266868A (en) * | 2004-03-16 | 2005-09-29 | National Univ Corp Shizuoka Univ | Method for detecting direction of head part using pupil and nostril |
JP2006120128A (en) * | 2004-09-21 | 2006-05-11 | Fuji Photo Film Co Ltd | Image processing device, image processing method and image processing program |
JP4702534B2 (en) * | 2004-09-21 | 2011-06-15 | 富士フイルム株式会社 | Image processing apparatus, image processing method, and image processing program |
US8044990B2 (en) | 2005-08-17 | 2011-10-25 | Sony Corporation | Camera controller and teleconferencing system |
US8331631B2 (en) | 2006-02-08 | 2012-12-11 | Fujifilm Corporation | Method, apparatus, and program for discriminating the states of subjects |
US7835551B2 (en) | 2006-02-20 | 2010-11-16 | Funai Electric Co., Ltd. | Television set and authentication device |
JP2008194309A (en) * | 2007-02-14 | 2008-08-28 | Toyota Motor Corp | Eye detector, nap detector, and method of eye detector |
JP2009231878A (en) * | 2008-03-19 | 2009-10-08 | Seiko Epson Corp | Image processing unit and image processing method |
JP2009232243A (en) * | 2008-03-24 | 2009-10-08 | Seiko Epson Corp | Image processing unit, image processing method, and computer program for image processing |
JP2009279186A (en) * | 2008-05-22 | 2009-12-03 | Toyota Motor Corp | Face detecting device and method |
JP2012155631A (en) * | 2011-01-27 | 2012-08-16 | Fujitsu Ltd | Facial expression determining program and facial expression determining device |
US20130076881A1 (en) * | 2011-09-26 | 2013-03-28 | Honda Motor Co., Ltd. | Facial direction detecting apparatus |
US9858471B2 (en) | 2015-09-09 | 2018-01-02 | Kabushiki Kaisha Toshiba | Identification apparatus and authentication system |
JP2022043749A (en) * | 2020-09-04 | 2022-03-16 | 株式会社セルシス | Information processing device, information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP4043973B2 (en) | 2008-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6430064B2 (en) | Method and system for aligning data | |
JP6464934B2 (en) | Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program | |
Colombo et al. | 3D face detection using curvature analysis | |
Malassiotis et al. | Robust real-time 3D head pose estimation from range data | |
EP1556805B1 (en) | Tracking a surface in a 3-dimensional scene using natural visual features of the surface | |
US10033985B2 (en) | Camera pose estimation apparatus and method for augmented reality imaging | |
EP2201495B1 (en) | Computer vision cad models | |
US8355529B2 (en) | Motion capture apparatus and method, and motion capture program | |
JP4653606B2 (en) | Image recognition apparatus, method and program | |
KR101956071B1 (en) | Method and apparatus for verifying a user | |
EP1742169B1 (en) | Tracking apparatus | |
JP6587435B2 (en) | Image processing apparatus, information processing method, and program | |
US9916495B2 (en) | Face comparison device, method, and recording medium | |
JP2007042072A (en) | Tracking apparatus | |
JP2004259215A (en) | Face detection system and its method | |
Shao et al. | Robust height estimation of moving objects from uncalibrated videos | |
JP2008250999A (en) | Object tracing method, object tracing device and object tracing program | |
KR20150065445A (en) | Apparatus and method for detecting frontal face image using facial pose | |
US20120314904A1 (en) | Image collation system, image collation method and computer program | |
Hayet et al. | Visual landmarks detection and recognition for mobile robot navigation | |
Rekik et al. | 3d face pose tracking using low quality depth cameras | |
JP5734000B2 (en) | Object identification system and method, and feature point position extraction system and method | |
CN111797652A (en) | Object tracking method, device and storage medium | |
JP2014032605A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2017097549A (en) | Image processing apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070821 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071114 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101122 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111122 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121122 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131122 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |