JP2004206665A - Human face detecting method and human face detecting device - Google Patents

Human face detecting method and human face detecting device Download PDF

Info

Publication number
JP2004206665A
JP2004206665A JP2003097250A JP2003097250A JP2004206665A JP 2004206665 A JP2004206665 A JP 2004206665A JP 2003097250 A JP2003097250 A JP 2003097250A JP 2003097250 A JP2003097250 A JP 2003097250A JP 2004206665 A JP2004206665 A JP 2004206665A
Authority
JP
Japan
Prior art keywords
area
face
skin color
region
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003097250A
Other languages
Japanese (ja)
Other versions
JP3806096B2 (en
Inventor
Yohei Ishii
洋平 石井
Hitoshi Hongo
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Softopia Japan Foundation
Original Assignee
Japan Science and Technology Agency
Softopia Japan Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, Softopia Japan Foundation filed Critical Japan Science and Technology Agency
Priority to JP2003097250A priority Critical patent/JP3806096B2/en
Publication of JP2004206665A publication Critical patent/JP2004206665A/en
Application granted granted Critical
Publication of JP3806096B2 publication Critical patent/JP3806096B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve rapidity and accuracy of human face detection executed by a computer. <P>SOLUTION: A computer 12 acquires an image from a video camera 11. The computer 12 determines whether a part of a photographed image area satisfies a set flesh-color area standard. When it is determined that a part of the image area satisfies the flesh-color area standard, the computer 12 sets a search area which includes the part of the image area. When it is determined that a part of the image area does not satisfy the flesh-color area standard, or that a face area does not exist within the search area, the computer 12 determines whether a dynamic area is included in the image. When it is determined that the dynamic area is included in the image, the computer 12 sets an auxiliary search area which includes the dynamic area. The computer 12 uses pattern matching to determine whether the face area exists within the set search area or the auxiliary search area. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、顔検出方法及び顔検出装置に関するものである。
【0002】
【従来の技術】
映像情報を用いた監視作業やマーケッティング調査では、画像内の人物を検出することが重要である。人物検出には非特許文献1に開示されるような色(肌色)を利用した顔検出の方法を用いることが考えられる。肌色を利用した顔検出の方法では、肌色によって検出された領域を顔領域として設定するため、基準となる肌色の範囲が適切に設定できていれば高速の顔検出が可能である。
【0003】
又、人物検出には特許文献1に開示されるようなパターンマッチングを利用した顔検出の方法を用いることも考えられる。パターンマッチングでは、予め登録された顔パターンと、取得した画像とを照合することによって顔検出が行われる。
【0004】
【非特許文献1】
本郷仁志、山本和彦,「動領域内の肌色推定による顔領域および顔部品抽出」,映像情報メディア学会誌,社団法人映像情報メディア学会,1998年12月,第52巻,第12号,p. 86−93
【特許文献1】
特開平7−141506号
【0005】
【発明が解決しようとする課題】
色を利用した顔検出では、肌とそれ以外の部分を判別するため、基準となる肌色の範囲を定めなければならない。ところが、画像内の肌の色は、カメラの露出、絞り等のカメラパラメータや、環境(明暗等)に応じて大きく変化する。そのため、基準となる肌色の範囲を固定的に設定することは難しく、適切な顔検出パラメータを環境の変化に応じて設定する必要がある。また、適切な顔検出パラメータを再設定しようとする場合でも、誤検出された肌色を基準に再設定すればかえって検出精度が低くなってしまうという問題もあった。
【0006】
また、顔を検出するためには、顔以外の肌色に類似する色の物体を排除したり、手と顔との区別を行うなどの必要があるが、色だけによる検出では肌色に類似する色の物体を排除したり、手と顔との区別を行うことが難しいという問題があった。
【0007】
一方、パターンマッチングを利用した顔検出では、形状により判断するため、環境の変化やカメラパラメータの変化の影響を受け難く、顔以外の肌色に類似するものを排除したり、手などと区別したりすることも比較的容易である。しかし、画像内の顔画像が多様な大きさや多様な位置に存在する可能性を考慮した場合には、画像を走査するための領域として種々の大きさのものを用意し、用意した種々の大きさの領域の各々を用いて画像を全走査する必要がある。そのため、パターンマッチングを利用した顔検出では、計算に時間が掛かり、顔検出の高速化が難しいという問題があった。
【0008】
本発明の目的は、上記課題を解決するため、顔検出の高速性及び正確性のいずれをも向上させる顔検出方法及び装置を提供することにある。
【0009】
【課題を解決するための手段】
上記目的を達成するため、請求項1の発明は、コンピュータが実行する顔検出方法であって、当該コンピュータが、顔を撮像するための撮像ステップと、撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う第1の判定ステップと、前記充足判定がなされた場合、前記肌色領域基準を満たす前記画像の領域の一部を含む探索領域を設定する探索領域設定ステップと、設定された前記探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第2の判定ステップと、前記非充足判定がなされた場合、又は、前記探索領域内に顔領域が存在しないとの判定がなされた場合、前記画像に動的領域が含まれているか否かを判定する補助判定ステップと、前記画像に動的領域が含まれているとの判定がなされた場合には、前記動的領域を含む補助探索領域を設定する補助探索領域設定ステップと、設定された前記補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第3の判定ステップとを実行する顔検出方法であることを特徴する。
【0010】
請求項2の発明は、請求項1において、設定された前記探索領域内、又は設定された前記補助探索領域内に顔領域が存在するとの判定がなされた場合、前記顔領域における色データに基づいて前記肌色領域基準を再設定する再設定ステップを含むことを特徴とする。
【0011】
請求項3の発明は、前記再設定ステップは、所定の条件に応じて前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項2に記載の顔検出方法。
【0012】
請求項4の発明は、請求項3に記載の顔検出方法の構成に加え、前記再設定ステップは、顔領域が存在すると判定がなされたのが前記探索領域か前記補助探索領域かを判断する検出領域判断ステップの判断に基づいて、顔領域が前記探索領域で存在すると判定された場合と、顔領域が前記補助探索領域で存在すると判定された場合とで前記肌色領域基準の再設定を異なるものとすることを特徴とする。
【0013】
請求項5の発明は、請求項4に記載の顔検出方法の構成に加え、前記再設定ステップは、前記補助探索領域において顔領域が存在すると判定された場合に、検出された動的領域の割合が所定の閾値以上か、所定の閾値未満かを判断する動的領域割合判断ステップの判断に基づいて、検出された動的領域の割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする。
【0014】
請求項6の発明は、前記再設定ステップは、請求項5に記載の顔検出方法の構成に加え、前記補助探索領域において顔領域が存在する判定された場合に、検出された動的領域の割合が所定の閾値未満のときに、過去の顔領域が探索領域で検出された割合を判断する過去履歴判断ステップにより過去の顔領域が探索領域で検出された割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする。
【0015】
請求項7の発明は、コンピュータを備えた顔検出装置であって、当該コンピュータを顔を撮像するための撮像手段と、前記撮像手段によって撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う第1の判定手段と、前記第1の判定手段が前記充足判定を行った場合、前記肌色領域基準を満たす前記画像の領域の一部を含む探索領域を設定する探索領域設定手段と、設定された前記探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第2の判定手段と、前記第1の判定手段が前記非充足判定を行った場合、又は、設定された前記探索領域内に顔領域が存在しないとの判定が前記第2の判定手段によってなされた場合、前記画像に動的領域が含まれているか否かを判定する補助判定手段と、前記画像に動的領域が含まれているとの判定を前記補助判定手段が行った場合には、前記動的領域を含む補助探索領域を設定する補助探索領域設定手段と、設定された前記補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第3の判定手段として機能させる顔検出装置であることを特徴とする。
【0016】
請求項8の発明は、請求項3において、前記探索領域設定手段によって設定された前記探索領域内に顔領域が存在するとの判定が前記第2の判定手段によってなされた場合、又は、前記補助探索領域設定手段によって設定された前記補助探索領域内に顔領域が存在するとの判定が前記補助判定手段によってなされた場合、前記顔領域における色データに基づいて前記肌色領域基準を再設定する再設定手段を含むことを特徴とする。
【0017】
請求項9の発明は、請求項8において、前記再設定手段は、所定の条件に応じて前記肌色領域基準の再設定を異なるものとする顔検出装置であることを特徴とする。
【0018】
請求項10の発明は、請求項9において、前記再設定手段は、顔領域が存在すると判定がなされたのが前記探索領域か前記補助探索領域かを判断する検出領域判断手段を備え、当該判断に基づいて、顔領域が前記探索領域で存在すると判定された場合と、顔領域が前記補助探索領域で存在すると判定された場合とで前記肌色領域基準の再設定を異なるものとする顔検出装置であることを特徴とする。
【0019】
請求項11の発明は、請求項10において、前記再設定手段は、前記補助探索領域において顔領域が存在すると判定された場合に、検出された動的領域の割合が所定の閾値以上か、所定の閾値未満かを判断する動的領域割合判断手段の判断に基づいて、検出された動的領域の割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとする顔検出装置であることを特徴とする。
【0020】
請求項12の発明は、請求項11において、前記再設定手段は、前記補助探索領域において顔領域が存在する判定された場合に、検出された動的領域の割合が所定の閾値未満のときに、過去の顔領域が探索領域で検出された割合を判断する過去履歴判断手段により過去の顔領域が探索領域で検出された割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとする顔検出装置であることを特徴とする。
【0021】
(作用)請求項1及び請求項7の発明において、肌色領域基準は、例えば、基準となる肌色として設定された肌色有効範囲と、肌色有効範囲に含まれる肌色が或る大きさの領域内で所定割合以上の領域で存在するという存在割合との組み合わせデータである。あるいは、基準となる肌色として設定された肌色有効範囲のみを肌色領域基準としてもよい。取得した画像の領域の一部が肌色領域基準を満たしているとの判定がなされた場合、肌色領域基準によって特定される肌色領域を含む探索領域が設定される。取得した画像の領域の一部が肌色領域基準を満たしていないとの判定(非充足判定)がなされた場合、又は、前記探索領域内に顔領域が存在しないとの判定がなされた場合、前記画像に動的領域が含まれているか否かの判定が行われる。前記画像に動的領域が含まれているとの判定がなされた場合には、前記動的領域を含む補助探索領域が設定される。設定された探索領域又は設定された補助探索領域がパターンマッチングによる顔領域の探索の対象となる。
【0022】
肌色領域基準を利用した肌色領域の特定は、設定された探索領域内に顔領域がある可能性を示唆する。画像の領域の一部が肌色領域基準を満たしていない場合にも、動的領域を利用して設定された補助探索領域は、その内部に顔領域がある可能性を示唆する。パターンマッチングによる顔領域の検出は、予め登録された顔パターンと、取得した画像とを照合して行うものである。環境の変化やカメラパラメータの変化の影響を受け難いパターンマッチングを用いた手法は、特定された肌色領域が実際に顔領域を含んでいるか否かを判定する上で好適な手法である。パターンマッチングを用いた手法で画像全体を探索しようとすると時間が掛かり、顔検出の高速化が難しい。色を利用した顔検出手法とパターンマッチングを用いた顔検出手法とを組み合わせた顔検出方法は、顔検出の高速性及び正確性を向上する。これらに動的領域を利用した顔検出手法をさらに組み合わせた顔検出方法は、顔検出の正確性をさらに向上する。
【0023】
請求項2及び請求項8の発明において、肌色領域基準の再設定は、環境の変化やカメラパラメータの変化に対処する上で望ましい。
請求項3及び請求項9の発明において、肌色領域基準の再設定は、新たに検出された肌色の信頼性により、信頼できるデータの場合には書換えを大きくしたり、或いは誤検出と思われる場合には書換えを小さくするもので、より適切な肌色検出の精度を上げる上で望ましい。
【0024】
請求項4及び請求項10の発明において、肌色により検索範囲を設定した前記検索領域で顔検出が成功した場合には、データの信頼性が高いと判断できる。一方、動きで検索範囲を設定した前記補助検索領域で顔検出をした場合にはデータの信頼性が低いと判断できる。従って、肌色領域基準の再設定も顔検出がいずれでされたかにより異なるものとすることが望ましい。
【0025】
請求項5及び請求項11の発明において、動きにより検索範囲を設定した前記補助検索領域で顔検出をおこなった場合に、特定の閾値以上の割合で動的領域が存在する場合は、照明が大きく変化した、カメラが移動した、機器が故障したことも予測される。従って、このような場合には、新たな肌色領域基準で新たな環境に適応する必要があるため、肌色領域基準を迅速に入れ替えるような再設定とすることが望ましい。
【0026】
請求項6及び請求項12の発明において、顔領域が動きにより検索範囲を設定した補助検索領域で検出された場合であっても、過去の顔領域が肌色により設定した前記検索領域で所定の閾値以上検出された履歴がある場合は、現在の肌色領域基準は信頼でき、今回のデータの方が信頼性が低いとして検出されたデータの影響力を小さくするような再設定を行うことが望ましい。
【0027】
【発明の実施の形態】
(第1の実施形態)以下、本発明を具体化した第1の実施形態を図1〜図6を参照して説明する。
【0028】
図1(a)に示すように、顔検出装置10は、撮像手段としてのビデオカメラ11と、コンピュータ12とからなる。ビデオカメラ11は、CCDカメラである。ビデオカメラ11で撮影された個々のフレーム(画像データ)は、カラー画像としてコンピュータ12に入力されるようになっている。Mは、ビデオカメラ11の撮影範囲にいる人である。Fは人Mの顔である。
【0029】
図1(b)は、コンピュータ12の機能ブロック図である。画像取得手段13は、ビデオカメラ11からの画像の取得を行う。分割手段14は、ビデオカメラ11から得られた画像を複数の小領域に分割する。図2(a)は、取得した画像Gの例を示す。図2(a)におけるFoは、顔領域を表す。図2(b)は、取得した画像を同形同大の複数の小領域に分割した分割画像を示す。図2(b)における小領域は、縦横の線によって区画された方形の領域のことである。図示の例では、縦10ラ横12=120個の小領域が区画されている。
【0030】
第1の判定手段15は、取得された画像の領域の一部が設定された肌色領域基準を満たしているか否かを判定する。つまり、第1の判定手段15は、撮像手段であるビデオカメラ11によって撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う。本実施の形態における肌色領域基準は、小領域における画素のうち、図3(a),(b)又は図4に示す肌色有効範囲に含まれる色の画素の数が予め設定された数(以下、しきい値N0と表す)以上の場合としている。つまり、肌色領域基準は、基準となる肌色として設定された肌色有効範囲と、この肌色有効範囲に含まれる肌色が或る大きさの領域内で所定割合以上の領域で存在するという存在割合との組み合わせデータである。肌色領域基準のデータは、記憶手段16に記憶されている。本実施の形態では、色データは、RG空間の表色系を用いて表している。
【0031】
図3(a)のグラフにおける曲線E1は、肌色に関するRG値のうちのR値の度数分布を表し、図3(b)のグラフにおける曲線E2は、肌色に関するRG値のうちのG値の度数分布を表す。図3(a)の横軸は、R値を表し、縦軸は、蓄積された画素の数を表す。図3(b)の横軸は、G値を表し、縦軸は、蓄積された画素の数を表す。例えば、R値がRxである画素の数は、1つの小領域内の全画素数(例えば、40×40=1600画素数)のうちのNxであるというように表される。
【0032】
初期の度数分布曲線E1,E2は、正規分布曲線として設定されている。図3(a)に示すm1で表されるR値は、曲線E1に関するR値の平均値を表し、σ1は、曲線E1に関するR値の分散値を表す。図3(b)に示すm2で表されるG値は、曲線E2に関するG値の平均値を表し、σ2は、曲線E2に関するG値の分散値を表す。図3(a),(b)におけるkは、予め設定された係数である。kは、例えば1である。
【0033】
図4のグラフは、図3(a),(b)の度数分布曲線E1,E2における平均値m1,m2及び分散値σ1,σ2を用いて設定した基準となる肌色有効範囲を表す。図4のグラフにおける横軸は、G値を表し、縦軸は、R値を表す。方形Hの領域は、肌色有効範囲を表す。方形Hの領域内における点Pは、R値の平均値m1とG値の平均値m2とによって特定されるRG空間における平均値座標である。肌色有効範囲Hは、係数kを調整することによって変更できる。
【0034】
探索領域設定手段17は、取得された画像Gの領域の一部が肌色領域基準を満たしているとの判定が第1の判定手段15によってなされた場合には、肌色領域基準によって特定される画像G内における肌色領域を含む探索領域を設定する。つまり、或る小領域が肌色小領域である場合、探索領域設定手段17は、この肌色小領域に隣接する肌色ではない小領域と、肌色小領域とからなる探索領域を設定する。この探索領域は、記憶手段16に一時的に記憶される。
【0035】
第2の判定手段18は、探索領域設定手段17によって設定された探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する。記憶手段16には顔パターンが記憶されており、第2の判定手段18は、この登録された顔パターンと、設定された探索領域内の画像とを照合する。
【0036】
補助判定手段19は、探索領域内に顔領域が存在しないとの判定を第2の判定手段18が行った場合には、撮像された画像に動的小領域が含まれているか否かを判定する。本実施の形態では、補助判定手段19は、取得された画像Gと、これより1つ前に取得された画像g〔例えば、図2(b)に示す鎖線図が画像gの一部を表す〕との同じ画素における輝度差に基づいて、動的小領域の有無を判定する。本実施の形態では、前記の輝度差が所定値以上となる画素の数が所定の数以上である小領域を動的小領域(動的領域)としている。輝度差が所定値以上となる画素の数が所定の数以上であるという動的小領域の基準データは、記憶手段16に記憶されている。
【0037】
補助探索領域設定手段20は、取得された画像Gに動的小領域が含まれているとの判定を補助判定手段19が行った場合には、動的小領域を含む補助探索領域を設定する。つまり、或る小領域が動的小領域である場合、補助探索領域設定手段20は、この動的小領域に隣接する動的小領域ではない小領域と、動的小領域とからなる補助探索領域を設定する。この補助探索領域は、記憶手段16に一時的に記憶される。
【0038】
第3の判定手段21は、設定された補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する。
再設定手段22は、設定された探索領域内又は補助探索領域内に顔領域が存在するとの判定を第2の判定手段18が行った場合には、顔領域における色データに基づいて肌色領域基準の一部である肌色有効範囲を再設定する。つまり、再設定手段22は、肌色領域基準を再設定する。顔領域における色データとは、RG値及び画素数で表されるデータ〔図3(a),(b)の度数分布曲線E1,E2に相当〕のことである。肌色有効範囲の再設定(つまり肌色領域基準の再設定)は、記憶手段16に記憶されている肌色領域基準の一部である肌色有効範囲を変更することである。本発明では、肌色領域基準の再設定とは、肌色有効範囲を再設定することを意味する。
【0039】
図5及び図6は、顔検出装置10によって遂行される顔検出プログラムを表すフローチャートである。以下、このフローチャートを参照して顔検出装置10による顔検出を説明する。
【0040】
ステップS1において、まず、画像取得手段13は、ビデオカメラ11からの画像の取得を行うか否かの判定を行う。即ち、本実施形態では、ビデオカメラ11からの画像の取得は、所定の時間間隔t(例えばt=0.1秒)毎に行われるようになっており、画像取得手段13は、画像取得の時刻か否かを判定する。そして、画像を取得する時刻であると判断した場合(ステップS1がYES)、画像取得手段13は、ビデオカメラ11からの画像の取得を行う(ステップS2)。ステップS2は、撮像ステップである。一方、画像取得手段13が画像を取得する時刻ではないと判断した場合(ステップS1がNO)、ステップS1が繰り返される。
【0041】
ビデオカメラ11からの画像を取得した後、分割手段14は、取得した画像を複数の小領域に分割する(ステップS3)。取得した画像Gを複数の小領域に分割した後、第1の判定手段15は、小領域における色データ(RG値及び画素数で表されるデータ)と、肌色領域基準とに基づいて肌色小領域の探索を行う(ステップS4)。
【0042】
ステップS4では、第1の判定手段15は、各小領域における色データ(RG値及び画素数で表されるデータ)におけるRG値と、図4に示す方形Hの領域で示す肌色有効範囲との比較を行う。そして、第1の判定手段15は、方形Hの領域で示す肌色有効範囲に含まれる色の画素の数が小領域の中でしきい値N0以上あるか否かを調べる。
【0043】
第1の判定手段15は、各小領域が肌色の領域であるか否かを判定する(ステップS5)。ステップS5は、第1の判定ステップである。方形Hの領域で示す肌色有効範囲に含まれる色の画素の数が小領域の中でしきい値N0以上ある場合には、第1の判定手段15は、この小領域が肌色の小領域であるとの判定(充足判定)を行う(ステップS5においてYES)。方形Hの領域で示す肌色有効範囲に含まれる色の画素の数が小領域の中でしきい値N0に達しない場合には、第1の判定手段15は、この小領域が肌色の小領域ではないとの判定(非充足判定)を行う(ステップS5においてNO)。
【0044】
少なくとも1つの小領域の画像が肌色領域基準を満たしているとする。即ち、少なくとも1つの小領域が肌色小領域であるとの判定がなされた場合(ステップS5においてYES)、第1の判定手段15は、肌色小領域に隣接する肌色ではない小領域と、肌色小領域とからなる探索領域D1〔図2(b)参照〕を設定して記憶手段16に記憶させる(ステップS6)。ステップS6は、探索領域設定ステップである。図2(b)において、小領域A1のみが肌色小領域であるとすると、探索領域D1は、図2(c)に示すように、肌色領域である小領域A1と、小領域A1に隣接する小領域A2,A3,A4,A5,A6,A7,A8,A9とを合わせた領域である。なお、小領域(例えばA1)の角と小領域の角(例えばA2)とが接している状態も、小領域A1と小領域A2とが隣接している状態とする。
【0045】
探索領域D1を設定した後、第2の判定手段18は、顔パターンによる探索領域D1の走査を行う(ステップS7)。記憶手段16には、設定された形状(例えば矩形)で複数の大きさの領域、及び既知の顔パターンが記憶されている。ステップS7では、第2の判定手段18は、複数の大きさの領域のうちの1つの領域K〔図2(c)参照〕によって探索領域D1内から、候補領域を切り出し、登録されている前記顔パターンとの照合を行う。この照合は、登録されている矩形の全ての大きさによって、探索領域D1内の全ての位置を走査することにより行われる。そして、第2の判定手段18は、領域Kの大きさで切り出した領域が顔領域であるか否かをパターンマッチングの手法を用いて判定する(ステップS8)。ステップS8は、第2の判定ステップである。
【0046】
本実施の形態では、パターンマッチングによる顔領域があるか否かの判定には、線形判別分析、SVM(Support Vector Machines)、あるいはSNoW(Sparse Network of Winnows)等の統計的手法が用いられる。
【0047】
顔領域が複数の切り出し領域のうちの1つにでも有るとの判定が行われたとする(ステップS8においてYES)。この場合、再設定手段22は、取得した画像Gから得られる色データと、記憶している肌色有効範囲とを用いて新たな肌色有効範囲を設定すると共に、この新たな肌色有効範囲を前の肌色有効範囲に代えて記憶手段16に記憶させる(ステップS9)。ステップS9は、再設定ステップである。新たな肌色有効範囲の設定では、例えば、図3(a)の度数分布曲線E1に所定の係数(例えば0.5)を掛けて得られる曲線と、検出顔領域から得られる肌色のR値に関する度数分布曲線との和の度数分布曲線を求める。同様に、図3(b)の度数分布曲線E2に所定の係数(例えば0.5)を掛けて得られる曲線と、検出顔領域から得られる肌色のG値に関する度数分布曲線との和の度数分布曲線を求める。これらの新たな度数分布曲線から図4のグラフで示す肌色有効範囲に相当する新たな肌色有効範囲を設定する。
【0048】
新たな肌色有効範囲を設定した後、第2の判定手段18は、顔領域があると判定した画像データを記憶手段16に記憶させる(ステップS10)。顔領域があると判定した画像データを記憶した後、コンピュータ12は、ステップS1へ戻る。
【0049】
ステップS8において、顔領域が複数の切り出し領域のうちのどれにも無いとの判定が行われたとする(ステップS8においてNO)。この場合、補助判定手段19は、取得された画像Gと、これより1つ前に取得された画像g〔例えば、図2(b)に示す鎖線図が画像gの一部を表す〕との同じ画素における輝度差に基づく動的小領域の探索を行う(ステップS11)。そして、補助判定手段19は、動的小領域の有無を判定する(ステップS12)。ステップS12は、補助判定ステップである。
【0050】
動的小領域が存在する場合(ステップS12においてYES)、補助探索領域設定手段20は、動的小領域でない小領域であって動的小領域に隣接する小領域と、動的小領域とからなる補助探索領域D2〔図2(d)参照〕を設定して記憶手段16に記憶させる(ステップS13)。ステップS13は、補助探索領域設定ステップである。図2(d)に示すように、小領域A1,A2,A3,A5,A10,A11,A12,A13が動的小領域であるとする。そうすると、補助探索領域D2は、動的小領域A1,A2,A3,A5,A10,A11,A12,A13と、動的小領域A1,A2,A3,A5,A10,A11,A12,A13に隣接する小領域〔図2(d)において斜線のある小領域〕とを合わせた領域である。
【0051】
補助探索領域D2を設定した後、第3の判定手段21は、顔パターンによる補助探索領域D2の走査を行う(ステップS14)。ステップS14では、第3の判定手段21は、複数の大きさの領域のうちの1つの領域K〔図2(c)参照〕によって補助探索領域D2内から、候補領域を切り出し、登録されている前記顔パターンとの照合を行う。この照合は、登録されている矩形の全ての大きさによって、補助探索領域D2内の全ての位置を走査することにより行われる。そして、第3の判定手段21は、領域Kの大きさで切り出した領域が顔領域であるか否かをパターンマッチングの手法を用いて判定する(ステップS15)。ステップS15は、第3の判定ステップである。
【0052】
顔領域が複数の切り出し領域のうちの1つにでも有るとの判定が行われたとする(ステップS15においてYES)。この場合、再設定手段22は、取得した画像Gから得られる色データと、記憶している肌色有効範囲とを用いて新たな肌色有効範囲を設定すると共に、この新たな肌色有効範囲を前の肌色有効範囲に代えて記憶手段16に記憶させる(ステップS9)。新たな肌色有効範囲を設定した後、第3の判定手段21は、顔領域があると判定した画像データを記憶手段16に記憶させる(ステップS10)。顔領域があると判定した画像データを記憶した後、コンピュータ12は、ステップS1へ戻る。
【0053】
全ての小領域における画像が肌色領域基準を満たしていない場合には、第1の判定手段15は、肌色の小領域が無いとの判定を行う(ステップS5においてNO)。肌色の小領域が1つも無い場合、補助判定手段19は、取得された画像Gと、これより1つ前に取得された画像gとの同じ画素における輝度差に基づく動的小領域の探索を行う(ステップS11)。そして、補助判定手段19は、動的小領域の有無を判定する(ステップS12)。
【0054】
動的小領域が存在する場合(ステップS12においてYES)、補助探索領域設定手段20は、動的小領域でない小領域であって動的小領域に隣接する小領域と、動的小領域とからなる補助探索領域D2を設定して記憶手段16に記憶させる(ステップS13)。
【0055】
補助探索領域D2を設定した後、第3の判定手段21は、顔パターンによる補助探索領域D2の走査を行う(ステップS14)。ステップS14では、第3の判定手段21は、複数の大きさの領域のうちの1つの領域K〔図2(c)参照〕によって補助探索領域D2内から、候補領域を切り出し、登録されている前記顔パターンとの照合を行う。この照合は、登録されている矩形の全ての大きさによって、補助探索領域D2内の全ての位置を走査することにより行われる。そして、第3の判定手段21は、領域Kの大きさで切り出した領域が顔領域であるか否かをパターンマッチングの手法を用いて判定する(ステップS15)。
【0056】
顔領域が複数の切り出し領域のうちの1つにでも有るとの判定が行われたとする(ステップS15においてYES)。この場合、再設定手段22は、取得した画像Gから得られる色データと、記憶している肌色有効範囲とを用いて新たな肌色有効範囲を設定すると共に、この新たな肌色有効範囲を前の肌色有効範囲に代えて記憶手段16に記憶させる(ステップS9)。新たな肌色有効範囲を設定した後、第3の判定手段21は、顔領域があると判定した画像データを記憶手段16に記憶させる(ステップS10)。顔領域があると判定した画像データを記憶した後、コンピュータ12は、ステップS1へ戻る。
【0057】
本実施の形態では以下の効果が得られる。
(1)少なくとも1つの小領域の画像が肌色領域基準を満たしているとの判定がなされた場合(ステップS5においてYES)、肌色領域基準によって特定される肌色の小領域〔図2(b)の例では小領域A1〕を含む探索領域(小領域A1〜A9からなる領域)が設定される。この設定された探索領域は、取得された画像の全領域よりも狭められており、この狭められた探索領域がパターンマッチングによる顔領域の探索の対象となる。肌色領域基準を利用した肌色の小領域の特定は、設定された探索領域内に顔領域がある可能性を示唆する。環境の変化やカメラパラメータの変化の影響を受け難いパターンマッチングを用いた手法は、特定された肌色の小領域を含む探索領域が実際に顔領域を含んでいるか否かを高い確度で判定する上で好適な手法である。
【0058】
色を用いた手法で顔領域を探索しようとすると正確性に欠ける。パターンマッチングを用いた手法で画像全体にわたって顔領域を探索しようとすると時間が掛かり、顔検出の高速化が難しい。色を利用した顔検出手法によって探索領域を狭めると共に、この狭められた探索領域内における顔領域の有無をパターンマッチングによって判定する手法は、顔検出の高速性及び正確性を向上する。
【0059】
(2)環境(明暗等)が変化すると、肌色有効範囲が適切でなくなるおそれがある。本実施の形態では、色を利用して探索領域を特定する(ステップS6)と共に、パターンマッチングによって顔領域有りの判定を行う(ステップS8,S15においてYES)毎に肌色有効範囲を再設定している(ステップS9)。この再設定(つまり肌色領域基準の再設定)によって得られる肌色有効範囲は、度数分布曲線に掛けられる係数の選択によって調整できる。そのため、前記係数を適正に選択すれば、環境変化に肌色有効範囲を適切に合わせてゆくことができる。
【0060】
(3)肌色を利用して探索領域を設定できなかった場合、本実施の形態では、取得された画像Gと、これよりも前に取得された画像gとの同じ画素における輝度の差に基づく動的小領域の探索を行う。動的小領域がある場合には、動的小領域を含む補助探索領域D2が設定される。この設定された補助探索領域D2がパターンマッチングによる顔領域の探索の対象となる。取得された動的小領域は、設定された補助探索領域D2内に顔領域がある可能性を示唆する。このような動的小領域の探索は、肌色有効範囲が適切に設定されていないために顔領域を検出できなかった場合にも、顔領域の検出を可能とする。つまり、色を利用した顔検出手法と、パターンマッチングを用いた顔検出手法と、動的領域を利用した顔検出手法とを組み合わせた顔検出方法は、顔検出の正確性をさらに向上する。
【0061】
(4)ビデオカメラ11から見て顔が複数存在し、それらの領域の一部が重なっている場合、正確な顔検出は困難である。例えば図2(e)に示すように、画像内で、顔領域F1,F2が重なっている場合、色を用いた顔領域検出手法のみでは顔領域F1,F2が繋がった状態で検出される。本実施の形態では、探索領域D1内を顔パターンによって走査するため、図2(e)に示すように顔領域が画像内で重なっているような場合にも、個々の顔領域F1,F2を正確に検出することができる。
【0062】
本発明では以下のような実施形態も可能である。
・肌色有効範囲を設定する方法として、肌色に関するRG値の平均値に対応する正規化RG空間における平均値から各RG値へのユークリッド距離を算出し、その分散を半径とする正規化RG空間上の円領域を肌色有効範囲としてもよい。
【0063】
・肌色有効範囲を設定する方法としては、平均値mと分散値σと係数kにより設定しているが、画素数Nに閾値を設定して、閾値を超す部分を肌色有効範囲としてもよい。
【0064】
・前記した実施の形態において、動的小領域の探索を肌色小領域の探索と同時的に行ってもよい。つまり、図5のステップS3とステップS4との間、又はステップS4とステップS5との間で動的小領域の探索を行ってもよい。
【0065】
・前記した実施の形態において、補助探索領域を設定する場合には、画像の領域の一部が肌色領域基準を満たしているとの判定がなされた場合に設定された探索領域を補助探索領域に含めないようにしてもよい。このようにすれば補助探索領域が削減され、補助探索領域を顔パターンで走査して顔領域を探索するための時間を短くすることができる。
【0066】
・前記した実施の形態では、色データ及び肌色有効範囲を示すグラフは、正規化RG空間の表色系を用いて表したが、Luv空間、XYZ空間等の他の表色系を用いてもよい。
【0067】
・検出した顔領域から目領域や唇領域を除外した領域における色データを用いて肌色有効範囲の再設定を行うようにしてもよい。このようにすれば、顔領域内で比較的均質な肌色の部分(例えば頬領域)の色を主として肌色有効範囲の再設定に利用することができ、肌色有効範囲の設定の適切性が向上する。
【0068】
・検出した顔領域を記憶しておき、この記憶した顔領域の大きさや位置を利用して次の取得画像における顔領域の検出に用いるようにしてもよい。記憶した顔領域の大きさによって切り出し領域の大きさを限定することができ、探索領域を走査するための大きさの異なる切り出し領域の種類を減らすことができる。大きさの異なる切り出し領域の種類が少ないほど、走査時間が少なくなり、高速の顔領域の検出が期待できる。又、検出した顔領域の位置を利用すれば、次の取得画像における探索領域を一層的確に設定することができる。
【0069】
・第1の実施の形態において、第3の判定手段21の機能を第2の判定手段18が兼用するようにしてもよい。
・前記した実施の形態では、肌色有効範囲は、画像の全領域に対して同一の設定にしてあるが、小領域毎に肌色有効範囲を設定してもよい。各小領域で異なった肌色有効範囲を用いるようにすれば、撮影範囲内での場所による照明条件の差異に起因する肌色の変化を吸収することができる。
【0070】
小領域毎の肌色有効範囲の再設定では、顔検出結果の位置情報を利用し、顔領域の一部又は全部を含むものとして検出された小領域のみの肌色有効範囲を再設定してもよい。例えば、図2(d)の場合には、小領域A1,A2,A3,A5に対してのみ肌色有効範囲を再設定し、他の小領域に対しては肌色有効範囲を再設定しないようにする。
【0071】
あるいは、人物が移動することを考慮して、顔領域の一部又は全部を含むものとして検出された小領域、及びこの検出された小領域に隣接する小領域の肌色有効範囲を再設定してもよい。例えば、図2(d)の場合には、小領域A1,A2,A3,A5、及び小領域A1,A2,A3,A5に隣接する小領域〔図2(d)において小領域A1,A2,A3,A5を包囲している斜線のある小領域〕の肌色有効範囲を再設定してもよい。
【0072】
・前記した実施の形態では、肌色領域基準は、小領域における画素のうち、肌色有効範囲に含まれる色の画素の数がしきい値N0以上となる場合としたが、肌色有効範囲のみを肌色領域基準としてもよい。この場合、肌色有効範囲に含まれる色の画素が肌色領域となる。例えば、図2(d)の場合には、Foで示す顔部分が肌色有効範囲に含まれる色の画素の集まりで形成される肌色領域となる。探索領域は、肌色領域の一部又は全部を含む小領域と、この小領域に隣接する小領域とを合わせた領域とすればよい。図2(d)の場合には、小領域A1,A2,A3,A5が肌色領域の一部又は全部を含む小領域である。小領域A1,A2,A3,A5に関連する探索領域は、小領域A1,A2,A3,A5と、小領域A1,A2,A3,A5に隣接する小領域〔図2(d)において小領域A1,A2,A3,A5を包囲している斜線のある小領域〕とを合わせた領域である。
【0073】
なお、肌色有効範囲のみを肌色領域基準とする場合には、画像を小領域に分割することなく探索領域を設定するようにしてもよい。この場合、探索領域は、肌色領域よりも大きく、かつ肌色領域を含む形状の領域(例えば矩形形状)とすればよい。
【0074】
(第2の実施形態)
次に、第2の実施形態の顔検出装置を図5〜図12を参照して説明する。第2の実施形態は、基本的には図5、図6のフローチャートに示すように第1の実施形態と同様にパターンマッチングによる顔検出の結果に基づいて肌色領域基準を修正することで環境の変化に適応させている。具体的には、再設定手段22は、肌色領域基準を再設定する。このとき、新たな肌色有効範囲の設定では、例えば、図3(a),(b)の度数分布曲線E1,E2に所定の係数(例えば0.5)を掛けて得られる曲線と、検出顔領域から得られる肌色のR値、G値に関する度数分布曲線との和の度数分布曲線を求める。これらの新たな度数分布曲線から図4のグラフで示す肌色有効範囲に相当する新たな肌色有効範囲を設定する(ステップ9(以下「ステップ」をSと略記する。))。
【0075】
しかしながら、第1の実施形態では肌色領域基準のパラメータの設定手法が、ヒストグラムに一律の割合(第1の実施形態では0.5)で足し込む手法であるため、環境変化に柔軟に対応することが困難である。また、パターンマッチングによる顔検出時に誤検出した場合に、正しく検出した場合と同じ割合で足し込み、肌色パラメータを設定するため、パラメータ設定がかえって不適切となる場合もある。
【0076】
そこで、第2の実施形態の顔検出方法及び装置は、図5、図6に示す第1の実施形態に示すフローチャートにおいて肌色有効範囲再設定(S9)のステップにおける処理が異なる。
【0077】
図7に示すようにカメラから取得された画像)から(S1〜S2)、肌色領域を検出する(S3、S4、S5;YES)。図8に示すように肌色領域の近傍を顔探索領域に設定する(S6)。そして、図9に示すように肌色領域の近傍に対してパターンマッチングを利用して顔領域を検出する(S7、)。顔領域が検出され(S8;YES)、その信頼度が高い場合には、肌色有効範囲再設定(S9)で顔領域中の画素値を利用して肌色の検出パラメータである肌色領域基準の再設定(調整)を行う。
【0078】
しかし、初期フレームや環境変化の直後など、肌色領域基準が適切に設定されていない場合は、色情報を用いた検出を失敗することがある(S5;NO)。そのため、肌色を用いた顔検出で検出できなかった場合には、動的小領域を探索し(S11)、動的小領域がある場合は(S12;YES)、動的小領域(全フレームの画像を利用)の近傍を探索範囲に設定し、パターンマッチングを用いて顔領域を探索・検出する(図10)。
【0079】
このとき、顔領域が検出された場合には、顔領域内の画素値を用いて、次式(1)のようにこれまでに蓄積された肌色画素のヒストグラム(図11)にその信頼度に応じた係数aを掛けて、そこに足し込むことによって、肌色の検出パラメータの設定を行う。ここで、係数「a」は、第1の実施形態では固定値(例えば0.5)であったが、第2の実施形態では、条件により異なる値をとる係数で0<a<1の範囲で値をとる。「Ht」は、更新前のヒストグラムを表し、「Hc」は、検出された顔領域のヒストグラムを示す。また、「Ht+1」は、更新後のヒストグラムを示す。
【0080】
Ht+1=aHt+(1−a)Hc …(1)
図11(a)に示すように、ヒストグラムE3のピークは、R値がm3にあり、高さは1である。この高さは、第1の実施形態の画素数に相当するが、第2の実施形態では、蓄積度という。これに対し、このヒストグラムE3に係数aをかけたヒストグラムE4は、ピークのR値は、同じm3にあり、高さはa/1となる。
【0081】
図12は、第2の実施形態の肌色有効範囲再設定のステップ(S9)における肌色領域基準の設定処理を詳細に示すフローチャートである。
ここで、コンピュータ12は、顔領域が存在すると判定がなされたのが前記探索領域か前記補助探索領域かを判断する検出領域判断ステップ(S21)を実行する。なお、このステップを実行するコンピュータ12は、検出領域判断手段として機能する。検出された顔領域が、肌色によって設定された探索領域であった場合(S21;YES)、そのフレームにおいて顔を検出するための肌色領域基準の設定が適切であったと推測できる。そのため、肌色画素として蓄積されているヒストグラムにかける係数aを「a=a0(例えば、0.5)」とし(S22)、検出画素のヒストグラムに足し込むことによって肌色検出基準(肌色パラメータ)を設定する(S23)。
【0082】
例えば、図11(a)に示す蓄積されているヒストグラムE3に対して、この場合の係数a0(=0.5)をかけると、蓄積されている蓄積度Nが、全体に2分の1され、ヒストグラムE4のような曲線となる。この場合、R値の平均値m3とm4は変わらない。
【0083】
同様に、検出された肌色のデータから生成された、R値の平均値がm5のヒストグラム(図示を省略)に(1−a)=0.5をかけると、図11(b)に示すヒストグラムE5となる。
【0084】
次に、ヒストグラムE4と、ヒストグラムE5を足し込む。つまり、両者の蓄積度Nを加算して新たなヒストグラムE6を生成する。この場合、ヒストグラムE6の平均値m6は、ヒストグラムE4の平均値m4とヒストグラムE5の平均値m5の中間になる。この新たな平均値の位置は、過去に蓄積された蓄積ヒストグラムのデータと、新たに検出した検出ヒストグラムのデータの重み付け、言い換えれば係数aの設定の仕方により変化する。
【0085】
検出顔領域が肌色によって設定された探索領域でなく(S21;NO)、動きによって設定された補助検索領域であった場合、「環境が変化した」ことが考えられる。環境変化が生じた場合は、画面全体の画素値が変化するため、動き検出によって画面の全体で動き領域が検出される。そのため、全画面に対する動き領域の割合が一定の閾値以上(例えば、80%以上)となった場合には(S24;YES)、環境が変化したことが推測できるため、蓄積ヒストグラムにかける係数aを小さな「a=a1(例えば、0.2)」とし(S25)、検出画素を足し込む(S23)。蓄積ヒストグラムにかける係数を小さくすることによって、検出画素が肌色領域基準の設定に与える影響を大きくし、素早く環境に適応できるようにする。図11(c)に示すように、この場合の新たなヒストグラムE9の平均値m9は、蓄積ヒストグラムから生成したヒストグラムE7の平均値m7よりも、検出されたデータから生成されたヒストグラムE8の平均値m8に近いものとなる。
【0086】
ここで、コンピュータ12は、補助探索領域において顔領域が存在すると判定された場合に、検出された動的領域の割合が所定の閾値以上か、所定の閾値未満かを判断する動的領域割合判断ステップを実行する(S24)。なお、このS24を実行するコンピュータ12が動的領域割合判断手段として機能する。検出顔領域が肌色によって設定された検索領域でなく(S21;NO)、かつ全体の動き領域の割合が一定の閾値未満で小さい場合(S24;NO)、「環境が変化した」ことは考えにくい。一方、肌色領域による候補領域から検出できなかった原因として、「現在の肌色パラメータの設定が不適切」である場合と「パターンによる顔検出時の誤検出」である場合が考えられる。これらのどちらであったかということの推測は、これまでに顔検出に成功した過去のフレーム(例えば、20フレーム)において、「肌色による検索領域」と「動きによる補助検索領域」のどちらであったかから判断する(S26)。
【0087】
ここでコンピュータ12は、補助探索領域において顔領域が存在する判定された場合に、検出された動的領域の割合が所定の閾値未満のときに、過去の顔領域が探索領域で検出された割合を判断する過去履歴判断ステップを実行する(S26)。このS26を実行するコンピュータ12が、過去履歴判断手段として機能する。これまでの顔検出結果が「肌色による候補領域」であった場合には(S26;YES)、「環境変化がなく、肌色設定も適切であるにもかかわらず、動き領域から検出された」ため、パターンによる顔検出時の誤検出」であることが推測される。そのため、蓄積ヒストグラムにかける係数aをa0より大きな「a=a2(例えば、0.8)」とし(S27)、検出画素を足し込む(S23)。この場合の新たな平均値mは、検出されたデータから生成されたヒストグラムの平均値よりも、蓄積ヒストグラムの平均値に近いものとなる。蓄積ヒストグラムにかける係数aを大きくすることによって、検出画素が肌色設定に与える影響を小さくし、誤検出による肌色パラメータの不適切な設定を抑制することができる。
【0088】
また、過去のフレームにおいて、「動きによる候補領域」から顔画像が検出されていた場合(S26;NO)、「現在の肌色設定が不適切」であることが推測できるため、蓄積ヒストグラムにかける係数aを小さな「a=a3(例えば、0.2など、a1と同じにしてもよい。)」とし(S28)、検出画素を足し込む(S23)。蓄積ヒストグラムにかける係数を小さくすることによって、検出画素が肌色領域基準の設定に与える影響を大きくし、素早く環境に適応できるようにする。
【0089】
以上のように、肌色領域基準の設定を行う場合に、蓄積されたヒストグラムにかける係数aを「どの検索領域か補助検索領域のいずれから検出されたか」、「全体の変化はどうだったか」、「これまでの検出結果はどうだったか」などを統合的に推測する。そのことにより、その検出結果が正しいか否かを判断し、肌色領域基準の設定時のパラメータを制御することにより、柔軟に環境に適応する顔検出方法及び装置を実現する。
【0090】
本実施の形態では以下の効果が得られる。
(1)人物監視を行うシステムにおいて、カメラパラメータや環境光に応じて検出パラメータを人手で設定する必要がなく、高速に顔領域を正確に検出することができる。また、パターンによって検出する場合の誤検出や、環境変化などに柔軟に適応できる。
【0091】
(2)さらに、カメラの感度特性や環境光の特性を考慮しておこなう係数k、ヒストグラムの分散等の調整と相俟って、加えて係数aを調整することにより、顔をノイズが少なくかつロバストに検出できるように調整することができる。
【0092】
前記した実施の形態から把握できる発明について以下に記載する。
〔1〕請求項1及び請求項2のいずれか1項において、撮像された画像を複数の小領域に分割する分割ステップを含み、前記第1の判定ステップは、前記小領域における画像が設定された肌色領域基準を満たしているか否かを判定するステップであり、前記探索領域設定ステップは、前記小領域における画像が前記肌色領域基準を満たすとの判定がなされた場合には、前記肌色領域基準を満たす小領域を含むように探索領域を設定するステップである顔検出方法。
【0093】
〔2〕前記〔1〕項において、肌色領域基準は、基準となる肌色として設定された肌色有効範囲と、前記肌色有効範囲に含まれる肌色が或る大きさの領域内で所定割合以上の領域で存在するという存在割合との組み合わせデータである顔検出方法。
【0094】
〔3〕請求項3及び請求項4のいずれか1項において、前記撮像手段によって撮像された画像を複数の小領域に分割する分割手段を備え、前記第1の判定手段は、前記分割手段によって分割された小領域における画像が設定された肌色領域基準を満たしているか否かを判定し、前記探索領域設定手段は、前記小領域における画像が前記肌色領域基準を満たしているとの判定が前記第1の判定手段によってなされた場合には、前記肌色領域基準を満たす小領域を含むように探索領域を設定する顔検出装置。
【0095】
〔4〕前記〔3〕項において、肌色領域基準は、基準となる肌色として設定された肌色有効範囲と、前記肌色有効範囲に含まれる肌色が或る大きさの領域内で所定割合以上の領域で存在するという存在割合との組み合わせデータである顔検出装置。
【0096】
〔5〕顔を撮像するための撮像ステップと、撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う第1の判定ステップと、前記充足判定がなされた場合、前記肌色領域基準を満たす前記画像の領域の一部を含む探索領域を設定する探索領域設定ステップと、設定された前記探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第2の判定ステップと、前記非充足判定がなされた場合、又は、前記探索領域内に顔領域が存在しないとの判定がなされた場合、前記画像に動的領域が含まれているか否かを判定する補助判定ステップと、前記画像に動的領域が含まれているとの判定がなされた場合には、前記動的領域を含む補助探索領域を設定する補助探索領域設定ステップと、設定された前記補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第3の判定ステップとを、コンピュータに実行させることを特徴とする顔検出プログラム。
【0097】
【発明の効果】
以上詳述したように本発明では、顔検出の高速性及び正確性のいずれをも向上させることができるという優れた効果を奏する。
【図面の簡単な説明】
【図1】(a)は、一実施形態の顔検出装置を示すブロック図。(b)は、コンピュータの機能ブロック図。
【図2】(a)は、ビデオカメラが撮像した画像データの説明図。(b)は、分割画像の説明図。(c)は、探索領域を示す説明図。(d)は、補助探索領域を示す説明図。(e)は、画像の説明図。
【図3】(a)は、R値の度数分布曲線を示すグラフ。(b)は、G値の度数分布曲線を示すグラフ。
【図4】肌色有効範囲を示すグラフ。
【図5】顔検出プログラムを表すフローチャート。
【図6】顔検出プログラムを表すフローチャート。
【図7】小領域分割後(S3)の入力画像例を示す図である。
【図8】肌色領域基準が適切な場合の肌色による探索領域設定(S6)がなされた探索領域を示す図である。
【図9】切り出し領域の顔領域らしさを評価する探索手法を示す図である。
【図10】動きを利用した補助探索領域設定(S13)がなされた探索領域を示す図である。
【図11】(a)〜(c)ヒストグラムを示すグラフである。
【図12】第2の実施形態の肌色有効範囲再設定のステップ(S9)における肌色領域基準の設定処理を詳細に示すフローチャートである。
【符号の説明】
10…顔検出装置。11…ビデオカメラ(撮像手段)。12…コンピュータ(第1の判定手段、探索領域設定手段、第2の判定手段、再設定手段)。15…第1の判定手段。17…探索領域設定手段。18…第2の判定手段。19…補助判定手段。20…補助探索領域設定手段。21…第3の判定手段。22…再設定手段。G…画像。F…顔。Fo…顔領域。A1…肌色領域である小領域。A1,A2,A3,A5,A10,A11,A12,A13…動的領域としての小領域。D1…探索領域。D2…補助探索領域。H…肌色有効範囲。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a face detection method and a face detection device.
[0002]
[Prior art]
In surveillance work and marketing research using video information, it is important to detect a person in an image. For human detection, it is conceivable to use a face detection method using a color (skin color) as disclosed in Non-Patent Document 1. In the face detection method using the skin color, an area detected by the skin color is set as a face area. Therefore, if the range of the reference skin color can be set appropriately, high-speed face detection is possible.
[0003]
It is also conceivable to use a face detection method using pattern matching as disclosed in Patent Document 1 for human detection. In pattern matching, face detection is performed by comparing a previously registered face pattern with an acquired image.
[0004]
[Non-patent document 1]
Hitoshi Hongo, Kazuhiko Yamamoto, "Extraction of Facial Region and Facial Parts by Estimating Skin Color in Moving Region", Journal of the Institute of Image Information and Television Engineers, Institute of Image Information and Television Engineers, December 1998, Vol. 52, No. 12, p. 86-93
[Patent Document 1]
JP-A-7-141506
[0005]
[Problems to be solved by the invention]
In color-based face detection, a range of reference skin color must be determined in order to distinguish skin from other parts. However, the skin color in an image greatly changes according to camera parameters such as camera exposure and aperture, and the environment (brightness and darkness). Therefore, it is difficult to fixedly set the reference skin color range, and it is necessary to set an appropriate face detection parameter in accordance with a change in environment. In addition, even when an appropriate face detection parameter is to be reset, there is a problem that the detection accuracy is rather lowered if resetting is performed based on the erroneously detected skin color.
[0006]
In addition, in order to detect a face, it is necessary to exclude an object having a color similar to the skin color other than the face or to distinguish between a hand and a face. However, there is a problem that it is difficult to remove an object or to distinguish between a hand and a face.
[0007]
On the other hand, in face detection using pattern matching, judgment is made based on the shape, so it is not easily affected by changes in the environment or changes in camera parameters, so that things similar to skin color other than the face can be excluded or distinguished from hands etc. It is relatively easy to do. However, in consideration of the possibility that face images in an image are present at various sizes and at various positions, regions of various sizes are prepared for scanning the image, and the prepared various sizes are prepared. It is necessary to scan the entire image using each of the image areas. Therefore, in face detection using pattern matching, there is a problem that it takes a long time to calculate and it is difficult to speed up face detection.
[0008]
An object of the present invention is to provide a face detection method and apparatus that improve both the speed and accuracy of face detection in order to solve the above problems.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 is a face detection method executed by a computer, wherein the computer sets an imaging step for imaging a face and a part of an area of the imaged image. A first determination step of performing one of a satisfaction determination that the determined skin color region criterion is satisfied, and a non-satisfaction determination that a part of the region does not satisfy the skin color region criterion; When a satisfaction determination is made, a search area setting step of setting a search area including a part of the area of the image satisfying the skin color area criterion, and determining whether a face area exists in the set search area. A second determination step of determining using pattern matching, and when the unsatisfied determination is made, or when it is determined that no face area exists in the search area, a dynamic area is included in the image. An auxiliary determination step of determining whether or not the image is included, and an auxiliary search area setting for setting an auxiliary search area including the dynamic area when it is determined that the image includes a dynamic area. And a third determining step of determining whether or not a face area exists in the set auxiliary search area by using pattern matching.
[0010]
According to a second aspect of the present invention, in the first aspect, when it is determined that a face area exists in the set search area or in the set auxiliary search area, based on the color data in the face area. And resetting the skin color region reference.
[0011]
3. The face detection method according to claim 2, wherein in the resetting step, the resetting of the skin color area reference differs according to a predetermined condition.
[0012]
According to a fourth aspect of the present invention, in addition to the configuration of the face detecting method according to the third aspect, in the resetting step, it is determined whether it is the search area or the auxiliary search area for which it is determined that a face area exists. Based on the determination in the detection area determination step, the resetting of the skin color area reference is different depending on whether the face area is determined to be present in the search area or when the face area is determined to be present in the auxiliary search area. It is characterized by.
[0013]
According to a fifth aspect of the present invention, in addition to the configuration of the face detecting method according to the fourth aspect, the resetting step includes the step of determining whether a face area exists in the auxiliary search area. Based on the determination of the dynamic region ratio determining step of determining whether the ratio is equal to or greater than the predetermined threshold or less than the predetermined threshold, the detected dynamic region ratio is equal to or greater than the predetermined threshold, and It is characterized in that the resetting of the flesh color area reference is different in each case.
[0014]
According to a sixth aspect of the present invention, in the resetting step, in addition to the configuration of the face detecting method according to the fifth aspect, when it is determined that a face area exists in the auxiliary search area, When the ratio is less than the predetermined threshold, the past history region is determined by the past history determination step of determining the ratio of the past face region detected in the search region. , The resetting of the skin color region reference is different between the case where the skin color region reference is less than the predetermined threshold value.
[0015]
8. The face detecting apparatus according to claim 7, wherein said face detecting device includes a computer, wherein said image capturing means captures a face of said computer, and a skin color area in which a part of an area of the image captured by said image capturing means is set. A first determination unit that performs one of a satisfaction determination that a criterion is satisfied and a non-satisfaction determination that a part of the area does not satisfy the skin color area criterion, and the first determination A search area setting unit configured to set a search area including a part of the image area that satisfies the skin color area standard when the satisfaction determination is performed; and whether a face area exists in the set search area. A second determining unit that determines whether or not a face region is present in the set search region when the first determining unit performs the non-satisfaction determination, or The judgment is the second judgment. Means for determining whether or not a dynamic area is included in the image, and determination of whether or not the image includes a dynamic area by the auxiliary determination means. An auxiliary search area setting means for setting an auxiliary search area including the dynamic area; and a third determining whether or not a face area exists in the set auxiliary search area by using pattern matching. It is a face detection device that functions as a determination unit.
[0016]
The invention according to claim 8 is the method according to claim 3, wherein a determination is made by the second determination means that a face area exists in the search area set by the search area setting means, or the auxiliary search is performed. Resetting means for resetting the skin color area reference based on color data in the face area when the auxiliary determining means determines that a face area exists in the auxiliary search area set by the area setting means; It is characterized by including.
[0017]
According to a ninth aspect of the present invention, in the ninth aspect, the resetting means is a face detecting apparatus that changes the resetting of the skin color region reference according to a predetermined condition.
[0018]
According to a tenth aspect of the present invention, in the ninth aspect, the resetting means further comprises a detection area determining means for determining whether the face area is determined to be the search area or the auxiliary search area. A face detection apparatus that sets the skin color area reference differently when the face area is determined to be present in the search area and when the face area is determined to be present in the auxiliary search area It is characterized by being.
[0019]
According to an eleventh aspect of the present invention, in the tenth aspect, when it is determined that the face area exists in the auxiliary search area, the resetting unit determines whether a ratio of the detected dynamic area is equal to or greater than a predetermined threshold value. Based on the determination of the dynamic region ratio determining means that determines whether the ratio is less than the threshold value, the case where the ratio of the detected dynamic region is equal to or greater than a predetermined threshold value, It is a face detection device that performs different resetting.
[0020]
According to a twelfth aspect of the present invention, in the eleventh aspect, the resetting means determines that a ratio of the detected dynamic area is less than a predetermined threshold when it is determined that a face area exists in the auxiliary search area. In the case where the rate at which the past face area is detected in the search area by the past history determining means for determining the rate at which the past face area is detected in the search area is equal to or greater than a predetermined threshold value, and when the rate is less than the predetermined threshold value, And a face detection device that sets the skin color region reference again differently.
[0021]
(Function) In the first and seventh aspects of the present invention, the skin color region reference includes, for example, a skin color effective range set as a reference skin color and a skin color included in the skin color effective range within an area of a certain size. This is combination data with the existence ratio that the region exists in a region equal to or greater than a predetermined ratio. Alternatively, only the skin color effective range set as the reference skin color may be used as the skin color area reference. When it is determined that a part of the acquired image area satisfies the skin color area standard, a search area including the skin color area specified by the skin color area standard is set. When it is determined that a part of the acquired image area does not satisfy the skin color area standard (non-satisfaction determination), or when it is determined that no face area exists in the search area, A determination is made as to whether a dynamic area is included in the image. When it is determined that the image includes a dynamic area, an auxiliary search area including the dynamic area is set. The set search area or the set auxiliary search area is a target of the face area search by pattern matching.
[0022]
The specification of the flesh-colored area using the flesh-colored area criterion indicates that there is a possibility that a face area is present in the set search area. Even when a part of the image area does not satisfy the skin color area standard, the auxiliary search area set using the dynamic area suggests a possibility that a face area exists inside the auxiliary search area. The detection of a face area by pattern matching is performed by comparing a face pattern registered in advance with an acquired image. A method using pattern matching that is hardly affected by a change in environment or a change in camera parameter is a suitable method for determining whether or not the specified skin color region actually includes a face region. It takes time to search the entire image by a method using pattern matching, and it is difficult to speed up face detection. A face detection method that combines a face detection method using color and a face detection method using pattern matching improves the speed and accuracy of face detection. A face detection method in which a face detection method using a dynamic area is further combined with the above method further improves face detection accuracy.
[0023]
In the second and eighth aspects of the present invention, the resetting of the flesh color area reference is desirable in coping with a change in environment and a change in camera parameters.
According to the third and ninth aspects of the present invention, the re-setting of the flesh-color area reference is based on the reliability of the newly detected flesh-color, when rewriting is increased in the case of reliable data, or when it is considered that false detection is performed. Is preferable for improving the accuracy of more appropriate skin color detection.
[0024]
In the invention of claims 4 and 10, when the face detection is successful in the search area in which the search range is set based on the skin color, it can be determined that the reliability of the data is high. On the other hand, when the face is detected in the auxiliary search area in which the search range is set by motion, it can be determined that the reliability of the data is low. Therefore, it is desirable that the resetting of the skin color area reference also be different depending on the face detection.
[0025]
In the invention of claims 5 and 11, when face detection is performed in the auxiliary search area in which a search range is set by motion, if a dynamic area exists at a rate equal to or higher than a specific threshold, the illumination is increased. It is also predicted that it has changed, the camera has moved, or the equipment has failed. Therefore, in such a case, since it is necessary to adapt to a new environment with a new flesh color region reference, it is desirable to make a reset so that the flesh color region standard is quickly replaced.
[0026]
In the invention of claims 6 and 12, even if a face area is detected in an auxiliary search area in which a search range is set by motion, a past face area is determined by a predetermined threshold in the search area set by skin color. If there is a history of detection as described above, it is desirable to reset the current flesh color area reference so that the current data is less reliable and to reduce the influence of the detected data.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
(First Embodiment) Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
[0028]
As shown in FIG. 1A, the face detection device 10 includes a video camera 11 as an imaging unit and a computer 12. The video camera 11 is a CCD camera. Individual frames (image data) captured by the video camera 11 are input to the computer 12 as color images. M is a person who is in the shooting range of the video camera 11. F is the face of the person M.
[0029]
FIG. 1B is a functional block diagram of the computer 12. The image acquisition unit 13 acquires an image from the video camera 11. The dividing unit 14 divides an image obtained from the video camera 11 into a plurality of small areas. FIG. 2A shows an example of the acquired image G. Fo in FIG. 2A represents a face area. FIG. 2B shows a divided image obtained by dividing the acquired image into a plurality of small regions having the same shape and the same size. The small area in FIG. 2B is a rectangular area partitioned by vertical and horizontal lines. In the illustrated example, 120 (= 10 × 12) small areas are partitioned.
[0030]
The first determination unit 15 determines whether or not a part of the acquired image area satisfies the set skin color area standard. That is, the first determination unit 15 determines whether a part of the region of the image captured by the video camera 11 as the imaging unit satisfies the set skin color region standard, and determines whether the part of the region is satisfied. Either a non-satisfaction determination that the skin color region standard is not satisfied is performed. The skin color region criterion in the present embodiment is a preset number (hereinafter, referred to as the number of pixels of a color included in the effective skin color range shown in FIG. 3A, FIG. , Threshold value N0) or more. In other words, the skin color region reference is defined as the skin color effective range set as the reference skin color and the existence ratio that the skin color included in the skin color effective range exists in a region of a predetermined size or more within a certain size region. It is combination data. The skin color area reference data is stored in the storage unit 16. In the present embodiment, the color data is represented using an RG space color system.
[0031]
A curve E1 in the graph of FIG. 3A represents a frequency distribution of R values among RG values relating to skin color, and a curve E2 in a graph of FIG. 3B represents a frequency of G values among RG values relating to skin color. Represents the distribution. The horizontal axis in FIG. 3A represents the R value, and the vertical axis represents the number of accumulated pixels. The horizontal axis in FIG. 3B represents the G value, and the vertical axis represents the number of accumulated pixels. For example, the number of pixels having an R value of Rx is represented as Nx of the total number of pixels (for example, 40 × 40 = 1600 pixels) in one small area.
[0032]
The initial frequency distribution curves E1 and E2 are set as normal distribution curves. The R value represented by m1 shown in FIG. 3A represents the average value of the R values for the curve E1, and σ1 represents the variance of the R values for the curve E1. The G value represented by m2 shown in FIG. 3B represents the average value of the G values for the curve E2, and σ2 represents the variance of the G values for the curve E2. K in FIGS. 3A and 3B is a preset coefficient. k is 1, for example.
[0033]
The graph of FIG. 4 represents a reference effective skin color range set using the average values m1 and m2 and the variance values σ1 and σ2 in the frequency distribution curves E1 and E2 of FIGS. 3A and 3B. In the graph of FIG. 4, the horizontal axis represents the G value, and the vertical axis represents the R value. The area of the rectangle H represents the skin color effective range. The point P in the area of the rectangle H is an average coordinate in the RG space specified by the average value m1 of the R value and the average value m2 of the G value. The effective skin color range H can be changed by adjusting the coefficient k.
[0034]
When the first determination unit 15 determines that the part of the acquired image G satisfies the skin color region criterion, the search region setting unit 17 determines the image specified by the skin color region criterion. A search area including a skin color area in G is set. That is, when a certain small area is a skin color small area, the search area setting means 17 sets a search area composed of a small area which is not a skin color adjacent to the small skin color area and a skin color small area. This search area is temporarily stored in the storage unit 16.
[0035]
The second determination unit 18 determines whether a face area exists in the search area set by the search area setting unit 17 using pattern matching. The storage unit 16 stores a face pattern, and the second determination unit 18 compares the registered face pattern with an image in the set search area.
[0036]
When the second determination unit 18 determines that the face area does not exist in the search area, the auxiliary determination unit 19 determines whether the captured image includes a dynamic small area. I do. In the present embodiment, the auxiliary determination unit 19 determines the acquired image G and the image g acquired immediately before this [for example, the chain line diagram shown in FIG. ], The presence or absence of a dynamic small area is determined on the basis of the luminance difference at the same pixel. In the present embodiment, a small area in which the number of pixels whose luminance difference is equal to or greater than a predetermined value is equal to or greater than a predetermined number is defined as a dynamic small area (dynamic area). The reference data of the dynamic small area indicating that the number of pixels whose luminance difference is equal to or more than a predetermined value is equal to or more than a predetermined number is stored in the storage unit 16.
[0037]
The auxiliary search area setting means 20 sets the auxiliary search area including the dynamic small area when the auxiliary determination means 19 determines that the acquired image G includes the dynamic small area. . In other words, when a certain small area is a dynamic small area, the auxiliary search area setting means 20 sets the auxiliary search including the small area which is not the dynamic small area adjacent to the dynamic small area and the dynamic small area. Set the area. This auxiliary search area is temporarily stored in the storage unit 16.
[0038]
The third determination unit 21 determines whether or not a face area exists in the set auxiliary search area by using pattern matching.
When the second determination unit 18 determines that the face area exists in the set search area or the auxiliary search area, the resetting unit 22 performs the skin color area reference based on the color data in the face area. Resets the effective range of skin color that is part of. That is, the resetting unit 22 resets the skin color area reference. The color data in the face area is data represented by an RG value and the number of pixels (corresponding to the frequency distribution curves E1 and E2 in FIGS. 3A and 3B). Resetting the effective skin color range (that is, resetting the skin color area reference) is to change the skin color effective range that is a part of the skin color area reference stored in the storage unit 16. In the present invention, the resetting of the flesh color area reference means resetting the flesh color effective range.
[0039]
5 and 6 are flowcharts showing a face detection program executed by the face detection device 10. Hereinafter, face detection by the face detection device 10 will be described with reference to this flowchart.
[0040]
In step S1, first, the image acquisition unit 13 determines whether to acquire an image from the video camera 11. That is, in the present embodiment, acquisition of an image from the video camera 11 is performed at predetermined time intervals t (for example, t = 0.1 second), and the image acquisition unit 13 performs image acquisition. It is determined whether it is time. If it is determined that it is time to acquire an image (step S1 is YES), the image acquiring unit 13 acquires an image from the video camera 11 (step S2). Step S2 is an imaging step. On the other hand, if the image acquisition unit 13 determines that it is not time to acquire an image (step S1 is NO), step S1 is repeated.
[0041]
After obtaining the image from the video camera 11, the dividing unit 14 divides the obtained image into a plurality of small areas (Step S3). After dividing the acquired image G into a plurality of small areas, the first determination unit 15 determines the skin color small based on the color data (RG value and the number of pixels) in the small area and the skin color area reference. An area search is performed (step S4).
[0042]
In step S4, the first determination unit 15 determines the relationship between the RG value of the color data (data represented by the RG value and the number of pixels) in each small region and the effective skin color range indicated by the rectangular H region shown in FIG. Make a comparison. Then, the first determination unit 15 checks whether or not the number of pixels of a color included in the effective skin color range indicated by the square H area is equal to or larger than the threshold value N0 in the small area.
[0043]
The first determination unit 15 determines whether each small region is a skin color region (step S5). Step S5 is a first determination step. If the number of pixels of the color included in the skin color effective range indicated by the square H area is equal to or larger than the threshold value N0 in the small area, the first determination unit 15 determines that the small area is a skin color small area. It is determined that there is (sufficiency determination) (YES in step S5). If the number of pixels of a color included in the effective skin color range indicated by the square H does not reach the threshold value N0 in the small area, the first determination unit 15 determines that this small area is a small area of skin color. (Step S5: NO).
[0044]
It is assumed that the image of at least one small area satisfies the skin color area standard. That is, when it is determined that at least one small area is a skin color small area (YES in step S5), the first determination unit 15 determines that the skin color small area adjacent to the skin color small area is not a skin color small area. A search area D1 (see FIG. 2 (b)) is set and stored in the storage means 16 (step S6). Step S6 is a search area setting step. In FIG. 2B, assuming that only the small area A1 is a skin color small area, the search area D1 is adjacent to the small area A1 which is a skin color area and the small area A1 as shown in FIG. 2C. This is an area including the small areas A2, A3, A4, A5, A6, A7, A8, and A9. Note that the state where the corner of the small area (for example, A1) is in contact with the corner of the small area (for example, A2) is also the state where the small area A1 and the small area A2 are adjacent.
[0045]
After setting the search area D1, the second determination unit 18 scans the search area D1 using a face pattern (step S7). The storage unit 16 stores regions having a set shape (for example, a rectangle) and a plurality of sizes, and a known face pattern. In step S7, the second determination unit 18 cuts out the candidate area from the search area D1 by using one area K (see FIG. 2C) among the areas of a plurality of sizes, and registers the candidate area. Check with the face pattern. This collation is performed by scanning all positions in the search area D1 with all the registered rectangle sizes. Then, the second determination unit 18 determines whether or not the region cut out by the size of the region K is a face region using a pattern matching method (step S8). Step S8 is a second determination step.
[0046]
In the present embodiment, a statistical method such as linear discriminant analysis, SVM (Support Vector Machines), or SNow (Sparse Network of Windows) is used to determine whether there is a face area by pattern matching.
[0047]
It is assumed that it has been determined that the face area is present in one of the cutout areas (YES in step S8). In this case, the resetting unit 22 sets a new skin color effective range using the color data obtained from the acquired image G and the stored skin color effective range, and sets the new skin color effective range to the previous one. The storage means 16 is stored in place of the skin color effective range (step S9). Step S9 is a resetting step. In setting a new skin color effective range, for example, a curve obtained by multiplying the frequency distribution curve E1 in FIG. 3A by a predetermined coefficient (for example, 0.5) and an R value of a skin color obtained from a detected face area are used. A frequency distribution curve of the sum with the frequency distribution curve is obtained. Similarly, the frequency of the sum of the curve obtained by multiplying the frequency distribution curve E2 of FIG. 3B by a predetermined coefficient (for example, 0.5) and the frequency distribution curve relating to the G value of the skin color obtained from the detected face area Find the distribution curve. A new effective skin color range corresponding to the effective skin color range shown in the graph of FIG. 4 is set from these new frequency distribution curves.
[0048]
After setting the new effective skin color range, the second determination unit 18 causes the storage unit 16 to store the image data determined to have a face area (step S10). After storing the image data determined to have a face area, the computer 12 returns to step S1.
[0049]
It is assumed that it is determined in step S8 that the face area is not located in any of the cutout areas (NO in step S8). In this case, the auxiliary determination unit 19 determines whether the acquired image G and the image g acquired immediately before the image G (for example, the chain line diagram illustrated in FIG. 2B represents a part of the image g). A search for a dynamic small area based on the luminance difference in the same pixel is performed (step S11). And the auxiliary | assistant determination means 19 determines the presence or absence of a dynamic small area (step S12). Step S12 is an auxiliary determination step.
[0050]
If a dynamic small area exists (YES in step S12), the auxiliary search area setting unit 20 determines whether the dynamic small area is a small area that is not a dynamic small area and is adjacent to the dynamic small area. The auxiliary search area D2 (see FIG. 2D) is set and stored in the storage unit 16 (step S13). Step S13 is an auxiliary search area setting step. As shown in FIG. 2D, it is assumed that small areas A1, A2, A3, A5, A10, A11, A12, and A13 are dynamic small areas. Then, the auxiliary search area D2 is adjacent to the dynamic small areas A1, A2, A3, A5, A10, A11, A12, A13 and the dynamic small areas A1, A2, A3, A5, A10, A11, A12, A13. This is a region that is combined with a small region (a small region with oblique lines in FIG. 2D).
[0051]
After setting the auxiliary search area D2, the third determination unit 21 scans the auxiliary search area D2 with a face pattern (step S14). In step S14, the third determination unit 21 cuts out and registers a candidate area from the auxiliary search area D2 by using one area K (see FIG. 2C) among the areas of a plurality of sizes. Collation with the face pattern is performed. This collation is performed by scanning all positions in the auxiliary search area D2 with all the registered rectangle sizes. Then, the third determination unit 21 determines whether or not the region cut out by the size of the region K is a face region by using a pattern matching method (step S15). Step S15 is a third determination step.
[0052]
It is assumed that the determination is made that the face area is also in one of the cutout areas (YES in step S15). In this case, the resetting unit 22 sets a new skin color effective range using the color data obtained from the acquired image G and the stored skin color effective range, and sets the new skin color effective range to the previous one. The storage means 16 is stored in place of the skin color effective range (step S9). After setting the new effective skin color range, the third determination unit 21 causes the storage unit 16 to store the image data determined to have a face area (step S10). After storing the image data determined to have a face area, the computer 12 returns to step S1.
[0053]
If the images in all the small areas do not satisfy the flesh color area standard, the first determination unit 15 determines that there is no flesh color small area (NO in step S5). If there is no skin-colored small region, the auxiliary determination unit 19 performs a search for a dynamic small region based on the luminance difference between the acquired image G and the image g acquired immediately before the image G. Perform (Step S11). And the auxiliary | assistant determination means 19 determines the presence or absence of a dynamic small area (step S12).
[0054]
If a dynamic small area exists (YES in step S12), the auxiliary search area setting unit 20 determines whether the dynamic small area is a small area that is not a dynamic small area and is adjacent to the dynamic small area. The auxiliary search area D2 is set and stored in the storage unit 16 (step S13).
[0055]
After setting the auxiliary search area D2, the third determination unit 21 scans the auxiliary search area D2 with a face pattern (step S14). In step S14, the third determination unit 21 cuts out and registers a candidate area from the auxiliary search area D2 by using one area K (see FIG. 2C) among the areas of a plurality of sizes. Collation with the face pattern is performed. This collation is performed by scanning all positions in the auxiliary search area D2 with all the registered rectangle sizes. Then, the third determination unit 21 determines whether or not the region cut out by the size of the region K is a face region by using a pattern matching method (step S15).
[0056]
It is assumed that the determination is made that the face area is also in one of the cutout areas (YES in step S15). In this case, the resetting unit 22 sets a new skin color effective range using the color data obtained from the acquired image G and the stored skin color effective range, and sets the new skin color effective range to the previous one. The storage means 16 is stored in place of the skin color effective range (step S9). After setting the new effective skin color range, the third determination unit 21 causes the storage unit 16 to store the image data determined to have a face area (step S10). After storing the image data determined to have a face area, the computer 12 returns to step S1.
[0057]
The present embodiment has the following effects.
(1) If it is determined that the image of at least one small area satisfies the skin color area standard (YES in step S5), the skin color small area specified by the skin color area standard [FIG. In the example, a search area (small area A1 to A9) including the small area A1] is set. The set search area is narrower than the entire area of the acquired image, and the narrowed search area is a target of face area search by pattern matching. The identification of a small skin color region using the skin color region reference indicates that there is a possibility that a face region exists in the set search region. The method using pattern matching, which is hardly affected by changes in the environment and changes in camera parameters, is used to determine with high accuracy whether or not a search area including a small area of the specified flesh color actually includes a face area. This is a preferred method.
[0058]
Attempts to search for a face region using a color-based method lack accuracy. It takes time to search for a face region over the entire image by a method using pattern matching, and it is difficult to speed up face detection. The technique of narrowing the search area by a face detection technique using colors and determining the presence or absence of a face area in the narrowed search area by pattern matching improves the speed and accuracy of face detection.
[0059]
(2) When the environment (brightness or darkness) changes, the effective skin color range may not be appropriate. In the present embodiment, the search area is specified using the color (step S6), and the skin color effective range is reset every time the presence of a face area is determined by pattern matching (YES in steps S8 and S15). (Step S9). The effective skin color range obtained by the resetting (that is, the resetting of the skin color region reference) can be adjusted by selecting a coefficient to be applied to the frequency distribution curve. Therefore, if the coefficient is appropriately selected, the effective range of the skin color can be appropriately adjusted according to the environmental change.
[0060]
(3) In the case where the search area cannot be set using the skin color, in the present embodiment, the search area is determined based on the luminance difference between the same pixel in the acquired image G and the image g acquired earlier. Search for a dynamic small area. If there is a dynamic small area, an auxiliary search area D2 including the dynamic small area is set. The set auxiliary search area D2 is a target of a face area search by pattern matching. The acquired dynamic small area indicates that there is a possibility that a face area exists in the set auxiliary search area D2. Such a search for a dynamic small area enables the face area to be detected even when the face area cannot be detected because the effective skin color range is not properly set. That is, a face detection method that combines a face detection method using color, a face detection method using pattern matching, and a face detection method using dynamic regions further improves the accuracy of face detection.
[0061]
(4) When there are a plurality of faces as viewed from the video camera 11 and a part of those areas overlaps, it is difficult to detect a face accurately. For example, as shown in FIG. 2E, when the face regions F1 and F2 overlap in the image, the face regions F1 and F2 are detected in a connected state only by the face region detection method using color. In the present embodiment, since the inside of the search area D1 is scanned by the face pattern, even when the face areas overlap in the image as shown in FIG. It can be detected accurately.
[0062]
In the present invention, the following embodiments are also possible.
As a method of setting the effective range of skin color, a Euclidean distance to each RG value is calculated from the average value in the normalized RG space corresponding to the average value of RG values related to skin color, and a normalized RG space having a variance as a radius is calculated. May be set as the skin color effective range.
[0063]
As a method of setting the effective range of the skin color, the average value m, the variance value σ, and the coefficient k are used.
[0064]
In the above-described embodiment, the search for the dynamic small area may be performed simultaneously with the search for the skin color small area. That is, a search for a dynamic small area may be performed between step S3 and step S4 in FIG. 5 or between step S4 and step S5.
[0065]
In the above-described embodiment, when the auxiliary search area is set, the search area set when it is determined that a part of the image area satisfies the skin color area standard is set as the auxiliary search area. It may not be included. By doing so, the auxiliary search area is reduced, and the time for scanning the auxiliary search area with the face pattern to search for the face area can be shortened.
[0066]
In the above-described embodiment, the color data and the graph indicating the effective range of the skin color are represented using the color system of the normalized RG space. However, other color systems such as Luv space and XYZ space may be used. Good.
[0067]
The skin color effective range may be reset using color data in an area excluding the eye area and the lip area from the detected face area. In this way, the color of the relatively homogeneous skin color portion (for example, the cheek region) in the face region can be mainly used for resetting the effective skin color range, and the appropriateness of the setting of the effective skin color range is improved. .
[0068]
The detected face area may be stored, and the size and position of the stored face area may be used to detect the face area in the next acquired image. The size of the cutout area can be limited by the size of the stored face area, and the types of cutout areas having different sizes for scanning the search area can be reduced. The smaller the number of types of cutout areas having different sizes, the shorter the scanning time, and high-speed face area detection can be expected. Also, if the position of the detected face area is used, the search area in the next acquired image can be set more accurately.
[0069]
In the first embodiment, the function of the third determination unit 21 may be shared by the second determination unit 18.
In the above-described embodiment, the skin color effective range is set to be the same for all regions of the image. However, the skin color effective range may be set for each small region. If a different skin color effective range is used for each small area, it is possible to absorb a change in skin color caused by a difference in lighting conditions depending on a location in the photographing range.
[0070]
In resetting the skin color effective range for each small area, the position information of the face detection result may be used to reset the skin color effective range of only the small area detected as including part or all of the face area. . For example, in the case of FIG. 2D, the skin color effective range is reset only for the small areas A1, A2, A3, and A5, and the skin color effective range is not reset for the other small areas. I do.
[0071]
Alternatively, in consideration of the fact that the person moves, a small area detected as including part or all of the face area, and a skin color effective range of a small area adjacent to the detected small area are reset. Is also good. For example, in the case of FIG. 2D, the small areas A1, A2, A3, and A5 and the small areas adjacent to the small areas A1, A2, A3, and A5 [the small areas A1, A2, and A2 in FIG. A3, A5, a shaded small area surrounding A3) may be reset.
[0072]
In the above-described embodiment, the skin color area reference is based on the case where the number of pixels of the color included in the effective skin color range among the pixels in the small area is equal to or larger than the threshold value N0. An area reference may be used. In this case, a pixel of a color included in the skin color effective range becomes a skin color area. For example, in the case of FIG. 2D, the face part indicated by Fo is a skin color area formed by a group of pixels of a color included in the skin color effective range. The search area may be an area obtained by combining a small area including a part or all of the skin color area and a small area adjacent to the small area. In the case of FIG. 2D, the small areas A1, A2, A3, and A5 are small areas including part or all of the skin color area. The search areas related to the small areas A1, A2, A3, and A5 are the small areas A1, A2, A3, and A5 and the small areas adjacent to the small areas A1, A2, A3, and A5 [the small area in FIG. A1, A2, A3, and A5).
[0073]
When only the skin color effective range is used as the skin color region reference, the search region may be set without dividing the image into small regions. In this case, the search region may be a region (for example, a rectangular shape) that is larger than the flesh color region and that has a shape including the flesh color region.
[0074]
(Second embodiment)
Next, a face detection device according to a second embodiment will be described with reference to FIGS. The second embodiment basically modifies the skin color region reference based on the result of face detection by pattern matching as in the first embodiment as shown in the flowcharts of FIGS. Adapting to change. Specifically, the resetting unit 22 resets the skin color area reference. At this time, in setting a new effective skin color range, for example, a curve obtained by multiplying the frequency distribution curves E1 and E2 of FIGS. 3A and 3B by a predetermined coefficient (for example, 0.5) and a detection face A frequency distribution curve of the sum with the frequency distribution curve relating to the R value and G value of the skin color obtained from the region is obtained. A new skin color effective range corresponding to the skin color effective range shown in the graph of FIG. 4 is set from these new frequency distribution curves (step 9 (hereinafter, “step” is abbreviated as S)).
[0075]
However, in the first embodiment, the parameter setting method based on the flesh color region is a method of adding a uniform ratio (0.5 in the first embodiment) to the histogram. Is difficult. In addition, when an erroneous detection is performed at the time of face detection by pattern matching, addition is performed at the same ratio as that when detection is correctly performed, and a skin color parameter is set. Therefore, parameter setting may be inappropriate.
[0076]
Therefore, the face detection method and apparatus of the second embodiment are different from the flowcharts of the first embodiment shown in FIGS. 5 and 6 in the process of resetting the effective range of skin color (S9).
[0077]
From the image acquired from the camera as shown in FIG. 7 (S1 to S2), a skin color area is detected (S3, S4, S5; YES). As shown in FIG. 8, the vicinity of the skin color area is set as the face search area (S6). Then, as shown in FIG. 9, a face area is detected using pattern matching in the vicinity of the skin color area (S7). If the face area is detected (S8; YES) and the reliability is high, the skin color effective range resetting (S9) uses the pixel values in the face area to reset the skin color area reference, which is the skin color detection parameter. Make settings (adjustments).
[0078]
However, when the skin color region reference is not properly set, such as immediately after an initial frame or an environmental change, detection using color information may fail (S5; NO). Therefore, if the face cannot be detected by the face detection using the skin color, a dynamic small area is searched (S11). If there is a dynamic small area (S12; YES), the dynamic small area (all frames) is searched. (Using an image) is set as a search range, and a face area is searched and detected using pattern matching (FIG. 10).
[0079]
At this time, when the face area is detected, the reliability of the histogram (FIG. 11) of the skin color pixels accumulated so far is calculated using the pixel values in the face area as shown in the following equation (1). By multiplying by the corresponding coefficient a and adding it up, the detection parameters of the flesh color are set. Here, the coefficient “a” is a fixed value (for example, 0.5) in the first embodiment. However, in the second embodiment, the coefficient “a” is a coefficient having a different value depending on the condition and a range of 0 <a <1. Take the value with “Ht” indicates a histogram before updating, and “Hc” indicates a histogram of a detected face area. “Ht + 1” indicates the updated histogram.
[0080]
Ht + 1 = aHt + (1-a) Hc (1)
As shown in FIG. 11A, the peak of the histogram E3 has an R value of m3 and a height of 1. This height corresponds to the number of pixels in the first embodiment, but is referred to as the accumulation degree in the second embodiment. On the other hand, in the histogram E4 obtained by multiplying the histogram E3 by the coefficient a, the peak R value is at the same m3, and the height is a / 1.
[0081]
FIG. 12 is a flowchart showing in detail the skin color area reference setting process in the skin color effective range resetting step (S9) of the second embodiment.
Here, the computer 12 executes a detection area determination step (S21) of determining whether the determination that the face area is present is the search area or the auxiliary search area. Note that the computer 12 executing this step functions as a detection area determination unit. When the detected face area is the search area set by the skin color (S21; YES), it can be estimated that the setting of the skin color area reference for detecting the face in the frame is appropriate. Therefore, the coefficient a to be applied to the histogram stored as flesh color pixels is set to “a = a0 (for example, 0.5)” (S22), and the flesh color detection criterion (skin color parameter) is set by adding to the histogram of the detected pixels. (S23).
[0082]
For example, when the accumulated histogram E3 shown in FIG. 11A is multiplied by the coefficient a0 (= 0.5) in this case, the accumulated accumulation degree N is halved as a whole. , And a curve like a histogram E4. In this case, the average values m3 and m4 of the R values do not change.
[0083]
Similarly, when (1-a) = 0.5 is applied to a histogram (not shown) having an average R value of m5 generated from the detected skin color data, a histogram shown in FIG. E5.
[0084]
Next, the histogram E4 and the histogram E5 are added. That is, a new histogram E6 is generated by adding the accumulation degrees N of the two. In this case, the average value m6 of the histogram E6 is intermediate between the average value m4 of the histogram E4 and the average value m5 of the histogram E5. The position of the new average value changes depending on the weighting of the accumulated histogram data accumulated in the past and the newly detected detection histogram data, in other words, the manner of setting the coefficient a.
[0085]
If the detected face area is not the search area set by the skin color (S21; NO), but is the auxiliary search area set by the movement, it is considered that "the environment has changed". When an environmental change occurs, the pixel value of the entire screen changes, so that a motion area is detected on the entire screen by motion detection. Therefore, when the ratio of the motion area to the entire screen is equal to or more than a certain threshold (for example, 80% or more) (S24; YES), it can be inferred that the environment has changed. Small “a = a1 (for example, 0.2)” is set (S25), and the detection pixels are added (S23). By reducing the coefficient applied to the accumulation histogram, the influence of the detected pixel on the setting of the flesh color area reference is increased, so that the detection pixel can quickly adapt to the environment. As shown in FIG. 11C, in this case, the average value m9 of the new histogram E9 is smaller than the average value m7 of the histogram E7 generated from the accumulated histogram, that is, the average value of the histogram E8 generated from the detected data. It is close to m8.
[0086]
Here, when it is determined that a face region exists in the auxiliary search region, the computer 12 determines whether the ratio of the detected dynamic region is equal to or greater than a predetermined threshold or less than a predetermined threshold. The step is executed (S24). Note that the computer 12 executing S24 functions as a dynamic area ratio determination unit. When the detected face area is not the search area set by the flesh color (S21; NO) and the ratio of the entire motion area is smaller than a certain threshold and small (S24; NO), it is unlikely that "the environment has changed". . On the other hand, the reason why the skin color region could not be detected from the candidate region may be a case where “the current setting of the skin color parameter is inappropriate” and a case where “an incorrect detection at the time of face detection by a pattern” is performed. The guess of which of the above is based on whether the previous frame (for example, 20 frames) in which the face has been successfully detected is the “search area by skin color” or the “auxiliary search area by motion”. (S26).
[0087]
Here, when it is determined that the face area exists in the auxiliary search area, the computer 12 determines whether the past face area is detected in the search area when the rate of the detected dynamic area is less than the predetermined threshold. Is executed (S26). The computer 12 executing S26 functions as a past history determination unit. If the result of the face detection so far is “candidate area based on skin color” (S26; YES), it is “detected from the moving area even though there is no environmental change and the skin color setting is appropriate”. , An erroneous detection at the time of face detection by a pattern ". Therefore, the coefficient a applied to the accumulation histogram is set to “a = a2 (for example, 0.8)” which is larger than a0 (S27), and the detection pixels are added (S23). In this case, the new average value m is closer to the average value of the accumulated histogram than the average value of the histogram generated from the detected data. By increasing the coefficient a applied to the accumulation histogram, the influence of the detected pixel on the flesh color setting can be reduced, and inappropriate setting of the flesh color parameter due to erroneous detection can be suppressed.
[0088]
Further, when a face image is detected from the “candidate region due to motion” in the past frame (S26; NO), it can be estimated that “the current skin color setting is inappropriate”, and thus the coefficient to be applied to the accumulation histogram is used. “a” is set to a small value “a = a3 (for example, 0.2, etc., may be the same as a1)” (S28), and the detection pixels are added (S23). By reducing the coefficient applied to the accumulation histogram, the influence of the detected pixel on the setting of the flesh color area reference is increased, so that the detection pixel can quickly adapt to the environment.
[0089]
As described above, when setting the skin color region reference, the coefficient a to be applied to the accumulated histogram is determined from “from which of the search regions or the auxiliary search region was detected”, “what was the overall change”, "What was the detection result so far?" Thus, a face detection method and apparatus that flexibly adapts to the environment can be realized by judging whether or not the detection result is correct and controlling parameters when setting the skin color area reference.
[0090]
The present embodiment has the following effects.
(1) In a system for monitoring a person, there is no need to manually set detection parameters according to camera parameters and environmental light, and a face region can be accurately detected at high speed. In addition, it is possible to flexibly adapt to erroneous detection in the case of detection by a pattern and environmental changes.
[0091]
(2) Further, by adjusting the coefficient a in addition to the adjustment of the coefficient k and the dispersion of the histogram in consideration of the sensitivity characteristics of the camera and the characteristics of the ambient light, the face is reduced in noise and the noise is reduced. Adjustments can be made for robust detection.
[0092]
The invention that can be grasped from the above-described embodiment will be described below.
[1] The method according to any one of claims 1 and 2, further comprising a dividing step of dividing the captured image into a plurality of small areas, wherein the first determining step includes setting an image in the small area. Determining whether or not an image in the small area satisfies the flesh color area criterion. A face detection method in which a search area is set so as to include a small area satisfying the following.
[0093]
[2] In the above item [1], the skin color area reference includes a skin color effective range set as a reference skin color and an area where a skin color included in the skin color effective range has a predetermined ratio or more within an area of a certain size. A face detection method that is data that is combined with the existence ratio of being present.
[0094]
[3] The method according to any one of claims 3 and 4, further comprising a dividing unit that divides the image taken by the imaging unit into a plurality of small areas, wherein the first determination unit is configured by the dividing unit. It is determined whether or not the image in the divided small area satisfies the set skin color area criterion, and the search area setting means determines that the image in the small area satisfies the skin color area criterion. A face detection apparatus that sets a search area so as to include a small area satisfying the skin color area criterion when the determination is made by the first determination unit.
[0095]
[4] In the above item [3], the skin color area reference includes a skin color effective range set as a reference skin color and an area in which a skin color included in the skin color effective range has a predetermined ratio or more within an area of a certain size. The face detection device is data that is combination data with the existence ratio of being present in.
[0096]
[5] an imaging step for imaging the face, a satisfaction determination that a part of the area of the captured image satisfies the set skin color area standard, and a part of the area satisfies the skin color area standard. Setting a search area including a part of an area of the image satisfying the skin color area criterion, wherein the first determination step performs any one of an unsatisfied determination that the skin color area is not satisfied; and A search area setting step, a second determination step of determining whether or not a face area exists in the set search area using pattern matching, and when the unsatisfaction determination is performed, or When it is determined that no face region exists in the search region, an auxiliary determination step of determining whether a dynamic region is included in the image, and that the image includes a dynamic region Was determined In this case, an auxiliary search area setting step of setting an auxiliary search area including the dynamic area and a third step of determining whether a face area exists in the set auxiliary search area by using pattern matching. A face detection program for causing a computer to execute the determining step.
[0097]
【The invention's effect】
As described in detail above, the present invention has an excellent effect that both the speed and accuracy of face detection can be improved.
[Brief description of the drawings]
FIG. 1A is a block diagram illustrating a face detection device according to an embodiment. (B) is a functional block diagram of a computer.
FIG. 2A is an explanatory diagram of image data captured by a video camera. (B) is an explanatory view of a divided image. (C) is an explanatory view showing a search area. (D) is an explanatory view showing an auxiliary search area. (E) is an explanatory view of an image.
FIG. 3A is a graph showing a frequency distribution curve of an R value. (B) is a graph showing a frequency distribution curve of a G value.
FIG. 4 is a graph showing a skin color effective range.
FIG. 5 is a flowchart showing a face detection program.
FIG. 6 is a flowchart illustrating a face detection program.
FIG. 7 is a diagram showing an example of an input image after small area division (S3).
FIG. 8 is a diagram showing a search area in which a search area is set (S6) based on skin color when the skin color area reference is appropriate.
FIG. 9 is a diagram showing a search method for evaluating the likelihood of a face region in a cut-out region.
FIG. 10 is a diagram showing a search area in which an auxiliary search area setting using motion (S13) is performed.
FIGS. 11A to 11C are graphs showing histograms.
FIG. 12 is a flowchart showing in detail a skin color area reference setting process in a skin color effective range resetting step (S9) according to the second embodiment.
[Explanation of symbols]
10. Face detection device. 11 Video camera (imaging means). 12 Computer (first determining means, search area setting means, second determining means, resetting means). 15: First determination means. 17 Search area setting means. 18 ... second determination means. 19 ... Auxiliary determination means. 20 ... Auxiliary search area setting means. 21. Third determination means. 22 ... resetting means. G ... Image. F ... face. Fo: face area. A1: Small area which is a skin color area. A1, A2, A3, A5, A10, A11, A12, A13... Small areas as dynamic areas. D1 ... Search area. D2: auxiliary search area. H: Effective range of skin color.

Claims (12)

コンピュータが実行する顔検出方法であって、当該コンピュータが
顔を撮像するための撮像ステップと、
撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う第1の判定ステップと、
前記充足判定がなされた場合、前記肌色領域基準を満たす前記画像の領域の一部を含む探索領域を設定する探索領域設定ステップと、
設定された前記探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第2の判定ステップと、
前記非充足判定がなされた場合、又は、前記探索領域内に顔領域が存在しないとの判定がなされた場合、前記画像に動的領域が含まれているか否かを判定する補助判定ステップと、
前記画像に動的領域が含まれているとの判定がなされた場合には、前記動的領域を含む補助探索領域を設定する補助探索領域設定ステップと、
設定された前記補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第3の判定ステップとを実行することを特徴とする顔検出方法。
A face detection method executed by a computer, the imaging step for the computer to image a face,
Either a satisfaction determination that a part of the region of the captured image satisfies the set skin color region criterion or a non-satisfaction determination that a part of the region does not satisfy the skin color region criterion A first determination step of performing a determination;
When the satisfaction determination is made, a search area setting step of setting a search area including a part of the area of the image that satisfies the skin color area criterion,
A second determination step of determining whether or not a face area exists in the set search area by using pattern matching;
If the unsatisfied determination is made, or if it is determined that no face area is present in the search area, an auxiliary determination step of determining whether the image includes a dynamic area,
When it is determined that a dynamic area is included in the image, an auxiliary search area setting step of setting an auxiliary search area including the dynamic area,
A third determination step of determining whether a face area exists in the set auxiliary search area by using pattern matching.
設定された前記探索領域内、又は設定された前記補助探索領域内に顔領域が存在するとの判定がなされた場合、前記顔領域における色データに基づいて前記肌色領域基準を再設定する再設定ステップを含む請求項1に記載の顔検出方法。A resetting step of resetting the skin color area reference based on color data in the face area when it is determined that the face area exists in the set search area or in the set auxiliary search area. The face detection method according to claim 1, comprising: 前記再設定ステップは、所定の条件に応じて前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項2に記載の顔検出方法。3. The face detecting method according to claim 2, wherein the resetting step changes the resetting of the skin color region reference according to a predetermined condition. 前記再設定ステップは、顔領域が存在すると判定がなされたのが前記探索領域か前記補助探索領域かを判断する検出領域判断ステップの判断に基づいて、顔領域が前記探索領域で存在すると判定された場合と、顔領域が前記補助探索領域で存在すると判定された場合とで前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項3に記載の顔検出方法。In the resetting step, it is determined that the face area exists in the search area based on the determination in the detection area determination step of determining whether the face area is determined to be the search area or the auxiliary search area. 4. The face detection method according to claim 3, wherein resetting of the skin color region reference is different between a case where the face region is determined to be present in the auxiliary search region and a case where the face region is determined to be present. 5. 前記再設定ステップは、前記補助探索領域において顔領域が存在すると判定された場合に、検出された動的領域の割合が所定の閾値以上か、所定の閾値未満かを判断する動的領域割合判断ステップの判断に基づいて、検出された動的領域の割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項4に記載の顔検出方法。The resetting step includes, when it is determined that a face area is present in the auxiliary search area, determining whether a ratio of the detected dynamic area is equal to or greater than a predetermined threshold or less than a predetermined threshold. Based on the judgment of the step, the resetting of the skin color region reference is different between a case where the ratio of the detected dynamic region is equal to or more than a predetermined threshold value and a case where the ratio is less than the predetermined threshold value. The face detection method according to claim 4. 前記再設定ステップは、前記補助探索領域において顔領域が存在する判定された場合に、検出された動的領域の割合が所定の閾値未満のときに、過去の顔領域が探索領域で検出された割合を判断する過去履歴判断ステップにより過去の顔領域が探索領域で検出された割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項5に記載の顔検出方法。In the resetting step, when it is determined that a face area is present in the auxiliary search area, a past face area is detected in the search area when a ratio of the detected dynamic area is less than a predetermined threshold. The resetting of the skin color area reference is different depending on whether the rate at which the past face area is detected in the search area by the past history determination step of determining the rate is equal to or greater than a predetermined threshold, and depending on whether the rate is less than the predetermined threshold. The face detection method according to claim 5, wherein コンピュータを備えた顔検出装置であって、
当該コンピュータを、顔を撮像するための撮像手段と、
前記撮像手段によって撮像された画像の領域の一部が設定された肌色領域基準を満たしているとの充足判定と、前記領域の一部が前記肌色領域基準を満たしていないとの非充足判定とのいずれかの判定を行う第1の判定手段と、
前記第1の判定手段が前記充足判定を行った場合、前記肌色領域基準を満たす前記画像の領域の一部を含む探索領域を設定する探索領域設定手段と、
設定された前記探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第2の判定手段と、
前記第1の判定手段が前記非充足判定を行った場合、又は、設定された前記探索領域内に顔領域が存在しないとの判定が前記第2の判定手段によってなされた場合、前記画像に動的領域が含まれているか否かを判定する補助判定手段と、
前記画像に動的領域が含まれているとの判定を前記補助判定手段が行った場合には、前記動的領域を含む補助探索領域を設定する補助探索領域設定手段と、
設定された前記補助探索領域内に顔領域が存在するか否かをパターンマッチングを用いて判定する第3の判定手段として機能させることを特徴とする顔検出装置。
A face detection device including a computer,
The computer, imaging means for imaging the face,
A satisfaction determination that a part of the region of the image captured by the imaging unit satisfies the set skin color region criterion, and a non-satisfaction determination that a part of the region does not satisfy the skin color region criterion First determining means for performing any of the following determinations:
A search region setting unit configured to set a search region including a part of the image region satisfying the skin color region standard, when the first determination unit has performed the satisfaction determination;
Second determining means for determining whether or not a face area exists in the set search area by using pattern matching;
When the first determination unit makes the non-satisfaction determination, or when the second determination unit determines that the face area does not exist in the set search area, the image is moved. Auxiliary determining means for determining whether a target area is included,
When the auxiliary determination unit has determined that a dynamic region is included in the image, an auxiliary search region setting unit that sets an auxiliary search region including the dynamic region,
A face detection device that functions as third determination means for determining whether or not a face area exists in the set auxiliary search area by using pattern matching.
前記探索領域設定手段によって設定された前記探索領域内に顔領域が存在するとの判定が前記第2の判定手段によってなされた場合、又は、前記補助探索領域設定手段によって設定された前記補助探索領域内に顔領域が存在するとの判定が前記補助判定手段によってなされた場合、前記顔領域における色データに基づいて前記肌色領域基準を再設定する再設定手段を含む請求項7に記載の顔検出装置。When the second determining means determines that a face area exists in the search area set by the search area setting means, or in the auxiliary search area set by the auxiliary search area setting means 8. The face detecting apparatus according to claim 7, further comprising resetting means for resetting the skin color area reference based on color data in the face area when the auxiliary determining means determines that a face area exists in the face area. 前記再設定手段は、所定の条件に応じて前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項8に記載の顔検出装置。9. The face detection apparatus according to claim 8, wherein the resetting unit changes the reset of the skin color region reference according to a predetermined condition. 前記再設定手段は、顔領域が存在すると判定がなされたのが前記探索領域か前記補助探索領域かを判断する検出領域判断手段を備え、当該判断に基づいて、顔領域が前記探索領域で存在すると判定された場合と、顔領域が前記補助探索領域で存在すると判定された場合とで前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項9に記載の顔検出装置。The resetting means includes detection area determining means for determining whether the face area is determined to be the search area or the auxiliary search area. Based on the determination, a face area exists in the search area. 10. The face detection apparatus according to claim 9, wherein resetting the skin color area reference is different between a case where it is determined that the face area is present in the auxiliary search area and a case where it is determined that the face area exists in the auxiliary search area. 前記再設定手段は、前記補助探索領域において顔領域が存在すると判定された場合に、検出された動的領域の割合が所定の閾値以上か、所定の閾値未満かを判断する動的領域割合判断手段の判断に基づいて、検出された動的領域の割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項10に記載の顔検出装置。The resetting means determines, when it is determined that a face area exists in the auxiliary search area, whether a ratio of the detected dynamic area is equal to or more than a predetermined threshold or less than a predetermined threshold. Based on the judgment of the means, the resetting of the skin color area reference is different between a case where the ratio of the detected dynamic area is equal to or more than a predetermined threshold value and a case where the ratio is less than the predetermined threshold value. The face detection device according to claim 10. 前記再設定手段は、前記補助探索領域において顔領域が存在する判定された場合に、検出された動的領域の割合が所定の閾値未満のときに、過去の顔領域が探索領域で検出された割合を判断する過去履歴判断手段により過去の顔領域が探索領域で検出された割合が所定の閾値以上の場合と、所定の閾値未満の場合とで、前記肌色領域基準の再設定を異なるものとすることを特徴とする請求項11に記載の顔検出装置。The resetting means may determine that a face area exists in the auxiliary search area, and when a ratio of the detected dynamic area is less than a predetermined threshold, a past face area is detected in the search area. The resetting of the skin color area reference is different depending on whether the rate at which the past face area is detected in the search area by the past history determining means for determining the rate is equal to or greater than a predetermined threshold and when the rate is less than the predetermined threshold. The face detection apparatus according to claim 11, wherein the face detection is performed.
JP2003097250A 2002-10-30 2003-03-31 Face detection method and face detection apparatus Expired - Fee Related JP3806096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003097250A JP3806096B2 (en) 2002-10-30 2003-03-31 Face detection method and face detection apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002316287 2002-10-30
JP2003097250A JP3806096B2 (en) 2002-10-30 2003-03-31 Face detection method and face detection apparatus

Publications (2)

Publication Number Publication Date
JP2004206665A true JP2004206665A (en) 2004-07-22
JP3806096B2 JP3806096B2 (en) 2006-08-09

Family

ID=32828246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003097250A Expired - Fee Related JP3806096B2 (en) 2002-10-30 2003-03-31 Face detection method and face detection apparatus

Country Status (1)

Country Link
JP (1) JP3806096B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141699A (en) * 2006-12-05 2008-06-19 Fujifilm Corp Monitoring system, method and program
JP2008182680A (en) * 2006-12-27 2008-08-07 Fujifilm Corp Monitoring system, monitoring method, and program
JP2010166263A (en) * 2009-01-14 2010-07-29 Canon Inc Image processor, image processing method, and program
JP2011090569A (en) * 2009-10-23 2011-05-06 Sony Corp Image processing apparatus and image processing method
WO2011092848A1 (en) * 2010-01-29 2011-08-04 株式会社日立製作所 Object detection device and face detection device
JP2016127431A (en) * 2014-12-29 2016-07-11 カシオ計算機株式会社 Imaging device, imaging control method and program
JP2018142061A (en) * 2017-02-27 2018-09-13 Kddi株式会社 Face detection apparatus and program
CN109727198A (en) * 2019-01-03 2019-05-07 成都品果科技有限公司 A kind of brightness of image optimization method based on Face Detection
JP2020021243A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing apparatus, image processing method, and image processing program
US20210142495A1 (en) * 2019-11-08 2021-05-13 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method and storage medium
WO2022201247A1 (en) * 2021-03-22 2022-09-29 楽天グループ株式会社 Information processing device, information processing method, and program
WO2022244414A1 (en) * 2021-05-19 2022-11-24 パナソニックIpマネジメント株式会社 Measurement method and measurement device

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141699A (en) * 2006-12-05 2008-06-19 Fujifilm Corp Monitoring system, method and program
JP2008182680A (en) * 2006-12-27 2008-08-07 Fujifilm Corp Monitoring system, monitoring method, and program
JP2010166263A (en) * 2009-01-14 2010-07-29 Canon Inc Image processor, image processing method, and program
JP2011090569A (en) * 2009-10-23 2011-05-06 Sony Corp Image processing apparatus and image processing method
WO2011092848A1 (en) * 2010-01-29 2011-08-04 株式会社日立製作所 Object detection device and face detection device
JPWO2011092848A1 (en) * 2010-01-29 2013-05-30 株式会社日立製作所 Object detection device and face detection device
JP2016127431A (en) * 2014-12-29 2016-07-11 カシオ計算機株式会社 Imaging device, imaging control method and program
JP2018142061A (en) * 2017-02-27 2018-09-13 Kddi株式会社 Face detection apparatus and program
JP7130488B2 (en) 2018-07-31 2022-09-05 グローリー株式会社 Image processing device, image processing method, and image processing program
JP2020021243A (en) * 2018-07-31 2020-02-06 グローリー株式会社 Image processing apparatus, image processing method, and image processing program
CN109727198A (en) * 2019-01-03 2019-05-07 成都品果科技有限公司 A kind of brightness of image optimization method based on Face Detection
CN109727198B (en) * 2019-01-03 2023-04-07 成都品果科技有限公司 Image brightness optimization method based on skin color detection
US20210142495A1 (en) * 2019-11-08 2021-05-13 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method and storage medium
US11557050B2 (en) * 2019-11-08 2023-01-17 Canon Kabushiki Kaisha Image processing apparatus, image capturing apparatus, image processing method and storage medium
WO2022201247A1 (en) * 2021-03-22 2022-09-29 楽天グループ株式会社 Information processing device, information processing method, and program
JPWO2022201247A1 (en) * 2021-03-22 2022-09-29
JP2022146948A (en) * 2021-03-22 2022-10-05 楽天グループ株式会社 Information processing apparatus, information processing method, and program
JP7438269B2 (en) 2021-03-22 2024-02-26 楽天グループ株式会社 Information processing device, information processing method and program
WO2022244414A1 (en) * 2021-05-19 2022-11-24 パナソニックIpマネジメント株式会社 Measurement method and measurement device

Also Published As

Publication number Publication date
JP3806096B2 (en) 2006-08-09

Similar Documents

Publication Publication Date Title
JP6655878B2 (en) Image recognition method and apparatus, program
JP5149293B2 (en) Real-time face tracking in digital image acquisition device
US8605955B2 (en) Methods and apparatuses for half-face detection
US7826659B2 (en) Image processing apparatus and method, computer program, and storage medium dividing an input image into band images
US8861806B2 (en) Real-time face tracking with reference images
US6278491B1 (en) Apparatus and a method for automatically detecting and reducing red-eye in a digital image
US20160330369A1 (en) Face tracking for controlling imaging parameters
JP7272024B2 (en) Object tracking device, monitoring system and object tracking method
JP3806096B2 (en) Face detection method and face detection apparatus
JP5271227B2 (en) Crowd monitoring device, method and program
JP2016134803A (en) Image processor and image processing method
KR101139930B1 (en) Apparatus and method for object recognition based on part-template matching
JP2017117244A (en) Image analysis device for detecting a person displayed in photographic image of camera
JP2018097611A (en) Image processing device and control method thereof
JP2007067559A (en) Image processing method, image processing apparatus, and control method of imaging apparatus
US10250809B2 (en) Video stabilization system and method
JP2009123081A (en) Face detection method and photographing apparatus
US20130163862A1 (en) Image processing method and device for redeye correction
KR20190072643A (en) A face detecting apparatus, a control method therefor, and a program
JP5599228B2 (en) Busy detection system and busy detection program
Corcoran et al. Detection and repair of flash-eye in handheld devices
US20230368528A1 (en) Method and device for setting a value of an object property in a sequence of metadata frames corresponding to a sequence of video frames
US20230195781A1 (en) Systems and methods for managing metadata
JP2003323621A (en) Image processor and protrusion detecting method for the image processor and its program
JP5800548B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050315

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050315

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050907

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051212

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20051212

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060511

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090519

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120519

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130519

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees