JP2009123081A - Face detection method and photographing apparatus - Google Patents
Face detection method and photographing apparatus Download PDFInfo
- Publication number
- JP2009123081A JP2009123081A JP2007298186A JP2007298186A JP2009123081A JP 2009123081 A JP2009123081 A JP 2009123081A JP 2007298186 A JP2007298186 A JP 2007298186A JP 2007298186 A JP2007298186 A JP 2007298186A JP 2009123081 A JP2009123081 A JP 2009123081A
- Authority
- JP
- Japan
- Prior art keywords
- face
- area
- pattern
- candidate
- candidate area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、撮像画像の中に存在する人物の顔領域を検出する顔検出方法及び撮影装置に関する。 The present invention relates to a face detection method and a photographing apparatus that detect a face area of a person present in a captured image.
近年、デジタルビデオカメラやデジタルスチルカメラ等の撮影装置には、人物を被写体とした場合に、人物の顔に焦点を合わせるフォーカス処理や、顔が綺麗に写るように露出調整処理やホワイトバランス補正処理を自動的に行う機能を搭載するものがあり、人物の顔にピント、色、明るさが適正化された画像を容易に撮影することができるようになっている。 In recent years, digital video cameras, digital still cameras, and other photographic devices have focus processing that focuses on a person's face when a person is the subject, and exposure adjustment processing and white balance correction processing that makes the face appear beautiful. Some of them are equipped with a function for automatically performing an image, and it is possible to easily shoot an image with appropriate focus, color and brightness on the face of a person.
例えば、デジタルスチルカメラでは、静止画像を撮影する前に固体撮像素子から順次に取り込まれる撮像画像データを解析することで画像中の顔領域を抽出し、抽出した顔領域に焦点を合わせ、その顔領域を対象として露出調整やホワイトバランス補正を自動的に行う。 For example, in a digital still camera, a face area in an image is extracted by analyzing captured image data sequentially taken from a solid-state image sensor before a still image is captured, and the extracted face area is focused and the face is Automatic exposure adjustment and white balance correction for areas.
撮像画像中からの顔領域の検出は、精度良く行う必要がある。顔領域を誤検出すると、本来は顔でない部分を顔としてフォーカス処理をしてしまうため、人物の顔に焦点のあっていない画像(いわゆるピンぼけ画像)が撮像されてしまい、露光不良、ホワイトバランス不良が発生して、人物の顔が不自然な色になってしまうためである。 It is necessary to detect the face area from the captured image with high accuracy. If a face area is mistakenly detected, focus processing is performed on the face that is not the face, so an image that is not focused on the human face (so-called out-of-focus image) is captured, resulting in poor exposure or white balance. This is because a person's face becomes an unnatural color.
このため、顔領域の検出は、一般的に、画像中から顔領域の候補(顔候補領域)を抽出する第1ステップと、抽出した顔候補領域が人物の顔として確からしいか否かを判定する第2ステップとに分けられる。例えば、第1ステップはパターンマッチング法により行われ、第2ステップは肌色検出法により行われる。 For this reason, the detection of a face area generally involves a first step of extracting a face area candidate (face candidate area) from an image and determining whether or not the extracted face candidate area is likely to be a human face. And the second step. For example, the first step is performed by the pattern matching method, and the second step is performed by the skin color detection method.
パターンマッチング法とは、人間の顔を正面から見たパターンや横から見たパターン、大人の顔パターンや幼児の顔パターンなど各種の顔パターンを撮影装置内のメモリにテンプレートとして保持しておき、これらのテンプレートと撮像画像内の各部分領域との相関を取り、相関が高い部分領域を顔候補領域として抽出する方法である。 Pattern matching method means that various face patterns such as human face pattern, side view pattern, adult face pattern, infant face pattern, etc. are stored as templates in the memory of the imaging device, In this method, the correlation between these templates and each partial area in the captured image is obtained, and a partial area having a high correlation is extracted as a face candidate area.
肌色検出法とは、1画面の撮像画像を、例えば8×8=64の領域に分割し、分割領域ごとのR(赤),G(緑),B(青)の積算データにより各分割領域の色相を求め、色相が肌色となる分割領域内に顔が存在すると判定する方法である。 The skin color detection method divides a captured image of one screen into, for example, 8 × 8 = 64 areas, and each divided area based on accumulated data of R (red), G (green), and B (blue) for each divided area. Is obtained, and it is determined that a face is present in a divided area where the hue is a skin color.
以上の顔検出技術に関連して、抽出した顔候補領域中からさらに人物の顔に付属する目、鼻、口などの顔部品の検出を行う方法が知られている(例えば、特許文献1参照)。このように、顔候補領域から顔部品を検出することにより、顔以外の領域を顔領域として誤検出することをより確実に防止することができ、検出精度の向上が期待される。また、顔部品を検出することで、顔領域の大きさをより正確に判定することが可能となる。
しかしながら、顔検出の検出精度を向上させるために、上記の処理に加えて、顔部品の検出処理を行うとなると、演算処理が長くなるため、動画像の1フレーム期間(例えば1/30秒)内に顔検出処理が終了するか否かといった時間的な問題が生じる。次のフレームまでに顔検出処理が終了し顔領域が特定されなければ、当然、顔領域を対象とした処理(フォーカス処理、露出調整処理、ホワイトバランス補正処理等)を実行することができない。1フレーム期間内に顔検出処理が終了しないのであれば、2フレーム以上の期間を掛けて顔検出処理を行わざるを得ず、顔領域の追跡性能は低下してしまう。 However, in order to improve the detection accuracy of face detection, if face component detection processing is performed in addition to the above processing, the calculation processing becomes longer, and therefore one frame period (for example, 1/30 second) of a moving image There arises a time problem such as whether or not the face detection process ends. If the face detection process is completed by the next frame and the face area is not specified, naturally, the process (focus process, exposure adjustment process, white balance correction process, etc.) for the face area cannot be executed. If the face detection process does not end within one frame period, the face detection process must be performed over a period of two frames or more, and the tracking performance of the face area is degraded.
本発明は、上記課題を鑑みてなされたものであり、1フレーム画像から高速にかつ精度良く顔領域を検出することができる顔検出方法及び撮影装置を提供することを目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a face detection method and a photographing apparatus that can detect a face area from one frame image at high speed and with high accuracy.
上記目的を達成するために、本発明の顔検出方法は、固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する顔検出方法において、顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出ステップと、前記顔候補領域検出ステップで抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理ステップと、前記顔候補領域検出ステップで抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出ステップと、前記顔部品領域検出ステップで検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理ステップで特定した顔領域が真の顔領域であるか否かを判定する判定ステップと、を備えたことを特徴とする。 In order to achieve the above object, a face detection method according to the present invention is a face detection method for detecting a human face area present in a captured image output from a solid-state image sensor. From the face candidate area detection step that executes a pattern matching process and extracts a face area candidate having a correlation greater than a predetermined value with the face pattern from the captured image, and from each face candidate area extracted in the face candidate area detection step A narrowing process step for identifying a face area that is likely to be a human face, and a pattern matching process with a face part pattern are performed on each face candidate area extracted in the face candidate area detection step, and a face is identified from the face candidate area. Based on the relative positional relationship between each face part area detected in the face part area detecting step and the face part area detecting step for detecting the part area, the aperture Identified face region viewed processing step is characterized in that and a determination step of determining whether a true face region.
前記絞り込み処理ステップは、前記顔候補領域検出ステップで抽出した顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することが好ましい。 The narrowing-down processing step preferably examines the hue of the face candidate area extracted in the face candidate area detection step and specifies a probable face area as a human face depending on whether or not the hue is a skin color.
また、本発明の撮影装置は、固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する撮影装置において、顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出手段と、前記顔候補領域検出手段が抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理手段と、前記顔候補領域検出手段が抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出手段と、前記顔部品領域検出手段が検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理手段が特定した顔領域が真の顔領域であるか否かを判定する判定手段と、を備えたことを特徴とする。 Further, an imaging device of the present invention performs a pattern matching process between a face pattern and the captured image in an imaging device that detects a human face area present in a captured image output from a solid-state image sensor, Face candidate area detecting means for extracting face area candidates having a correlation greater than a predetermined value with the face pattern from the captured image, and face areas that are likely to be human faces from each face candidate area extracted by the face candidate area detecting means And a face part area for detecting a face part area from the face candidate area by executing a pattern matching process with the face part pattern for each face candidate area extracted by the face candidate area detecting means. Whether the face area specified by the narrowing-down processing means is a true face area based on the relative positional relationship between the detection means and each face part area detected by the face part area detection means Determining means for determining, characterized by comprising a.
前記絞り込み処理手段は、前記顔候補領域検出手段が抽出した各顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することが好ましい。 It is preferable that the narrowing-down processing unit examines the hue of each face candidate region extracted by the face candidate region detection unit and specifies a probable facial region as a human face depending on whether the hue is a skin color.
本発明によれば、絞り込み処理と並行して顔部品領域検出処理を実行するので、高速にかつ精度良く顔領域を検出することができる。 According to the present invention, since the face part area detection process is executed in parallel with the narrowing-down process, the face area can be detected at high speed and with high accuracy.
図1において、本発明の一実施形態に係る撮影装置10は、被写界からの入射光を取り込み結像する撮影レンズ11と、この入射光の結像面に受光面が配置されたCCDイメージセンサやCMOSイメージセンサ等の固体撮像素子12と、固体撮像素子12から出力される撮像画像データを相関二重サンプリング処理や利得調整処理、アナログ/デジタル変換処理するアナログフロントエンドプロセッサ(AFE)13とを備える。
In FIG. 1, a photographing
さらに、撮影装置10は、AFE13から出力される撮像画像データを並列に取り込む信号処理部14及び顔検出処理部15と、信号処理部14に接続された画像データ格納メモリ16とを備え、顔検出処理部15が検出した顔情報が信号処理部14に出力されるように構成されている。
Further, the photographing
信号処理部14は、撮像画像データに対してオフセット処理やガンマ補正処理、RGB/YC変換処理等を施し、さらにJPEG画像に圧縮するなどした画像データを記録メディア(図示せず)に出力して保存したり、スルー画像として撮影装置背面などに搭載される表示部(図示せず)に表示させたりする。
The
また、信号処理部14は、各部を制御する主制御回路(CPU)17を備え、顔検出処理部15から送られてくる顔情報(顔領域の座標データ)に基づいて露光調整、ホワイトバランス補正等を行い、撮影レンズ11に対しフォーカス位置の制御指示を行う。
The
顔検出処理部15は、AFE13から取り込んだ撮像画像データを間引き処理するなどして縮小画像データを生成する前処理部18と、この縮小画像データを格納する縮小画像データ格納メモリ19と、予め用意された各種の顔パターン及び顔部品パターンのテンプレートデータを格納するテンプレートデータ格納メモリ20と、縮小画像データから人物の顔らしい顔領域を検出する顔領域検出部21と、この顔領域から顔部品を検出する顔部品検出部22と、顔領域及び顔部品の検出結果から真の顔領域を判定する判定部23とを備え、検出した真の顔領域の座標データを顔情報として信号処理部14に通知する。
The face
顔領域検出部21は、図2に示すように、縮小画像データと顔パターンのテンプレートデータとを用いてパターンマッチング処理を行うパターンマッチング部21aと、パターンマッチング部21aにより検出された顔候補領域の色相が肌色であるか否かの判定を行う肌色判定部21bとから構成されている。
As shown in FIG. 2, the face
パターンマッチング部21aは、縮小画像データ格納メモリ19に格納された縮小画像データを輝度値で表された画像データ(グレイ画像データ)とし、テンプレートデータとの相関値が所定の閾値より大きい領域を顔候補領域として抽出する。具体的には、テンプレート(顔パターン)を各画像データ内で1画素ずつずらしながら、その各位置でテンプレートとそれに重なる部分画像との相関値rを下記の式(1)に基づいて計算する。
The pattern matching unit 21a uses the reduced image data stored in the reduced image
式(1)では、テンプレートの画素値をgで表し、テンプレートと重なる部分画像の画素値をfで表し、それらの領域内での各画素値の総和を(Σg),(Σf)、各画素値の2乗和を(Σg2),(Σf2)、テンプレートTとそれに対応する部分画像との対応する画素の画素値の積の総和を(Σfg)、テンプレートの画素数をnとしている。相関値rは、0≦r≦1の範囲の値を取り、テンプレートとの合致度が高い領域ほど1に近い値を示す。 In the expression (1), the pixel value of the template is represented by g, the pixel value of the partial image overlapping the template is represented by f, and the sum of the pixel values in those regions is represented by (Σg), (Σf), each pixel The sum of squares of the values is (Σg 2 ), (Σf 2 ), the sum of the products of the pixel values of the corresponding pixels of the template T and the corresponding partial image is (Σfg), and the number of pixels of the template is n. The correlation value r takes a value in a range of 0 ≦ r ≦ 1, and shows a value closer to 1 in a region having a higher degree of matching with the template.
肌色判定部21bは、縮小画像データ格納メモリ19に格納された縮小画像データを1画面の撮像画像データを、例えば、8×8=64の分割領域に分割し、分割領域ごとにR,G,Bの色信号の積算値をそれぞれ算出することで各分割領域の色相を求め、パターンマッチング部21aで抽出された顔候補領域の色相が肌色であるか否かを判定することにより顔候補領域を取捨選択して、人物の顔として確からしい顔候補領域を顔領域として特定し、この結果を判定部23に入力する。
The skin
顔部品検出部22は、テンプレートデータ格納メモリ20に格納された、目、鼻、口などの顔部品パターンのテンプレートデータを用い、顔領域検出部21のパターンマッチング部21aの処理が終了した時点で得られる各顔候補領域を対象としてパターンマッチングを行い、各顔候補領域から顔部品領域を検出し、この結果を判定部23に入力する。つまり、この顔部品検出部22による顔部品領域の検出処理は、上記の肌色判定部21bによる判定処理と並行して行われる。なお、顔部品検出部22によるパターンマッチングは、上記の式(1)に基づいて、上記と同様な方法で行われる。
The facial
判定部23は、顔部品検出部22から入力される顔部品領域の検出情報から、肌色判定部21bから入力される顔領域内に顔部品領域が検出されたか否かを判定し、顔部品領域が検出された場合には、顔部品領域の相対位置関係(両目の位置に対する鼻や口の相対位置関係など)から、該顔領域が真の顔領域であるか否かを判定する。
The
次に、図3に示すフローチャートに沿って、顔検出処理部15が行う顔検出処理の処理手順を説明する。固体撮像素子12からは、第1フレーム画像、第2フレーム画像、第3フレーム画像、・・・と、順次に撮像画像データが出力されている。
Next, the procedure of the face detection process performed by the face
顔検出処理部15は、まずステップS1で、第1フレームの撮像画像データをAFE13から取り込み、ステップS2で、前処理部18が縮小画像データを生成する。この縮小画像データの縮小率は、数百万画素からなる撮像画像データを、比較的小さな容量の縮小画像データ格納メモリ19に格納できる値とする。
In step S1, the face
次のステップS3(顔候補領域検出ステップ)では、顔領域検出部21のパターンマッチング部21aが顔パターンのテンプレートをテンプレートデータ格納メモリ20から取り出してパターンマッチング処理を行う。このパターンマッチング処理では、図4に示すように、縮小画像データ30上で顔パターンのテンプレート31を走査しながら、上記の式(1)で算出されるテンプレート31と縮小画像データ30中の部分画像との相関値rが所定の閾値以上であるか否かを順次に求め、その閾値以上の相関値rを有する部分画像を顔候補領域とし、この顔候補領域の縮小画像データ30上での座標を求める。
In the next step S3 (face candidate region detection step), the pattern matching unit 21a of the face
縮小画像データ30上でのテンプレート31の走査が終了すると、次に、テンプレート31を所定倍率だけ拡大(または縮小)したテンプレート32を生成し、この拡大したテンプレート32を縮小画像データ30上で走査して再びパターンマッチング処理を行う。
When the scanning of the
予め用意された顔パターンのテンプレートが複数ある場合には、全ての顔パターンのテンプレートを用いて前述のパターンマッチング処理を繰り返し、得られた顔候補領域を示す座標データを記憶しておく。 When there are a plurality of face pattern templates prepared in advance, the pattern matching process described above is repeated using all face pattern templates, and coordinate data indicating the obtained face candidate areas is stored.
図4に示す例では、矩形枠33a,33bで囲まれる領域に顔候補領域が抽出されている。顔候補領域33bは、真の人物の顔画像領域であるが、顔候補領域33aは、樹木のパターンを顔画像として誤抽出したものである。
In the example shown in FIG. 4, the face candidate area is extracted in the area surrounded by the
次のステップS4では、ステップS3で顔候補領域が検出されたか否かを判定し、顔候補領域が検出されなかった場合には、後述のステップS8へ進み、顔候補領域が検出されなかった旨の情報を信号処理部14に通知する。
In the next step S4, it is determined whether or not a face candidate area has been detected in step S3. If no face candidate area has been detected, the process proceeds to step S8 to be described later, indicating that no face candidate area has been detected. Is notified to the
図4に示す例では、顔候補領域33a,33bが存在するため、ステップS4では、顔候補領域が検出されたと判定される。この場合には、ステップS5及びステップS6へ進む。ステップS5及びステップS6は、検出された顔候補領域33a,33bの情報(座標データ)に基づき、並行して行われる。
In the example shown in FIG. 4, since the
ステップS5(絞り込み処理ステップ)では、肌色判定部21bが肌色検出処理を行う。肌色判定部21bは、縮小画像データ30の各分割領域(例えば、8×8=64の分割領域)から色相データを算出し、顔領域候補33a,33bの色相を調べ、色相が肌色である顔候補領域を顔領域として特定する。図4に示す例では、顔領域候補33aは、樹木の画像であり緑色をしているため、顔領域として特定されず、顔領域候補33bは、人物の顔画像であり肌色をしているため、顔領域として特定される。
In step S5 (squeezing process step), the skin
ステップS6(顔部品領域検出ステップ)では、顔部品検出部22が顔部品パターンのテンプレートをテンプレートデータ格納メモリ20から取り出してパターンマッチング処理を行う。このパターンマッチング処理では、図5に示すように、顔候補領域33a,33b上で顔部品パターンのテンプレート34を走査しながら、上記の式(1)で算出されるテンプレート34と顔候補領域33a,33b中の部分画像との相関値rが所定の閾値以上であるか否かを順次に求め、その閾値以上の相関値rを有する部分画像を顔部品領域とし、この顔部品領域の顔候補領域上での座標を求める。
In step S6 (facial part region detection step), the facial
顔候補領域33a,33b上でのテンプレート34の走査が終了すると、次に、テンプレート31を所定倍率だけ拡大(または縮小)したテンプレート(図示せず)を生成し、この拡大したテンプレートを顔候補領域33a,33b上で走査して再びパターンマッチング処理を行う。
When the scanning of the
予め用意された顔部品パターンのテンプレートが複数ある場合には、全ての顔部品パターンのテンプレートを用いて上述のパターンマッチング処理を繰り返し、得られた顔部品領域を示す座標データを記憶しておく。 When there are a plurality of face part pattern templates prepared in advance, the above pattern matching process is repeated using all face part pattern templates, and coordinate data indicating the obtained face part regions is stored.
図5に示す例では、顔候補領域33aからは顔部品領域は検出されず、顔候補領域33bからは顔部品領域が検出される。図6に示す矩形枠35〜38は、顔候補領域33bから検出された顔部品領域を示している。顔部品領域35,36は目の画像領域であり、顔部品領域37は鼻の画像領域であり、顔部品領域38は口の画像領域である。
In the example shown in FIG. 5, the face part area is not detected from the
ステップS7(判定ステップ)では、判定部23により、肌色判定部21bから入力される顔領域(図4に示す例では、顔領域候補33b)内に顔部品が検出されたか否かを判定し、顔部品が検出された場合には、顔部品領域(図6に示す例では、顔部品領域35〜38)の相対位置関係(両目の間隔に対する目や鼻までの距離の関係等)から、該顔領域が真の顔領域であるか否かを判定する。
In step S7 (determination step), the
次のステップS8では、判定部23により、検出した真の顔領域の座標データを顔情報として信号処理部14に通知する。なお、真の顔領域が検出されなかった場合には、顔領域が検出されなかった旨の情報を信号処理部14に通知する。
In the next step S8, the
顔検出処理部15は、1フレーム周期ごとに以上のステップS1〜8を繰り返し実行する。信号処理部14は、1フレーム周期ごとに顔検出処理部15から通知される顔情報に基づき、フォーカス処理,露光量調整,ホワイトバランス補正処理等を実行する。これにより、人物の顔にピント、色、明るさが適正化された画像を容易に撮影することができる。
The face
以上述べたように、本実施形態によれば、顔領域検出部21が第1ステップとして顔候補領域を抽出した後に行う第2ステップの肌色判定処理と並行して、顔部品検出部22による顔部品領域の検出処理を実行するように構成しているため、1フレーム画像から高速にかつ精度良く顔領域を検出することができる。
As described above, according to the present embodiment, the face by the face
なお、上記実施形態では、1フレーム周期ごと顔検出を繰り返し実行するように構成しているが、最初のフレーム期間で顔検出を行った後、以降のフレーム期間では、検出された顔領域をテンプレートとしてパターンマッチングを行うことにより、顔領域の追跡を行うように構成することも好ましい。本発明では、顔部品の検出により顔領域を特定しているため、テンプレートとして用いる顔領域の位置及びサイズを正確に決定することができ、テンプレート内に顔以外の背景等が含まれず、追跡性能が向上する。 In the above embodiment, the face detection is repeatedly executed every frame period. However, after face detection is performed in the first frame period, the detected face area is used as a template in the subsequent frame periods. It is also preferable that the face area is tracked by performing pattern matching. In the present invention, since the face area is specified by detecting the face parts, the position and size of the face area used as the template can be determined accurately, and the background other than the face is not included in the template, and the tracking performance Will improve.
また、上記実施形態では、顔候補領域を検出した後、肌色検出処理により該顔候補領域の確からしさを絞り込んでいるが、肌色検出処理に代えて他の絞り込み処理を用いてもよい。 In the above embodiment, after the face candidate area is detected, the likelihood of the face candidate area is narrowed down by the skin color detection process. However, other narrowing processes may be used instead of the skin color detection process.
また、上記実施形態では、同一の人物の顔に対して1つの顔候補領域が検出されているが、用いる顔パターンやパターンマッチング方法の種類によっては、同一の人物の顔に対して顔候補領域が重複して(位置や大きさが僅かにずれた箇所に)検出されることがある。この場合には、顔候補領域を検出した後に、重複して検出された複数の顔候補領域を1つの顔領域としてまとめる処理(重複検出判定処理)が必要であり、この重複検出判定処理(絞り込み処理時)時に並行して顔部品検出部22による顔部品領域の検出処理を行ってもよい。
In the above embodiment, one face candidate area is detected for the face of the same person. However, depending on the type of face pattern and pattern matching method used, the face candidate area for the face of the same person is used. May be detected in duplicate (where the position or size is slightly shifted). In this case, after detecting the face candidate area, it is necessary to perform a process (duplicate detection determination process) to combine a plurality of face candidate areas detected in duplicate as one face area. At the time of processing), the face part region detection processing by the face
また、上述した実施形態の撮影装置を、ドアホンシステム等に用いられる監視カメラに適用することも好適である。ドアホンシステムのように人物が近付いた時にのみ画像を保存する装置では、顔の誤抽出を低減して人物の顔の検出率を向上させることで、必要な被写体(人物顔)を的確に撮影することが可能となる。 It is also preferable to apply the imaging device of the above-described embodiment to a monitoring camera used for a door phone system or the like. A device that saves an image only when a person approaches, such as a door phone system, accurately captures the necessary subject (person's face) by reducing face mis-extraction and improving the human face detection rate. It becomes possible.
10 撮影装置
12 固体撮像素子
14 信号処理部
15 顔検出処理部
16 画像データ格納メモリ
18 前処理部
19 縮小画像データ格納メモリ
20 テンプレートデータ格納メモリ
21 顔領域検出部
21a パターンマッチング部
21b 肌色判定部
22 顔部品検出部
23 判定部
DESCRIPTION OF
Claims (4)
顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出ステップと、
前記顔候補領域検出ステップで抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理ステップと、
前記顔候補領域検出ステップで抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出ステップと、
前記顔部品領域検出ステップで検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理ステップで特定した顔領域が真の顔領域であるか否かを判定する判定ステップと、
を備えたことを特徴とする顔検出方法。 In a face detection method for detecting a face area of a person present in a captured image output from a solid-state image sensor,
A face candidate area detection step of executing a pattern matching process between the face pattern and the captured image, and extracting a face area candidate having a correlation of a predetermined value or more with the face pattern from the captured image;
A narrowing processing step for identifying a face area that is likely to be a human face from each face candidate area extracted in the face candidate area detection step;
For each face candidate area extracted in the face candidate area detection step, perform a pattern matching process with a face part pattern, and detect a face part area from the face candidate area,
A determination step of determining whether or not the face region specified in the narrowing-down processing step is a true face region based on the relative positional relationship of each face component region detected in the face component region detection step;
A face detection method comprising:
顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出手段と、
前記顔候補領域検出手段が抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理手段と、
前記顔候補領域検出手段が抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出手段と、
前記顔部品領域検出手段が検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理手段が特定した顔領域が真の顔領域であるか否かを判定する判定手段と、
を備えたことを特徴とする撮影装置。 In an imaging device that detects a human face area present in a captured image output from a solid-state imaging device,
A face candidate area detecting means for executing a pattern matching process between a face pattern and the captured image, and extracting a face area candidate having a correlation of a predetermined value or more with the face pattern from the captured image;
Narrowing processing means for identifying a face area that is likely to be a human face from each face candidate area extracted by the face candidate area detection means;
For each face candidate area extracted by the face candidate area detection means, a face part area detection means for executing a pattern matching process with a face part pattern and detecting a face part area from the face candidate area;
Determining means for determining whether the face area specified by the narrowing-down processing means is a true face area based on the relative positional relationship of each face part area detected by the face part area detecting means;
An imaging apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007298186A JP2009123081A (en) | 2007-11-16 | 2007-11-16 | Face detection method and photographing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007298186A JP2009123081A (en) | 2007-11-16 | 2007-11-16 | Face detection method and photographing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009123081A true JP2009123081A (en) | 2009-06-04 |
Family
ID=40815144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007298186A Pending JP2009123081A (en) | 2007-11-16 | 2007-11-16 | Face detection method and photographing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009123081A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011071671A (en) * | 2009-09-25 | 2011-04-07 | Nikon Corp | Image recognition device and imaging apparatus |
JP2012015973A (en) * | 2010-07-05 | 2012-01-19 | Panasonic Electric Works Co Ltd | Imaging device |
JP2013070315A (en) * | 2011-09-26 | 2013-04-18 | Casio Comput Co Ltd | Image processor, image management method and program |
US8588530B2 (en) | 2010-07-15 | 2013-11-19 | Samsung Techwin Co., Ltd. | Method and camera for detecting a region having a specific shape |
US9858501B2 (en) | 2012-02-16 | 2018-01-02 | Nec Corporation | Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program |
KR101875891B1 (en) * | 2011-12-08 | 2018-07-09 | 에스케이텔레콤 주식회사 | apparatus and method for face detection using multi detection |
JP2021071757A (en) * | 2019-10-29 | 2021-05-06 | 三菱電機インフォメーションシステムズ株式会社 | Object detection apparatus, object detection method, object detection program and learning apparatus |
WO2023015992A1 (en) * | 2021-08-09 | 2023-02-16 | 荣耀终端有限公司 | Exposure parameter adjustment method, and device and storage medium |
-
2007
- 2007-11-16 JP JP2007298186A patent/JP2009123081A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011071671A (en) * | 2009-09-25 | 2011-04-07 | Nikon Corp | Image recognition device and imaging apparatus |
JP2012015973A (en) * | 2010-07-05 | 2012-01-19 | Panasonic Electric Works Co Ltd | Imaging device |
US8588530B2 (en) | 2010-07-15 | 2013-11-19 | Samsung Techwin Co., Ltd. | Method and camera for detecting a region having a specific shape |
JP2013070315A (en) * | 2011-09-26 | 2013-04-18 | Casio Comput Co Ltd | Image processor, image management method and program |
KR101875891B1 (en) * | 2011-12-08 | 2018-07-09 | 에스케이텔레콤 주식회사 | apparatus and method for face detection using multi detection |
US9858501B2 (en) | 2012-02-16 | 2018-01-02 | Nec Corporation | Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program |
JP2021071757A (en) * | 2019-10-29 | 2021-05-06 | 三菱電機インフォメーションシステムズ株式会社 | Object detection apparatus, object detection method, object detection program and learning apparatus |
WO2021084797A1 (en) * | 2019-10-29 | 2021-05-06 | 三菱電機株式会社 | Object detection device, object detection method, object detection program, and learning device |
WO2023015992A1 (en) * | 2021-08-09 | 2023-02-16 | 荣耀终端有限公司 | Exposure parameter adjustment method, and device and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8861806B2 (en) | Real-time face tracking with reference images | |
KR101142316B1 (en) | Image selection device and method for selecting image | |
US9767539B2 (en) | Image capture device with contemporaneous image correction mechanism | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
KR101130775B1 (en) | Image capturing apparatus, method of determining presence or absence of image area, and recording medium | |
JP4078334B2 (en) | Image processing apparatus and image processing method | |
US11036966B2 (en) | Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus | |
JP2006227080A (en) | Electronic camera | |
JP2009123081A (en) | Face detection method and photographing apparatus | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP4127521B2 (en) | Digital camera and control method thereof | |
JP2008299784A (en) | Object determination device and program therefor | |
JP2007312206A (en) | Imaging apparatus and image reproducing apparatus | |
JP2011134117A (en) | Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program | |
JP2011071925A (en) | Mobile tracking apparatus and method | |
JP2005196385A (en) | Image processing apparatus, image processing method and digital camera | |
JP2007251532A (en) | Imaging device and face area extraction method | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP5539565B2 (en) | Imaging apparatus and subject tracking method | |
JP2007249526A (en) | Imaging device, and face area extraction method | |
CN108335278B (en) | Image processing method and device, storage medium and electronic equipment | |
JP5995610B2 (en) | Subject recognition device and control method therefor, imaging device, display device, and program | |
JP2005004287A (en) | Face image detecting device and its control method | |
JP2008028924A (en) | Imaging apparatus and control method thereof | |
JP6776532B2 (en) | Image processing equipment, imaging equipment, electronic devices and image processing programs |