JP2009123081A - Face detection method and photographing apparatus - Google Patents

Face detection method and photographing apparatus Download PDF

Info

Publication number
JP2009123081A
JP2009123081A JP2007298186A JP2007298186A JP2009123081A JP 2009123081 A JP2009123081 A JP 2009123081A JP 2007298186 A JP2007298186 A JP 2007298186A JP 2007298186 A JP2007298186 A JP 2007298186A JP 2009123081 A JP2009123081 A JP 2009123081A
Authority
JP
Japan
Prior art keywords
face
area
pattern
candidate
candidate area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007298186A
Other languages
Japanese (ja)
Inventor
Shunichiro Doi
俊一郎 土居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007298186A priority Critical patent/JP2009123081A/en
Publication of JP2009123081A publication Critical patent/JP2009123081A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To detect a face area highly precisely and speedily with respect to a face detection method and a photographing apparatus. <P>SOLUTION: After image data to be output by a solid-state image sensor is fetched (step S1) and reduced image data is generated (step S2), pattern matching processing between a face pattern and the reduced image data is performed to extract a face area candidate having correlation of a prescribed value or larger with the face pattern (step S3). When a face area candidate is extracted (YES determination at step S4), a face area which is most likely to be a human face is specified by skin color determination processing from respective extracted face candidate areas (step S5) and, with respect to the respective extracted face candidate areas, pattern matching processing with a face component pattern is executed to detect a face component area from the face candidate area (step S6). On the basis of a relative position relationship among the respective extracted face component areas, it is determined whether a face area specified by the skin color determination processing is a real face area (step S7). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像画像の中に存在する人物の顔領域を検出する顔検出方法及び撮影装置に関する。   The present invention relates to a face detection method and a photographing apparatus that detect a face area of a person present in a captured image.

近年、デジタルビデオカメラやデジタルスチルカメラ等の撮影装置には、人物を被写体とした場合に、人物の顔に焦点を合わせるフォーカス処理や、顔が綺麗に写るように露出調整処理やホワイトバランス補正処理を自動的に行う機能を搭載するものがあり、人物の顔にピント、色、明るさが適正化された画像を容易に撮影することができるようになっている。   In recent years, digital video cameras, digital still cameras, and other photographic devices have focus processing that focuses on a person's face when a person is the subject, and exposure adjustment processing and white balance correction processing that makes the face appear beautiful. Some of them are equipped with a function for automatically performing an image, and it is possible to easily shoot an image with appropriate focus, color and brightness on the face of a person.

例えば、デジタルスチルカメラでは、静止画像を撮影する前に固体撮像素子から順次に取り込まれる撮像画像データを解析することで画像中の顔領域を抽出し、抽出した顔領域に焦点を合わせ、その顔領域を対象として露出調整やホワイトバランス補正を自動的に行う。   For example, in a digital still camera, a face area in an image is extracted by analyzing captured image data sequentially taken from a solid-state image sensor before a still image is captured, and the extracted face area is focused and the face is Automatic exposure adjustment and white balance correction for areas.

撮像画像中からの顔領域の検出は、精度良く行う必要がある。顔領域を誤検出すると、本来は顔でない部分を顔としてフォーカス処理をしてしまうため、人物の顔に焦点のあっていない画像(いわゆるピンぼけ画像)が撮像されてしまい、露光不良、ホワイトバランス不良が発生して、人物の顔が不自然な色になってしまうためである。   It is necessary to detect the face area from the captured image with high accuracy. If a face area is mistakenly detected, focus processing is performed on the face that is not the face, so an image that is not focused on the human face (so-called out-of-focus image) is captured, resulting in poor exposure or white balance. This is because a person's face becomes an unnatural color.

このため、顔領域の検出は、一般的に、画像中から顔領域の候補(顔候補領域)を抽出する第1ステップと、抽出した顔候補領域が人物の顔として確からしいか否かを判定する第2ステップとに分けられる。例えば、第1ステップはパターンマッチング法により行われ、第2ステップは肌色検出法により行われる。   For this reason, the detection of a face area generally involves a first step of extracting a face area candidate (face candidate area) from an image and determining whether or not the extracted face candidate area is likely to be a human face. And the second step. For example, the first step is performed by the pattern matching method, and the second step is performed by the skin color detection method.

パターンマッチング法とは、人間の顔を正面から見たパターンや横から見たパターン、大人の顔パターンや幼児の顔パターンなど各種の顔パターンを撮影装置内のメモリにテンプレートとして保持しておき、これらのテンプレートと撮像画像内の各部分領域との相関を取り、相関が高い部分領域を顔候補領域として抽出する方法である。   Pattern matching method means that various face patterns such as human face pattern, side view pattern, adult face pattern, infant face pattern, etc. are stored as templates in the memory of the imaging device, In this method, the correlation between these templates and each partial area in the captured image is obtained, and a partial area having a high correlation is extracted as a face candidate area.

肌色検出法とは、1画面の撮像画像を、例えば8×8=64の領域に分割し、分割領域ごとのR(赤),G(緑),B(青)の積算データにより各分割領域の色相を求め、色相が肌色となる分割領域内に顔が存在すると判定する方法である。   The skin color detection method divides a captured image of one screen into, for example, 8 × 8 = 64 areas, and each divided area based on accumulated data of R (red), G (green), and B (blue) for each divided area. Is obtained, and it is determined that a face is present in a divided area where the hue is a skin color.

以上の顔検出技術に関連して、抽出した顔候補領域中からさらに人物の顔に付属する目、鼻、口などの顔部品の検出を行う方法が知られている(例えば、特許文献1参照)。このように、顔候補領域から顔部品を検出することにより、顔以外の領域を顔領域として誤検出することをより確実に防止することができ、検出精度の向上が期待される。また、顔部品を検出することで、顔領域の大きさをより正確に判定することが可能となる。
特開2006−228061号公報
In relation to the face detection technique described above, a method for detecting facial parts such as eyes, nose and mouth attached to a person's face from the extracted face candidate regions is known (for example, see Patent Document 1). ). Thus, by detecting a face part from the face candidate area, it is possible to more reliably prevent erroneous detection of an area other than the face as a face area, and an improvement in detection accuracy is expected. Further, the size of the face area can be determined more accurately by detecting the face part.
JP 2006-228061 A

しかしながら、顔検出の検出精度を向上させるために、上記の処理に加えて、顔部品の検出処理を行うとなると、演算処理が長くなるため、動画像の1フレーム期間(例えば1/30秒)内に顔検出処理が終了するか否かといった時間的な問題が生じる。次のフレームまでに顔検出処理が終了し顔領域が特定されなければ、当然、顔領域を対象とした処理(フォーカス処理、露出調整処理、ホワイトバランス補正処理等)を実行することができない。1フレーム期間内に顔検出処理が終了しないのであれば、2フレーム以上の期間を掛けて顔検出処理を行わざるを得ず、顔領域の追跡性能は低下してしまう。   However, in order to improve the detection accuracy of face detection, if face component detection processing is performed in addition to the above processing, the calculation processing becomes longer, and therefore one frame period (for example, 1/30 second) of a moving image There arises a time problem such as whether or not the face detection process ends. If the face detection process is completed by the next frame and the face area is not specified, naturally, the process (focus process, exposure adjustment process, white balance correction process, etc.) for the face area cannot be executed. If the face detection process does not end within one frame period, the face detection process must be performed over a period of two frames or more, and the tracking performance of the face area is degraded.

本発明は、上記課題を鑑みてなされたものであり、1フレーム画像から高速にかつ精度良く顔領域を検出することができる顔検出方法及び撮影装置を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a face detection method and a photographing apparatus that can detect a face area from one frame image at high speed and with high accuracy.

上記目的を達成するために、本発明の顔検出方法は、固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する顔検出方法において、顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出ステップと、前記顔候補領域検出ステップで抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理ステップと、前記顔候補領域検出ステップで抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出ステップと、前記顔部品領域検出ステップで検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理ステップで特定した顔領域が真の顔領域であるか否かを判定する判定ステップと、を備えたことを特徴とする。   In order to achieve the above object, a face detection method according to the present invention is a face detection method for detecting a human face area present in a captured image output from a solid-state image sensor. From the face candidate area detection step that executes a pattern matching process and extracts a face area candidate having a correlation greater than a predetermined value with the face pattern from the captured image, and from each face candidate area extracted in the face candidate area detection step A narrowing process step for identifying a face area that is likely to be a human face, and a pattern matching process with a face part pattern are performed on each face candidate area extracted in the face candidate area detection step, and a face is identified from the face candidate area. Based on the relative positional relationship between each face part area detected in the face part area detecting step and the face part area detecting step for detecting the part area, the aperture Identified face region viewed processing step is characterized in that and a determination step of determining whether a true face region.

前記絞り込み処理ステップは、前記顔候補領域検出ステップで抽出した顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することが好ましい。   The narrowing-down processing step preferably examines the hue of the face candidate area extracted in the face candidate area detection step and specifies a probable face area as a human face depending on whether or not the hue is a skin color.

また、本発明の撮影装置は、固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する撮影装置において、顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出手段と、前記顔候補領域検出手段が抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理手段と、前記顔候補領域検出手段が抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出手段と、前記顔部品領域検出手段が検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理手段が特定した顔領域が真の顔領域であるか否かを判定する判定手段と、を備えたことを特徴とする。   Further, an imaging device of the present invention performs a pattern matching process between a face pattern and the captured image in an imaging device that detects a human face area present in a captured image output from a solid-state image sensor, Face candidate area detecting means for extracting face area candidates having a correlation greater than a predetermined value with the face pattern from the captured image, and face areas that are likely to be human faces from each face candidate area extracted by the face candidate area detecting means And a face part area for detecting a face part area from the face candidate area by executing a pattern matching process with the face part pattern for each face candidate area extracted by the face candidate area detecting means. Whether the face area specified by the narrowing-down processing means is a true face area based on the relative positional relationship between the detection means and each face part area detected by the face part area detection means Determining means for determining, characterized by comprising a.

前記絞り込み処理手段は、前記顔候補領域検出手段が抽出した各顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することが好ましい。   It is preferable that the narrowing-down processing unit examines the hue of each face candidate region extracted by the face candidate region detection unit and specifies a probable facial region as a human face depending on whether the hue is a skin color.

本発明によれば、絞り込み処理と並行して顔部品領域検出処理を実行するので、高速にかつ精度良く顔領域を検出することができる。   According to the present invention, since the face part area detection process is executed in parallel with the narrowing-down process, the face area can be detected at high speed and with high accuracy.

図1において、本発明の一実施形態に係る撮影装置10は、被写界からの入射光を取り込み結像する撮影レンズ11と、この入射光の結像面に受光面が配置されたCCDイメージセンサやCMOSイメージセンサ等の固体撮像素子12と、固体撮像素子12から出力される撮像画像データを相関二重サンプリング処理や利得調整処理、アナログ/デジタル変換処理するアナログフロントエンドプロセッサ(AFE)13とを備える。   In FIG. 1, a photographing apparatus 10 according to an embodiment of the present invention includes a photographing lens 11 that takes in incident light from an object field and forms an image, and a CCD image in which a light receiving surface is disposed on the image forming surface of the incident light. A solid-state imaging device 12 such as a sensor or a CMOS image sensor, and an analog front-end processor (AFE) 13 that performs correlated double sampling processing, gain adjustment processing, and analog / digital conversion processing on captured image data output from the solid-state imaging device 12 Is provided.

さらに、撮影装置10は、AFE13から出力される撮像画像データを並列に取り込む信号処理部14及び顔検出処理部15と、信号処理部14に接続された画像データ格納メモリ16とを備え、顔検出処理部15が検出した顔情報が信号処理部14に出力されるように構成されている。   Further, the photographing apparatus 10 includes a signal processing unit 14 and a face detection processing unit 15 that capture captured image data output from the AFE 13 in parallel, and an image data storage memory 16 connected to the signal processing unit 14, and includes face detection. The face information detected by the processing unit 15 is output to the signal processing unit 14.

信号処理部14は、撮像画像データに対してオフセット処理やガンマ補正処理、RGB/YC変換処理等を施し、さらにJPEG画像に圧縮するなどした画像データを記録メディア(図示せず)に出力して保存したり、スルー画像として撮影装置背面などに搭載される表示部(図示せず)に表示させたりする。   The signal processing unit 14 performs offset processing, gamma correction processing, RGB / YC conversion processing, and the like on the captured image data, and further outputs the image data compressed to a JPEG image to a recording medium (not shown). It is stored or displayed as a through image on a display unit (not shown) mounted on the rear surface of the photographing apparatus.

また、信号処理部14は、各部を制御する主制御回路(CPU)17を備え、顔検出処理部15から送られてくる顔情報(顔領域の座標データ)に基づいて露光調整、ホワイトバランス補正等を行い、撮影レンズ11に対しフォーカス位置の制御指示を行う。   The signal processing unit 14 includes a main control circuit (CPU) 17 that controls each unit, and performs exposure adjustment and white balance correction based on face information (face area coordinate data) sent from the face detection processing unit 15. Etc. to instruct the taking lens 11 to control the focus position.

顔検出処理部15は、AFE13から取り込んだ撮像画像データを間引き処理するなどして縮小画像データを生成する前処理部18と、この縮小画像データを格納する縮小画像データ格納メモリ19と、予め用意された各種の顔パターン及び顔部品パターンのテンプレートデータを格納するテンプレートデータ格納メモリ20と、縮小画像データから人物の顔らしい顔領域を検出する顔領域検出部21と、この顔領域から顔部品を検出する顔部品検出部22と、顔領域及び顔部品の検出結果から真の顔領域を判定する判定部23とを備え、検出した真の顔領域の座標データを顔情報として信号処理部14に通知する。   The face detection processing unit 15 includes a pre-processing unit 18 that generates reduced image data by thinning out the captured image data captured from the AFE 13, a reduced image data storage memory 19 that stores the reduced image data, and a prepared in advance. A template data storage memory 20 for storing template data of various face patterns and face part patterns, a face area detection unit 21 for detecting a face area that looks like a human face from the reduced image data, and a face part from the face area. A face part detection unit 22 to detect, and a determination unit 23 that determines a true face area from the detection results of the face area and the face part, and the detected true face area coordinate data as face information to the signal processing unit 14 Notice.

顔領域検出部21は、図2に示すように、縮小画像データと顔パターンのテンプレートデータとを用いてパターンマッチング処理を行うパターンマッチング部21aと、パターンマッチング部21aにより検出された顔候補領域の色相が肌色であるか否かの判定を行う肌色判定部21bとから構成されている。   As shown in FIG. 2, the face area detection unit 21 includes a pattern matching unit 21a that performs pattern matching processing using reduced image data and face pattern template data, and a face candidate area detected by the pattern matching unit 21a. It is comprised from the skin color determination part 21b which determines whether a hue is a skin color.

パターンマッチング部21aは、縮小画像データ格納メモリ19に格納された縮小画像データを輝度値で表された画像データ(グレイ画像データ)とし、テンプレートデータとの相関値が所定の閾値より大きい領域を顔候補領域として抽出する。具体的には、テンプレート(顔パターン)を各画像データ内で1画素ずつずらしながら、その各位置でテンプレートとそれに重なる部分画像との相関値rを下記の式(1)に基づいて計算する。   The pattern matching unit 21a uses the reduced image data stored in the reduced image data storage memory 19 as image data (gray image data) represented by a luminance value, and detects an area where the correlation value with the template data is greater than a predetermined threshold value. Extract as a candidate area. Specifically, the template (face pattern) is shifted by one pixel in each image data, and the correlation value r between the template and the partial image overlapping it at each position is calculated based on the following equation (1).

Figure 2009123081
Figure 2009123081

式(1)では、テンプレートの画素値をgで表し、テンプレートと重なる部分画像の画素値をfで表し、それらの領域内での各画素値の総和を(Σg),(Σf)、各画素値の2乗和を(Σg),(Σf)、テンプレートTとそれに対応する部分画像との対応する画素の画素値の積の総和を(Σfg)、テンプレートの画素数をnとしている。相関値rは、0≦r≦1の範囲の値を取り、テンプレートとの合致度が高い領域ほど1に近い値を示す。 In the expression (1), the pixel value of the template is represented by g, the pixel value of the partial image overlapping the template is represented by f, and the sum of the pixel values in those regions is represented by (Σg), (Σf), each pixel The sum of squares of the values is (Σg 2 ), (Σf 2 ), the sum of the products of the pixel values of the corresponding pixels of the template T and the corresponding partial image is (Σfg), and the number of pixels of the template is n. The correlation value r takes a value in a range of 0 ≦ r ≦ 1, and shows a value closer to 1 in a region having a higher degree of matching with the template.

肌色判定部21bは、縮小画像データ格納メモリ19に格納された縮小画像データを1画面の撮像画像データを、例えば、8×8=64の分割領域に分割し、分割領域ごとにR,G,Bの色信号の積算値をそれぞれ算出することで各分割領域の色相を求め、パターンマッチング部21aで抽出された顔候補領域の色相が肌色であるか否かを判定することにより顔候補領域を取捨選択して、人物の顔として確からしい顔候補領域を顔領域として特定し、この結果を判定部23に入力する。   The skin color determination unit 21b divides the reduced image data stored in the reduced image data storage memory 19 into one-screen captured image data into, for example, 8 × 8 = 64 divided regions, and R, G, and R for each divided region. By calculating the integrated value of each of the B color signals, the hue of each divided area is obtained, and the face candidate area is determined by determining whether the hue of the face candidate area extracted by the pattern matching unit 21a is a skin color. The face candidate area that is likely to be a human face is specified as the face area, and the result is input to the determination unit 23.

顔部品検出部22は、テンプレートデータ格納メモリ20に格納された、目、鼻、口などの顔部品パターンのテンプレートデータを用い、顔領域検出部21のパターンマッチング部21aの処理が終了した時点で得られる各顔候補領域を対象としてパターンマッチングを行い、各顔候補領域から顔部品領域を検出し、この結果を判定部23に入力する。つまり、この顔部品検出部22による顔部品領域の検出処理は、上記の肌色判定部21bによる判定処理と並行して行われる。なお、顔部品検出部22によるパターンマッチングは、上記の式(1)に基づいて、上記と同様な方法で行われる。   The facial part detection unit 22 uses the template data of facial part patterns such as eyes, nose and mouth stored in the template data storage memory 20, and when the processing of the pattern matching unit 21a of the facial region detection unit 21 is completed. Pattern matching is performed on each obtained face candidate area, a face part area is detected from each face candidate area, and the result is input to the determination unit 23. That is, the face part region detection process by the face part detection unit 22 is performed in parallel with the determination process by the skin color determination unit 21b. Note that the pattern matching by the face part detection unit 22 is performed by the same method as described above based on the above formula (1).

判定部23は、顔部品検出部22から入力される顔部品領域の検出情報から、肌色判定部21bから入力される顔領域内に顔部品領域が検出されたか否かを判定し、顔部品領域が検出された場合には、顔部品領域の相対位置関係(両目の位置に対する鼻や口の相対位置関係など)から、該顔領域が真の顔領域であるか否かを判定する。   The determination unit 23 determines whether or not a face component region is detected in the face region input from the skin color determination unit 21b from the detection information of the face component region input from the face component detection unit 22, and the face component region Is detected, it is determined whether or not the face area is a true face area based on the relative positional relationship between the face part areas (such as the relative position of the nose and mouth with respect to the positions of both eyes).

次に、図3に示すフローチャートに沿って、顔検出処理部15が行う顔検出処理の処理手順を説明する。固体撮像素子12からは、第1フレーム画像、第2フレーム画像、第3フレーム画像、・・・と、順次に撮像画像データが出力されている。   Next, the procedure of the face detection process performed by the face detection processing unit 15 will be described with reference to the flowchart shown in FIG. From the solid-state imaging device 12, captured image data is sequentially output in the order of a first frame image, a second frame image, a third frame image,.

顔検出処理部15は、まずステップS1で、第1フレームの撮像画像データをAFE13から取り込み、ステップS2で、前処理部18が縮小画像データを生成する。この縮小画像データの縮小率は、数百万画素からなる撮像画像データを、比較的小さな容量の縮小画像データ格納メモリ19に格納できる値とする。   In step S1, the face detection processing unit 15 first captures the captured image data of the first frame from the AFE 13, and in step S2, the preprocessing unit 18 generates reduced image data. The reduction ratio of the reduced image data is set to a value that allows the captured image data composed of several million pixels to be stored in the reduced image data storage memory 19 having a relatively small capacity.

次のステップS3(顔候補領域検出ステップ)では、顔領域検出部21のパターンマッチング部21aが顔パターンのテンプレートをテンプレートデータ格納メモリ20から取り出してパターンマッチング処理を行う。このパターンマッチング処理では、図4に示すように、縮小画像データ30上で顔パターンのテンプレート31を走査しながら、上記の式(1)で算出されるテンプレート31と縮小画像データ30中の部分画像との相関値rが所定の閾値以上であるか否かを順次に求め、その閾値以上の相関値rを有する部分画像を顔候補領域とし、この顔候補領域の縮小画像データ30上での座標を求める。   In the next step S3 (face candidate region detection step), the pattern matching unit 21a of the face region detection unit 21 extracts a face pattern template from the template data storage memory 20 and performs pattern matching processing. In this pattern matching processing, as shown in FIG. 4, the template 31 calculated by the above equation (1) and the partial image in the reduced image data 30 are scanned while the face pattern template 31 is scanned on the reduced image data 30. It is sequentially determined whether or not the correlation value r is greater than or equal to a predetermined threshold value, a partial image having a correlation value r greater than or equal to the threshold value is defined as a face candidate area, and the coordinates of the face candidate area on the reduced image data 30 Ask for.

縮小画像データ30上でのテンプレート31の走査が終了すると、次に、テンプレート31を所定倍率だけ拡大(または縮小)したテンプレート32を生成し、この拡大したテンプレート32を縮小画像データ30上で走査して再びパターンマッチング処理を行う。   When the scanning of the template 31 on the reduced image data 30 is completed, a template 32 obtained by enlarging (or reducing) the template 31 by a predetermined magnification is generated, and the enlarged template 32 is scanned on the reduced image data 30. The pattern matching process is performed again.

予め用意された顔パターンのテンプレートが複数ある場合には、全ての顔パターンのテンプレートを用いて前述のパターンマッチング処理を繰り返し、得られた顔候補領域を示す座標データを記憶しておく。   When there are a plurality of face pattern templates prepared in advance, the pattern matching process described above is repeated using all face pattern templates, and coordinate data indicating the obtained face candidate areas is stored.

図4に示す例では、矩形枠33a,33bで囲まれる領域に顔候補領域が抽出されている。顔候補領域33bは、真の人物の顔画像領域であるが、顔候補領域33aは、樹木のパターンを顔画像として誤抽出したものである。   In the example shown in FIG. 4, the face candidate area is extracted in the area surrounded by the rectangular frames 33a and 33b. The face candidate area 33b is a face image area of a true person, but the face candidate area 33a is an erroneously extracted tree pattern as a face image.

次のステップS4では、ステップS3で顔候補領域が検出されたか否かを判定し、顔候補領域が検出されなかった場合には、後述のステップS8へ進み、顔候補領域が検出されなかった旨の情報を信号処理部14に通知する。   In the next step S4, it is determined whether or not a face candidate area has been detected in step S3. If no face candidate area has been detected, the process proceeds to step S8 to be described later, indicating that no face candidate area has been detected. Is notified to the signal processing unit 14.

図4に示す例では、顔候補領域33a,33bが存在するため、ステップS4では、顔候補領域が検出されたと判定される。この場合には、ステップS5及びステップS6へ進む。ステップS5及びステップS6は、検出された顔候補領域33a,33bの情報(座標データ)に基づき、並行して行われる。   In the example shown in FIG. 4, since the face candidate areas 33a and 33b exist, it is determined in step S4 that the face candidate area has been detected. In this case, the process proceeds to step S5 and step S6. Steps S5 and S6 are performed in parallel based on the information (coordinate data) of the detected face candidate regions 33a and 33b.

ステップS5(絞り込み処理ステップ)では、肌色判定部21bが肌色検出処理を行う。肌色判定部21bは、縮小画像データ30の各分割領域(例えば、8×8=64の分割領域)から色相データを算出し、顔領域候補33a,33bの色相を調べ、色相が肌色である顔候補領域を顔領域として特定する。図4に示す例では、顔領域候補33aは、樹木の画像であり緑色をしているため、顔領域として特定されず、顔領域候補33bは、人物の顔画像であり肌色をしているため、顔領域として特定される。   In step S5 (squeezing process step), the skin color determination unit 21b performs a skin color detection process. The skin color determination unit 21b calculates hue data from each divided area of the reduced image data 30 (for example, 8 × 8 = 64 divided areas), examines the hue of the face area candidates 33a and 33b, and the face whose hue is skin color The candidate area is specified as the face area. In the example shown in FIG. 4, the face area candidate 33a is an image of a tree and is green, so it is not specified as a face area, and the face area candidate 33b is a face image of a person and has a skin color. , Identified as a face region.

ステップS6(顔部品領域検出ステップ)では、顔部品検出部22が顔部品パターンのテンプレートをテンプレートデータ格納メモリ20から取り出してパターンマッチング処理を行う。このパターンマッチング処理では、図5に示すように、顔候補領域33a,33b上で顔部品パターンのテンプレート34を走査しながら、上記の式(1)で算出されるテンプレート34と顔候補領域33a,33b中の部分画像との相関値rが所定の閾値以上であるか否かを順次に求め、その閾値以上の相関値rを有する部分画像を顔部品領域とし、この顔部品領域の顔候補領域上での座標を求める。   In step S6 (facial part region detection step), the facial part detection unit 22 extracts a facial part pattern template from the template data storage memory 20 and performs pattern matching processing. In this pattern matching process, as shown in FIG. 5, while scanning the face part pattern template 34 on the face candidate areas 33a and 33b, the template 34 calculated by the above equation (1) and the face candidate areas 33a, 33b, It is sequentially determined whether or not the correlation value r with the partial image in 33b is equal to or greater than a predetermined threshold value, and a partial image having the correlation value r equal to or greater than the threshold value is set as a facial part region, Find the coordinates above.

顔候補領域33a,33b上でのテンプレート34の走査が終了すると、次に、テンプレート31を所定倍率だけ拡大(または縮小)したテンプレート(図示せず)を生成し、この拡大したテンプレートを顔候補領域33a,33b上で走査して再びパターンマッチング処理を行う。   When the scanning of the template 34 on the face candidate areas 33a and 33b is completed, a template (not shown) obtained by enlarging (or reducing) the template 31 by a predetermined magnification is generated, and the enlarged template is used as the face candidate area. The pattern matching process is performed again by scanning on 33a and 33b.

予め用意された顔部品パターンのテンプレートが複数ある場合には、全ての顔部品パターンのテンプレートを用いて上述のパターンマッチング処理を繰り返し、得られた顔部品領域を示す座標データを記憶しておく。   When there are a plurality of face part pattern templates prepared in advance, the above pattern matching process is repeated using all face part pattern templates, and coordinate data indicating the obtained face part regions is stored.

図5に示す例では、顔候補領域33aからは顔部品領域は検出されず、顔候補領域33bからは顔部品領域が検出される。図6に示す矩形枠35〜38は、顔候補領域33bから検出された顔部品領域を示している。顔部品領域35,36は目の画像領域であり、顔部品領域37は鼻の画像領域であり、顔部品領域38は口の画像領域である。   In the example shown in FIG. 5, the face part area is not detected from the face candidate area 33a, and the face part area is detected from the face candidate area 33b. Rectangular frames 35 to 38 illustrated in FIG. 6 indicate face component areas detected from the face candidate area 33b. The face part areas 35 and 36 are eye image areas, the face part area 37 is a nose image area, and the face part area 38 is a mouth image area.

ステップS7(判定ステップ)では、判定部23により、肌色判定部21bから入力される顔領域(図4に示す例では、顔領域候補33b)内に顔部品が検出されたか否かを判定し、顔部品が検出された場合には、顔部品領域(図6に示す例では、顔部品領域35〜38)の相対位置関係(両目の間隔に対する目や鼻までの距離の関係等)から、該顔領域が真の顔領域であるか否かを判定する。   In step S7 (determination step), the determination unit 23 determines whether or not a facial part is detected in the face region (in the example shown in FIG. 4, the face region candidate 33b) input from the skin color determination unit 21b. When a face part is detected, the relative position relationship of the face part region (in the example shown in FIG. 6, the face part regions 35 to 38) (relative to the distance between the eyes and the distance to the nose, etc.) It is determined whether or not the face area is a true face area.

次のステップS8では、判定部23により、検出した真の顔領域の座標データを顔情報として信号処理部14に通知する。なお、真の顔領域が検出されなかった場合には、顔領域が検出されなかった旨の情報を信号処理部14に通知する。   In the next step S8, the determination unit 23 notifies the detected coordinate data of the true face area to the signal processing unit 14 as face information. If no true face area is detected, the signal processing unit 14 is notified of information indicating that no face area has been detected.

顔検出処理部15は、1フレーム周期ごとに以上のステップS1〜8を繰り返し実行する。信号処理部14は、1フレーム周期ごとに顔検出処理部15から通知される顔情報に基づき、フォーカス処理,露光量調整,ホワイトバランス補正処理等を実行する。これにより、人物の顔にピント、色、明るさが適正化された画像を容易に撮影することができる。   The face detection processing unit 15 repeatedly executes the above steps S1 to 8 for each frame period. The signal processing unit 14 performs focus processing, exposure amount adjustment, white balance correction processing, and the like based on the face information notified from the face detection processing unit 15 every frame period. As a result, an image in which the focus, color, and brightness are optimized on the face of a person can be easily taken.

以上述べたように、本実施形態によれば、顔領域検出部21が第1ステップとして顔候補領域を抽出した後に行う第2ステップの肌色判定処理と並行して、顔部品検出部22による顔部品領域の検出処理を実行するように構成しているため、1フレーム画像から高速にかつ精度良く顔領域を検出することができる。   As described above, according to the present embodiment, the face by the face component detection unit 22 is performed in parallel with the skin color determination process of the second step performed after the face region detection unit 21 extracts the face candidate region as the first step. Since the component area detection process is executed, the face area can be detected from one frame image at high speed and with high accuracy.

なお、上記実施形態では、1フレーム周期ごと顔検出を繰り返し実行するように構成しているが、最初のフレーム期間で顔検出を行った後、以降のフレーム期間では、検出された顔領域をテンプレートとしてパターンマッチングを行うことにより、顔領域の追跡を行うように構成することも好ましい。本発明では、顔部品の検出により顔領域を特定しているため、テンプレートとして用いる顔領域の位置及びサイズを正確に決定することができ、テンプレート内に顔以外の背景等が含まれず、追跡性能が向上する。   In the above embodiment, the face detection is repeatedly executed every frame period. However, after face detection is performed in the first frame period, the detected face area is used as a template in the subsequent frame periods. It is also preferable that the face area is tracked by performing pattern matching. In the present invention, since the face area is specified by detecting the face parts, the position and size of the face area used as the template can be determined accurately, and the background other than the face is not included in the template, and the tracking performance Will improve.

また、上記実施形態では、顔候補領域を検出した後、肌色検出処理により該顔候補領域の確からしさを絞り込んでいるが、肌色検出処理に代えて他の絞り込み処理を用いてもよい。   In the above embodiment, after the face candidate area is detected, the likelihood of the face candidate area is narrowed down by the skin color detection process. However, other narrowing processes may be used instead of the skin color detection process.

また、上記実施形態では、同一の人物の顔に対して1つの顔候補領域が検出されているが、用いる顔パターンやパターンマッチング方法の種類によっては、同一の人物の顔に対して顔候補領域が重複して(位置や大きさが僅かにずれた箇所に)検出されることがある。この場合には、顔候補領域を検出した後に、重複して検出された複数の顔候補領域を1つの顔領域としてまとめる処理(重複検出判定処理)が必要であり、この重複検出判定処理(絞り込み処理時)時に並行して顔部品検出部22による顔部品領域の検出処理を行ってもよい。   In the above embodiment, one face candidate area is detected for the face of the same person. However, depending on the type of face pattern and pattern matching method used, the face candidate area for the face of the same person is used. May be detected in duplicate (where the position or size is slightly shifted). In this case, after detecting the face candidate area, it is necessary to perform a process (duplicate detection determination process) to combine a plurality of face candidate areas detected in duplicate as one face area. At the time of processing), the face part region detection processing by the face part detection unit 22 may be performed in parallel.

また、上述した実施形態の撮影装置を、ドアホンシステム等に用いられる監視カメラに適用することも好適である。ドアホンシステムのように人物が近付いた時にのみ画像を保存する装置では、顔の誤抽出を低減して人物の顔の検出率を向上させることで、必要な被写体(人物顔)を的確に撮影することが可能となる。   It is also preferable to apply the imaging device of the above-described embodiment to a monitoring camera used for a door phone system or the like. A device that saves an image only when a person approaches, such as a door phone system, accurately captures the necessary subject (person's face) by reducing face mis-extraction and improving the human face detection rate. It becomes possible.

本発明の一実施形態に係る撮影装置の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the imaging device which concerns on one Embodiment of this invention. 顔領域検出部の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of a face area | region detection part. 顔検出処理部が行う処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which a face detection process part performs. 顔パターンをテンプレートとしたパターンマッチング処理の説明図である。It is explanatory drawing of the pattern matching process which used the face pattern as the template. 顔部品パターンをテンプレートとしたパターンマッチング処理の説明図である。It is explanatory drawing of the pattern matching process which used the face component pattern as the template. 顔候補領域から検出された顔部品領域を例示した図である。It is the figure which illustrated the face part area | region detected from the face candidate area | region.

符号の説明Explanation of symbols

10 撮影装置
12 固体撮像素子
14 信号処理部
15 顔検出処理部
16 画像データ格納メモリ
18 前処理部
19 縮小画像データ格納メモリ
20 テンプレートデータ格納メモリ
21 顔領域検出部
21a パターンマッチング部
21b 肌色判定部
22 顔部品検出部
23 判定部
DESCRIPTION OF SYMBOLS 10 Image pick-up device 12 Solid-state image sensor 14 Signal processing part 15 Face detection process part 16 Image data storage memory 18 Pre-processing part 19 Reduced image data storage memory 20 Template data storage memory 21 Face area detection part 21a Pattern matching part 21b Skin color determination part 22 Face part detection unit 23 determination unit

Claims (4)

固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する顔検出方法において、
顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出ステップと、
前記顔候補領域検出ステップで抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理ステップと、
前記顔候補領域検出ステップで抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出ステップと、
前記顔部品領域検出ステップで検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理ステップで特定した顔領域が真の顔領域であるか否かを判定する判定ステップと、
を備えたことを特徴とする顔検出方法。
In a face detection method for detecting a face area of a person present in a captured image output from a solid-state image sensor,
A face candidate area detection step of executing a pattern matching process between the face pattern and the captured image, and extracting a face area candidate having a correlation of a predetermined value or more with the face pattern from the captured image;
A narrowing processing step for identifying a face area that is likely to be a human face from each face candidate area extracted in the face candidate area detection step;
For each face candidate area extracted in the face candidate area detection step, perform a pattern matching process with a face part pattern, and detect a face part area from the face candidate area,
A determination step of determining whether or not the face region specified in the narrowing-down processing step is a true face region based on the relative positional relationship of each face component region detected in the face component region detection step;
A face detection method comprising:
前記絞り込み処理ステップは、前記顔候補領域検出ステップで抽出した顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することを特徴とする請求項1に記載の顔検出方法。   In the narrowing-down process step, the hue of the face candidate area extracted in the face candidate area detection step is examined, and a probable face area as a person's face is specified based on whether or not the hue is a skin color. The face detection method according to claim 1. 固体撮像素子から出力される撮像画像の中に存在する人物の顔領域を検出する撮影装置において、
顔パターンと前記撮像画像とのパターンマッチング処理を実行し、該撮像画像中から該顔パターンと所定値以上の相関を有する顔領域候補を抽出する顔候補領域検出手段と、
前記顔候補領域検出手段が抽出した各顔候補領域から人物の顔として確からしい顔領域を特定する絞り込み処理手段と、
前記顔候補領域検出手段が抽出した各顔候補領域について、顔部品パターンとのパターンマッチング処理を実行し、該顔候補領域中から顔部品領域を検出する顔部品領域検出手段と、
前記顔部品領域検出手段が検出した各顔部品領域の相対位置関係に基づき、前記絞り込み処理手段が特定した顔領域が真の顔領域であるか否かを判定する判定手段と、
を備えたことを特徴とする撮影装置。
In an imaging device that detects a human face area present in a captured image output from a solid-state imaging device,
A face candidate area detecting means for executing a pattern matching process between a face pattern and the captured image, and extracting a face area candidate having a correlation of a predetermined value or more with the face pattern from the captured image;
Narrowing processing means for identifying a face area that is likely to be a human face from each face candidate area extracted by the face candidate area detection means;
For each face candidate area extracted by the face candidate area detection means, a face part area detection means for executing a pattern matching process with a face part pattern and detecting a face part area from the face candidate area;
Determining means for determining whether the face area specified by the narrowing-down processing means is a true face area based on the relative positional relationship of each face part area detected by the face part area detecting means;
An imaging apparatus comprising:
前記絞り込み処理手段は、前記顔候補領域検出手段が抽出した各顔候補領域の色相を調べ、色相が肌色であるか否かにより、人物の顔としての確からしい顔領域を特定することを特徴とする請求項3に記載の撮影装置。   The narrowing-down processing means examines the hue of each face candidate area extracted by the face candidate area detection means, and identifies a probable face area as a human face depending on whether or not the hue is a skin color. The imaging device according to claim 3.
JP2007298186A 2007-11-16 2007-11-16 Face detection method and photographing apparatus Pending JP2009123081A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007298186A JP2009123081A (en) 2007-11-16 2007-11-16 Face detection method and photographing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007298186A JP2009123081A (en) 2007-11-16 2007-11-16 Face detection method and photographing apparatus

Publications (1)

Publication Number Publication Date
JP2009123081A true JP2009123081A (en) 2009-06-04

Family

ID=40815144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007298186A Pending JP2009123081A (en) 2007-11-16 2007-11-16 Face detection method and photographing apparatus

Country Status (1)

Country Link
JP (1) JP2009123081A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071671A (en) * 2009-09-25 2011-04-07 Nikon Corp Image recognition device and imaging apparatus
JP2012015973A (en) * 2010-07-05 2012-01-19 Panasonic Electric Works Co Ltd Imaging device
JP2013070315A (en) * 2011-09-26 2013-04-18 Casio Comput Co Ltd Image processor, image management method and program
US8588530B2 (en) 2010-07-15 2013-11-19 Samsung Techwin Co., Ltd. Method and camera for detecting a region having a specific shape
US9858501B2 (en) 2012-02-16 2018-01-02 Nec Corporation Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
KR101875891B1 (en) * 2011-12-08 2018-07-09 에스케이텔레콤 주식회사 apparatus and method for face detection using multi detection
JP2021071757A (en) * 2019-10-29 2021-05-06 三菱電機インフォメーションシステムズ株式会社 Object detection apparatus, object detection method, object detection program and learning apparatus
WO2023015992A1 (en) * 2021-08-09 2023-02-16 荣耀终端有限公司 Exposure parameter adjustment method, and device and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011071671A (en) * 2009-09-25 2011-04-07 Nikon Corp Image recognition device and imaging apparatus
JP2012015973A (en) * 2010-07-05 2012-01-19 Panasonic Electric Works Co Ltd Imaging device
US8588530B2 (en) 2010-07-15 2013-11-19 Samsung Techwin Co., Ltd. Method and camera for detecting a region having a specific shape
JP2013070315A (en) * 2011-09-26 2013-04-18 Casio Comput Co Ltd Image processor, image management method and program
KR101875891B1 (en) * 2011-12-08 2018-07-09 에스케이텔레콤 주식회사 apparatus and method for face detection using multi detection
US9858501B2 (en) 2012-02-16 2018-01-02 Nec Corporation Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
JP2021071757A (en) * 2019-10-29 2021-05-06 三菱電機インフォメーションシステムズ株式会社 Object detection apparatus, object detection method, object detection program and learning apparatus
WO2021084797A1 (en) * 2019-10-29 2021-05-06 三菱電機株式会社 Object detection device, object detection method, object detection program, and learning device
WO2023015992A1 (en) * 2021-08-09 2023-02-16 荣耀终端有限公司 Exposure parameter adjustment method, and device and storage medium

Similar Documents

Publication Publication Date Title
US8861806B2 (en) Real-time face tracking with reference images
KR101142316B1 (en) Image selection device and method for selecting image
US9767539B2 (en) Image capture device with contemporaneous image correction mechanism
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
KR101130775B1 (en) Image capturing apparatus, method of determining presence or absence of image area, and recording medium
JP4078334B2 (en) Image processing apparatus and image processing method
US11036966B2 (en) Subject area detection apparatus that extracts subject area from image, control method therefor, and storage medium, as well as image pickup apparatus and display apparatus
JP2006227080A (en) Electronic camera
JP2009123081A (en) Face detection method and photographing apparatus
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP4127521B2 (en) Digital camera and control method thereof
JP2008299784A (en) Object determination device and program therefor
JP2007312206A (en) Imaging apparatus and image reproducing apparatus
JP2011134117A (en) Object region extraction apparatus, method for controlling the same, object tracking apparatus, and program
JP2011071925A (en) Mobile tracking apparatus and method
JP2005196385A (en) Image processing apparatus, image processing method and digital camera
JP2007251532A (en) Imaging device and face area extraction method
JP4632417B2 (en) Imaging apparatus and control method thereof
JP5539565B2 (en) Imaging apparatus and subject tracking method
JP2007249526A (en) Imaging device, and face area extraction method
CN108335278B (en) Image processing method and device, storage medium and electronic equipment
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2005004287A (en) Face image detecting device and its control method
JP2008028924A (en) Imaging apparatus and control method thereof
JP6776532B2 (en) Image processing equipment, imaging equipment, electronic devices and image processing programs