JP4798042B2 - Face detection device, face detection method, and face detection program - Google Patents

Face detection device, face detection method, and face detection program Download PDF

Info

Publication number
JP4798042B2
JP4798042B2 JP2007088222A JP2007088222A JP4798042B2 JP 4798042 B2 JP4798042 B2 JP 4798042B2 JP 2007088222 A JP2007088222 A JP 2007088222A JP 2007088222 A JP2007088222 A JP 2007088222A JP 4798042 B2 JP4798042 B2 JP 4798042B2
Authority
JP
Japan
Prior art keywords
face
candidate
image
detection
determination criterion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007088222A
Other languages
Japanese (ja)
Other versions
JP2008250444A (en
Inventor
綾子 平野
美春 櫻木
敦司 片山
雅孝 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2007088222A priority Critical patent/JP4798042B2/en
Publication of JP2008250444A publication Critical patent/JP2008250444A/en
Application granted granted Critical
Publication of JP4798042B2 publication Critical patent/JP4798042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から顔を検出する顔検出装置に関する。   The present invention relates to a face detection apparatus that detects a face from an image.

画像から顔を検出する顔検出装置は、顔を精度よく検出することが望まれている。   A face detection device that detects a face from an image is desired to detect the face with high accuracy.

このような課題に鑑みた従来技術として、入力画像から算出した顔との想定距離と距離センサにより測定した測定距離とを比較して顔か非顔かの判定を行う対象物検出装置がある(特許文献1参照)。   As a conventional technique in view of such a problem, there is an object detection device that compares an estimated distance with a face calculated from an input image and a measured distance measured by a distance sensor to determine whether it is a face or a non-face ( Patent Document 1).

しかし、この装置は顔検出部の他に距離センサを必要とするため、装置構成が大掛かりになり、装置コストも増加する。   However, since this apparatus requires a distance sensor in addition to the face detection unit, the apparatus configuration becomes large and the apparatus cost also increases.

一方、2台のカメラで撮影された画像を三次元復元する画像処理装置がある(特許文献2参照)。この装置は、前記画像の三次元情報を用いて顔を検出する。   On the other hand, there is an image processing apparatus that three-dimensionally restores images taken by two cameras (see Patent Document 2). This apparatus detects a face using the three-dimensional information of the image.

しかし、この装置は2台のカメラを必要とするため、装置構成が大掛かりになり、装置コストも増加する。
特開2005−78376号公報 特開2005−301833号公報
However, since this apparatus requires two cameras, the apparatus configuration becomes large and the apparatus cost increases.
JP-A-2005-78376 JP 2005-301833 A

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、簡易な構成で、高精度な顔検出処理を実行するための技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for executing highly accurate face detection processing with a simple configuration.

上記目的を達成するために本発明では、以下の構成を採用する。   In order to achieve the above object, the present invention employs the following configuration.

本発明にかかる顔検出装置は、撮像手段と、前記撮像手段で撮影された画像から顔候補を検出する顔候補検出手段と、前記画像内の位置座標ごとに異ならせることが可能な判定基準であって、前記顔候補が顔であるか非顔であるかを判定するための前記判定基準を記憶する判定基準記憶手段と、前記顔候補が顔であるか非顔であるかを該顔候補の検出位置に対応する判定基準を用いて判定し、非顔を除いた顔候補を顔として出力する非顔排除手段と、を備える。   The face detection apparatus according to the present invention includes an imaging unit, a face candidate detection unit that detects a face candidate from an image captured by the imaging unit, and a determination criterion that can be different for each position coordinate in the image. And a criterion storage means for storing the criterion for determining whether the face candidate is a face or a non-face, and whether the face candidate is a face or a non-face And non-face exclusion means for outputting a face candidate excluding the non-face as a face.

本発明で予め設定される判定基準は、前記画像内の位置座標ごとに異ならせることが可能である。本発明の非顔排除手段は、位置座標ごとに適した判定基準を用いて顔候補が顔であるか非顔であるかを判定することができるので、画像全体を同一基準で行う顔検出処理よりも精度の向上が図れる。また、従来技術は距離センサや2台目のカメラが必要であったのに対し、本発明は付加機器を必要としないため、簡易な構成である。   The determination criterion set in advance in the present invention can be different for each position coordinate in the image. Since the non-face exclusion unit of the present invention can determine whether a face candidate is a face or a non-face using a determination criterion suitable for each position coordinate, a face detection process in which the entire image is performed with the same reference Accuracy can be improved. Further, while the conventional technique requires a distance sensor and a second camera, the present invention does not require an additional device, and thus has a simple configuration.

前記判定基準は、顔と判定すべき顔サイズの範囲を規定するための情報を含み、前記非顔排除手段は、前記判定基準と前記顔候補の顔サイズとを比較することによって、前記顔候補が顔であるか非顔であるかを判定するとよい。これにより、位置座標ごとに適切な顔サイズの顔候補のみが顔として検出されるため、誤検出の低減及び精度の向上が図れる。   The determination criterion includes information for defining a range of a face size to be determined as a face, and the non-face exclusion unit compares the determination criterion with the face size of the face candidate to thereby determine the face candidate. It is good to determine whether is a face or a non-face. As a result, only face candidates having an appropriate face size for each position coordinate are detected as faces, so that false detection can be reduced and accuracy can be improved.

前記顔候補検出手段は、異なる顔向きに対応する複数の顔検出器を有しており、前記顔検出器は、顔候補と共に、該顔候補の顔らしさを表すスコアを出力し、前記判定基準は、顔向きごとに顔と判定すべきスコアの範囲を規定するための情報を含み、前記非顔排除手段は、前記顔候補の顔向きに対応する判定基準と前記顔候補のスコアとを比較することによって、前記顔候補が顔であるか非顔であるかを判定するとよい。これにより、位置座標ごとに適切な向きの顔候補のみが顔として検出されるため、誤検出の低減及び精度の向上が図れる。   The face candidate detection means has a plurality of face detectors corresponding to different face orientations, and the face detector outputs a score representing the face-likeness of the face candidate together with the face candidate, and the determination criterion Includes information for defining a score range to be determined as a face for each face orientation, and the non-face exclusion means compares the determination criterion corresponding to the face orientation of the face candidate with the score of the face candidate. By doing so, it may be determined whether the face candidate is a face or a non-face. As a result, only face candidates in an appropriate direction for each position coordinate are detected as faces, so that false detection can be reduced and accuracy can be improved.

前記判定基準記憶手段は、前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとの照明情報とを更に記憶し、前記顔候補検出手段は、前記画像から顔候補を検出する前に、部分領域ごとに前記照明情報に基づいて照明補正を施すとよい。これにより、部分領域ごとに照明環境が異なっている場合でも、前処理として上記照明補正を施すことにより、画像全体の照明環境をそろえることができるので、誤検出の低減及び精度の向上が図れる。   The determination criterion storage unit further stores partial region information for dividing an image captured by the imaging unit into a plurality of partial regions and illumination information for each partial region, and the face candidate detection unit includes the face candidate detection unit, Before detecting a face candidate from an image, it is preferable to perform illumination correction based on the illumination information for each partial region. As a result, even when the illumination environment is different for each partial region, the illumination environment of the entire image can be made uniform by performing the illumination correction as a preprocessing, so that false detection can be reduced and accuracy can be improved.

前記判定基準記憶手段は、時間帯ごとに異なる照明情報を記憶可能であり、前記顔候補検出手段は、前記画像の撮影時刻に基づいて照明補正に用いる照明情報を決定するとよい。これにより、時間帯ごとの照明環境の変化に対応できるため、誤検出の低減及び精度の向上が図れる。   The determination criterion storage unit may store different illumination information for each time zone, and the face candidate detection unit may determine illumination information used for illumination correction based on the shooting time of the image. Thereby, since it can respond to the change of the illumination environment for every time slot | zone, reduction of false detection and improvement of accuracy can be aimed at.

また、本発明は、上記手段の少なくとも一部を有する顔検出装置として捉えてもよいし、上記処理の少なくとも一部を含む顔検出方法、または、かかる方法を実現するための顔検出プログラムやそのプログラムを記憶した記憶媒体として捉えることもできる。なお、上記手段及び処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   Further, the present invention may be regarded as a face detection device having at least a part of the above means, a face detection method including at least a part of the above process, a face detection program for realizing such a method, and It can also be understood as a storage medium storing a program. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、顔検出処理を実行する際に、画像内の位置座標ごとに異ならせることが可能な判定基準を予め設定することができ、付加機器を必要としないため、簡易な構成で、高精度な顔検出処理を実行することが可能である。   According to the present invention, when executing the face detection process, a determination criterion that can be changed for each position coordinate in the image can be set in advance, and an additional device is not required. It is possible to perform highly accurate face detection processing.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

<第1の実施形態>
第1の実施形態では、本発明を通行人や侵入者などを監視するための監視装置に適用した例を挙げる。この種の監視装置では図1のように撮像部11が人の頭より高い位置の天井や壁などに固定されており、監視エリアを俯瞰するような撮影画像を得ることが多い。この状況下で、撮像部11が撮影する画像は図2のように画像上部の顔は小さく写り、画像下部の顔は大きく写る傾向にある。このような傾向に着目し、本実施形態では、顔と判定すべき顔サイズの範囲を画像内の位置に応じて変える。なお、本発明は本実施形態の監視装置のような固定カメラに好ましく適用することができるが、本発明は固定カメラに限らず、あらゆる撮影装置に適用することが可能である。
<First Embodiment>
In the first embodiment, an example in which the present invention is applied to a monitoring device for monitoring a passerby or an intruder is given. In this type of monitoring apparatus, as shown in FIG. 1, the imaging unit 11 is fixed to a ceiling, a wall, or the like that is higher than a person's head, and in many cases, a captured image overlooking the monitoring area is obtained. Under this circumstance, the image captured by the imaging unit 11 tends to appear as a small face at the top of the image and a large face at the bottom of the image as shown in FIG. Focusing on such a tendency, in this embodiment, the range of the face size to be determined as a face is changed according to the position in the image. Note that the present invention can be preferably applied to a fixed camera such as the monitoring apparatus of the present embodiment, but the present invention is not limited to a fixed camera and can be applied to any photographing apparatus.

<装置構成>
図3は本発明の実施形態に係る顔検出装置の機能構成を示すブロック図である。顔検出装置は、概略、撮像部11、画像記憶部12、顔候補検出部13、非顔判定部14、表示部15、結果記憶部16、判定基準記憶部17を備えている。本実施形態では、これらの機能要素は、コンピュータの演算処理装置がソフトウエア(プログラム)を実行し、必要に応じてカメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現さ
れる。ただし、これらの機能要素を専用のチップで構成しても構わない。
<Device configuration>
FIG. 3 is a block diagram showing a functional configuration of the face detection apparatus according to the embodiment of the present invention. The face detection apparatus includes an outline, an imaging unit 11, an image storage unit 12, a face candidate detection unit 13, a non-face determination unit 14, a display unit 15, a result storage unit 16, and a determination criterion storage unit 17. In the present embodiment, these functional elements are realized by an arithmetic processing unit of a computer executing software (program) and controlling hardware resources such as a camera, a memory, and a display as necessary. However, these functional elements may be configured by a dedicated chip.

撮像部11としては、光学系と撮像素子(CCD、CMOSセンサなど)を備えるデジタルカメラを好ましく適用できる。   As the imaging unit 11, a digital camera including an optical system and an imaging element (CCD, CMOS sensor, etc.) can be preferably applied.

画像記憶部12は、処理対象となる画像を一時的に記憶する記憶装置である。この記憶装置としては、揮発性メモリや不揮発性メモリなど、どのような具体的技術が適用されてもよい。   The image storage unit 12 is a storage device that temporarily stores an image to be processed. As the storage device, any specific technique such as a volatile memory or a nonvolatile memory may be applied.

顔候補検出部13は、画像処理によって画像から顔候補を検出する機能である。また、顔候補検出部13は、検出結果として、顔候補の顔サイズ(顔幅)及び画像内の位置座標のデータを出力する。顔候補検出部13による顔候補検出処理は、既存の顔検出処理のどのような技術が適用されてもよい。一例を挙げると、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出する手法、顔の器官(目、鼻、耳など)に基づくテンプレートマッチングによって顔を検出する手法、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出する手法、肌の色に近い領域を検出し、その領域を顔として検出する手法、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出する手法、などがある。   The face candidate detection unit 13 has a function of detecting a face candidate from an image by image processing. Further, the face candidate detection unit 13 outputs the face size (face width) of the face candidate and the position coordinate data in the image as the detection result. Any technique of existing face detection processing may be applied to the face candidate detection processing by the face candidate detection unit 13. For example, a method for detecting a face by template matching using a reference template corresponding to the outline of the entire face, a method for detecting a face by template matching based on a facial organ (eyes, nose, ears, etc.), chroma key processing Detecting vertices such as the head, detecting a face based on the vertices, detecting a region close to the skin color, detecting that region as a face, and learning with a teacher signal using a neural network And a method for detecting a face-like area as a face.

非顔判定部14は、顔候補検出部13で検出された顔候補が顔であるか非顔であるかを該顔候補の検出位置に対応する判定基準を用いて判定し、非顔を除いた顔候補を顔として出力する機能である。   The non-face determination unit 14 determines whether the face candidate detected by the face candidate detection unit 13 is a face or a non-face using a determination criterion corresponding to the detection position of the face candidate, and removes the non-face This is a function to output the face candidate as a face.

表示部15としては、液晶ディスプレイなど、どのような具体的技術が適用されてもよい。   As the display unit 15, any specific technique such as a liquid crystal display may be applied.

結果記憶部16は、非顔判定部14から顔として出力された結果を記憶する記憶装置である。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The result storage unit 16 is a storage device that stores the result output as a face from the non-face determination unit 14. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

判定基準記憶部17は、判定基準を記憶する記憶装置である。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The determination criterion storage unit 17 is a storage device that stores determination criteria. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

判定基準とは、顔候補検出部13で検出された顔候補が顔であるか非顔であるかを判定するためのものである。また、本実施形態における判定基準は画像内の位置座標ごとに異ならせることができる。   The determination criterion is for determining whether the face candidate detected by the face candidate detection unit 13 is a face or a non-face. In addition, the determination criterion in the present embodiment can be different for each position coordinate in the image.

本実施形態における判定基準の一例を図4に示す。上述したように、本実施形態の撮像部11で撮影される画像は図2のように画像上部の顔は小さく写り、画像下部の顔は大きく写る傾向にある。そこで、図4の例では、画像内の位置座標に関する情報として、画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域21〜23に区分するための部分領域情報を設定する。ここでは四角形の部分領域を設定しており、部分領域は四角形の対角に位置する頂点の始点座標と終点座標の2つの座標で定義される。なお、部分領域の形は四角形でなく、多角形や円形などでもよい。部分領域情報は、部分領域の形状・位置・大きさを定義できれば、どのような形式でもよい。また、判定基準として、顔と判定すべき顔サイズの範囲を規定するための情報を設定する。図4の例では、画像上部の部分領域21に「5〜20」、画像中部の部分領域22に「20〜35」、画像下部の部分領域23に「35〜50」という顔サイズの範囲が設定されている。なお、顔サイズの範囲は、顔サイズに対応する数値(顔サイズの上限に対応する数値と下限に対応する数値など)ではなく、「大」、「中」、「小」のような属性で規定されてもよい。   An example of the determination criterion in the present embodiment is shown in FIG. As described above, the image photographed by the imaging unit 11 of the present embodiment has a tendency that the face at the top of the image appears small and the face at the bottom of the image appears large as shown in FIG. Therefore, in the example of FIG. 4, partial area information for dividing the entire image into three partial areas 21 to 23, “upper part of image”, “middle part of image”, and “lower part of image”, as information regarding the position coordinates in the image. Set. Here, a quadrangular partial area is set, and the partial area is defined by two coordinates of a start point coordinate and an end point coordinate of a vertex located at the diagonal of the quadrangle. The shape of the partial area is not a quadrangle, but may be a polygon or a circle. The partial area information may be in any format as long as the shape, position, and size of the partial area can be defined. In addition, information for defining a range of face size to be determined as a face is set as a determination criterion. In the example of FIG. 4, the face size ranges “5 to 20” in the partial area 21 at the top of the image, “20 to 35” in the partial area 22 in the middle of the image, and “35 to 50” in the partial area 23 at the bottom of the image. Is set. Note that the face size range is not a numerical value corresponding to the face size (such as a numerical value corresponding to the upper limit of the face size and a numerical value corresponding to the lower limit), but attributes such as “large”, “medium”, and “small”. It may be specified.

<顔検出機能>
図5及び図6のフローチャートに沿って、本実施形態の顔検出装置の機能及び処理の流れを説明する。
<Face detection function>
The function and processing flow of the face detection apparatus of this embodiment will be described with reference to the flowcharts of FIGS.

本実施形態の顔検出装置は一定の時間間隔で顔検出機能を実行する。顔検出機能が起動すると、撮像部11で撮影された画像が、顔検出処理に用いるために取り込まれる(ステップS11)。入力された画像は画像記憶部12に撮影時刻情報と共に格納される。なお、必要に応じて、ユーザは、顔検出処理用の画像を表示部15で確認することができる。   The face detection apparatus according to the present embodiment executes the face detection function at regular time intervals. When the face detection function is activated, an image captured by the imaging unit 11 is captured for use in face detection processing (step S11). The input image is stored in the image storage unit 12 together with shooting time information. If necessary, the user can check the face detection processing image on the display unit 15.

次に、顔候補検出部13が顔候補の検出を行う(ステップS12)。本実施形態では図2に示す顔候補24a〜24fの6つが検出された場合について述べる。ここで、顔候補24a及び24bの検出位置は部分領域21に属し、顔候補24c及び24dの検出位置は部分領域22に属し、顔候補24e及び24fの検出位置は部分領域23に属する。また、顔候補24aの顔サイズは「44」であり、顔候補24bの顔サイズは「12」であり、顔候補24cは「25」であり、顔候補24dは「45」であり、顔候補24eは「7」であり、顔候補24fは「48」である。また、顔候補24b、24c、24fは顔であるが、顔候補24a、24d、24eは非顔(誤検出)である。   Next, the face candidate detection unit 13 detects a face candidate (step S12). In the present embodiment, a case where six face candidates 24a to 24f shown in FIG. 2 are detected will be described. Here, the detection positions of the face candidates 24a and 24b belong to the partial area 21, the detection positions of the face candidates 24c and 24d belong to the partial area 22, and the detection positions of the face candidates 24e and 24f belong to the partial area 23. Further, the face size of the face candidate 24a is “44”, the face size of the face candidate 24b is “12”, the face candidate 24c is “25”, the face candidate 24d is “45”, and the face candidate 24e is “7” and the face candidate 24f is “48”. The face candidates 24b, 24c, and 24f are faces, but the face candidates 24a, 24d, and 24e are non-faces (false detection).

そして、非顔判定部14が判定基準記憶部17から部分領域情報と部分領域ごとに予め設定された判定基準とを読み込み(ステップS13)、顔候補が顔であるか非顔であるかを該顔候補の検出位置に対応する判定基準を用いて判定し、非顔を除いた顔候補を顔として出力する(ステップS14)。図2の例では、画像の傾向から夫々の位置座標において顔候補24a、24d、24eのようなサイズの顔はあり得ない。このようなあり得ないサイズの顔候補をステップS14の処理で排除することにより、本実施形態では誤検出の低減、ひいては、高精度な顔検出処理が図れる。   Then, the non-face determination unit 14 reads the partial region information and the determination criterion set in advance for each partial region from the determination criterion storage unit 17 (step S13), and determines whether the face candidate is a face or a non-face. A determination is made using a determination criterion corresponding to the detection position of the face candidate, and the face candidate excluding the non-face is output as a face (step S14). In the example of FIG. 2, a face having a size such as the face candidates 24 a, 24 d, and 24 e cannot exist at each position coordinate due to the tendency of the image. By eliminating the face candidates of such an impossible size in the process of step S14, in the present embodiment, it is possible to reduce false detection and to perform highly accurate face detection processing.

図6は、ステップS14の処理の一具体例を示している。   FIG. 6 shows a specific example of the process of step S14.

まず、非顔判定部14がステップS12の結果(本実施形態では、顔候補の位置座標データ及び顔サイズデータ)を取り込む(ステップS21)。本実施形態における顔サイズデータは顔サイズを表すデータであり、大きい顔ほど大きな値となる。   First, the non-face determination unit 14 captures the result of step S12 (in this embodiment, position coordinate data and face size data of a face candidate) (step S21). The face size data in this embodiment is data representing the face size, and the larger the face, the larger the value.

次に、非顔判定部14がステップS12で検出された顔候補のうち一つを選択し(ステップS22)、顔候補の位置座標データから顔候補の検出位置が属する部分領域を特定する(ステップS23)。   Next, the non-face determination unit 14 selects one of the face candidates detected in step S12 (step S22), and specifies a partial region to which the detected position of the face candidate belongs from the position coordinate data of the face candidate (step S22). S23).

そして、部分領域ごとに設定されている判定基準と顔候補の顔サイズとを比較することによって当該顔候補が顔であるか非顔であるかを判定する(ステップS24)。具体的には、非顔判定部14は顔候補の顔サイズが顔候補の属する部分領域内に設定された判定基準内にある場合、該顔候補を顔とし、それ以外を非顔とする。例えば、顔候補24aの検出位置は部分領域21に属し、顔サイズは「44」である。しかし、判定基準では部分領域21に「5〜20」と設定されており、24aの顔サイズ「44」は、判定基準の範囲外であるため非顔とされる(24d、24eも同様の理由から非顔とされる)。一方、24cの検出位置は部分領域22に属し、顔サイズは「25」である。また、判定基準では部分領域22に「20〜35」と設定されており、24cの顔サイズ「25」は、判定基準の範囲内であるため顔とされる(24b、24fも同様の理由から顔とされる)。   Then, it is determined whether the face candidate is a face or a non-face by comparing the determination criterion set for each partial region with the face size of the face candidate (step S24). Specifically, when the face size of the face candidate is within the determination criterion set in the partial region to which the face candidate belongs, the non-face determination unit 14 sets the face candidate as a face and sets the other face as a non-face. For example, the detection position of the face candidate 24a belongs to the partial area 21, and the face size is “44”. However, in the determination criterion, “5 to 20” is set in the partial area 21, and the face size “44” of 24a is outside the range of the determination criterion and thus is not a face (the same reason for 24d and 24e). From the non-face). On the other hand, the detection position of 24c belongs to the partial region 22, and the face size is “25”. In addition, in the determination criterion, “20 to 35” is set in the partial region 22, and the face size “25” of 24c is within the range of the determination criterion, so it is regarded as a face (24b and 24f are also for the same reason). Face).

顔候補が顔とされた場合(ステップS24;YES)、ステップS26に進み、非顔とされた場合(ステップS24;NO)、該顔候補をステップS12で検出された顔候補か
ら排除し(ステップS25)、ステップS26に進む。
If the face candidate is a face (step S24; YES), the process proceeds to step S26. If the face candidate is a non-face (step S24; NO), the face candidate is excluded from the face candidates detected in step S12 (step S25), the process proceeds to step S26.

ステップS26では、非顔判定部14がステップS12で検出された顔候補のうち、顔であるか非顔であるかの判定に用いられていない顔候補があるかどうかを判断する。他の顔候補があるとされた場合(ステップS26;YES)、その顔候補を選択し、該顔候補が顔であるか非顔であるかを判定する(ステップS22〜S24)。ステップS12で検出された全ての顔候補について顔であるか非顔であるかの判定が行われたら、ステップS14の処理を終了し、ステップS15に進む。   In step S <b> 26, the non-face determination unit 14 determines whether there is a face candidate that is not used for determining whether it is a face or a non-face among the face candidates detected in step S <b> 12. When it is determined that there is another face candidate (step S26; YES), the face candidate is selected, and it is determined whether the face candidate is a face or a non-face (steps S22 to S24). If it is determined whether all face candidates detected in step S12 are faces or non-faces, the process of step S14 is terminated, and the process proceeds to step S15.

ステップS15では、非顔判定部14の判定結果が顔検出処理結果として結果記憶部16に格納される。結果記憶部16に格納される顔検出処理結果の情報は、顔検出処理に用いた画像及びその撮影時刻と、検出された顔の数とその検出位置の情報が好ましい。ユーザは、目的に応じた撮影時刻と顔検出処理結果の表示方法とを入力することで、顔検出処理結果を表示部15で確認することができる。前記表示方法は入力された撮影時刻の総顔検出数であってもよいし、前記撮影時刻に撮影された画像を表示し、前記検出位置に印を付けるなどであってもよい。   In step S15, the determination result of the non-face determination unit 14 is stored in the result storage unit 16 as a face detection process result. The information of the face detection process result stored in the result storage unit 16 is preferably an image used for the face detection process, its photographing time, the number of detected faces, and information on the detection position. The user can check the face detection processing result on the display unit 15 by inputting the photographing time and the display method of the face detection processing result according to the purpose. The display method may be the total number of detected faces at the input shooting time, or may display the image shot at the shooting time and mark the detection position.

以上述べたように、本実施形態ではまず、顔候補検出部13が画像から顔候補を検出し、非顔判定部14が顔であるか非顔であるかの判定を行う。また、本実施形態の判定基準として、顔候補のうち画像上部では小さい顔サイズの顔候補を顔として判定し、画像下部では大きい顔サイズの顔候補を顔として判定するような判定基準が設定されている。これにより、画像内の部分領域ごとに適切な顔サイズの顔候補のみが顔として検出されるため、同一基準で非顔判定を行うよりも、高精度な顔検出処理が実行できる。   As described above, in this embodiment, first, the face candidate detection unit 13 detects a face candidate from the image, and determines whether the non-face determination unit 14 is a face or a non-face. In addition, as a determination criterion of the present embodiment, a determination criterion is set such that a face candidate having a small face size is determined as a face in the upper part of the face candidate and a face candidate having a large face size is determined as a face in the lower part of the image. ing. As a result, only face candidates having an appropriate face size are detected as faces for each partial region in the image, so that it is possible to execute a face detection process with higher accuracy than non-face determination based on the same reference.

なお、本実施形態では顔サイズとして顔の幅を用いているが、顔の長さ、面積、もしくはそれらを組み合わせることで得られる別のパラメータを用いてもよい。   In this embodiment, the face width is used as the face size, but the face length, area, or another parameter obtained by combining them may be used.

なお、本実施形態では判定基準記憶部17に部分領域情報と部分領域ごとの判定基準が設定されている場合について述べたが、図7のように関数によって判定基準を設定するなど、様々な手法が適用できる。図7において、縦軸は画像の縦方向の位置座標に対応し、横軸は顔サイズに対応する。例えば、顔候補が位置座標Y11で検出された場合、顔候補は顔サイズが、
Z11≦顔サイズ<Z12
のときに顔として判定される。
In the present embodiment, the case where the partial region information and the determination criterion for each partial region are set in the determination criterion storage unit 17 has been described. However, various methods such as setting the determination criterion by a function as shown in FIG. Is applicable. In FIG. 7, the vertical axis corresponds to the position coordinates in the vertical direction of the image, and the horizontal axis corresponds to the face size. For example, when a face candidate is detected at position coordinates Y11, the face candidate has a face size,
Z11 ≦ face size <Z12
Is determined as a face.

<第2の実施形態>
第2の実施形態では、T字型の通路の交差位置に撮像部11があり、撮像部11の前方向と左右方向には通路があるという状況下での顔検出装置について述べる(図8)。この状況下で、撮像部11が撮影する画像は、第1の実施形態と同様に画像下部ほど大きい顔が写る傾向にある。更に、画像上部では前方の通路を通る人が写るため、正面向きの顔が多く写り、画像中部では前方の通路と左右の通路との交差位置付近を通る人が写るため、左右斜め向きの顔が多く写り、画像下部では左右の通路を通る人が写るため、左右向きの顔が多く写る傾向にある(図9)。このような傾向に着目し、本実施形態では、顔と判定すべき顔サイズの範囲と顔向きを画像内の位置に応じて変える。
<Second Embodiment>
In the second embodiment, a face detection apparatus will be described in a situation where the imaging unit 11 is at the intersection of the T-shaped passage and there are passages in the front and left and right directions of the imaging unit 11 (FIG. 8). . Under this circumstance, the image captured by the imaging unit 11 tends to show a larger face at the lower part of the image, as in the first embodiment. Furthermore, in the upper part of the image, people pass through the front passage, so there are many faces facing the front. In the lower part of the image, people passing through the left and right passages appear, so there is a tendency for many left and right faces to appear (FIG. 9). Focusing on such a tendency, in the present embodiment, the face size range to be determined as a face and the face orientation are changed according to the position in the image.

以下、第1の実施形態と異なる構成及び処理を中心に説明する。   Hereinafter, the configuration and processing different from those of the first embodiment will be mainly described.

<装置構成>
本実施形態の顔候補検出部13は異なる顔向きに対応する複数の顔検出器(例えば、正面、左、右、左斜め、右斜めの5つ)を有する。また、顔候補検出部13は、1つの位置
座標で全ての顔検出器を用いて顔候補検出処理を行い、夫々の顔検出器は顔候補を検出した際に、顔候補と共に、該顔候補のスコアを出力する。本実施形態におけるスコアとは、顔らしさを表す値であり、より顔らしい顔候補ほど高い値となる。
<Device configuration>
The face candidate detection unit 13 according to the present embodiment includes a plurality of face detectors (for example, front, left, right, left diagonal, and right diagonal five) corresponding to different face orientations. Further, the face candidate detection unit 13 performs face candidate detection processing using all face detectors at one position coordinate. When each face detector detects a face candidate, the face candidate and the face candidate are detected. Output the score. The score in the present embodiment is a value representing the likelihood of a face, and the face candidate that is more likely to be a face has a higher value.

次に、本実施形態における判定基準の一例を図10に示す。上述したように、本実施形態の撮像部11で撮影される画像は図9のように画像下部ほど大きい顔が写る傾向にあり、更に、画像上部では前方の通路を通る人が写るため、正面向きの顔が多く写り、画像中部では前方の通路と左右の通路との交差位置付近を通る人が写るため、左右斜め向きの顔が多く写り、画像下部では左右の通路を通る人が写るため、左右向きの顔が多く写る傾向にある。そこで、図10の例では、画像内の位置座標に関する情報として、判定基準記憶部17に画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域31〜33に区分するための部分領域情報を設定する(ここでの部分領域の定義は第1の実施形態と同様である)。また、判定基準として、顔サイズの範囲と、顔向きごとの顔と判定すべきスコアの範囲と、を規定するための情報を設定する。図10の例では、画像上部の部分領域31に「5〜20」と「正面;60、左右斜め;80、左右;100」、画像中部の部分領域32に「20〜35」と「正面;80、左右斜め;60、左右;80」、画像下部の部分領域33に「35〜50」と「正面;100、左右斜め;80、左右;60」という顔サイズの範囲と顔向きごとの閾値が設定されている。非顔判定部14は、顔検出器から出力されたスコアが、予め設定されている閾値より大きいときに該顔候補を顔と判定する。そのため、部分領域31では、正面顔の閾値が低いので、正面顔が顔として判定され易い。同様に、部分領域32では、左右斜め顔が顔として判定され易く、部分領域33では、左右顔が顔として判定され易い。なお、顔向きは、「正面」、「左右斜め」、「左右」のような属性ではなく、顔の向きに対応する数値や、顔検出器の識別子で規定されてもよい。   Next, an example of the determination criterion in the present embodiment is shown in FIG. As described above, the image photographed by the imaging unit 11 of the present embodiment tends to have a larger face as the lower part of the image as shown in FIG. Many faces are shown, and people in the middle of the image pass through the vicinity of the intersection between the front passage and the left and right passages, so there are many faces that appear diagonally left and right, and people in the lower part of the image pass through the left and right passages. , There is a tendency to see a lot of left and right faces. Therefore, in the example of FIG. 10, as information regarding the position coordinates in the image, the entire image is divided into three partial areas 31 to 33, “upper part of image”, “middle part of image”, and “lower part of image”. Partial area information is set (the definition of the partial area here is the same as in the first embodiment). Further, information for defining a face size range and a score range to be determined as a face for each face direction is set as a determination criterion. In the example of FIG. 10, “5 to 20” and “front”; 60, left and right oblique; 80, left and right; 100 in the upper part of the image, and “20 to 35” and “front; 80, left and right oblique; 60, left and right; 80 ", and a partial size 33 of the lower part of the image," 35-50 "and" front; 100, left and right oblique; 80, left and right; 60 ". Is set. The non-face determination unit 14 determines the face candidate as a face when the score output from the face detector is larger than a preset threshold value. Therefore, in the partial area 31, the front face threshold is low, and thus the front face is easily determined as a face. Similarly, in the partial area 32, the left and right oblique faces are easily determined as faces, and in the partial area 33, the left and right faces are easily determined as faces. Note that the face orientation may be defined by a numerical value corresponding to the face orientation or an identifier of the face detector, instead of attributes such as “front”, “left-right diagonal”, and “left-right”.

<顔検出機能>
本実施形態の顔検出装置の機能はステップS14の処理を除いて第1の実施形態と同様であるため、その記述を省略し、ここでは図6のフローチャートに沿って、本実施形態におけるステップS14の処理について詳しく説明する。なお、本実施形態ではステップS12によって図9に示す顔候補34a〜34cの3つが検出された場合について述べる。ここで、顔候補34a及び34cは顔であるが、顔候補34bは非顔(誤検出)である。
<Face detection function>
Since the functions of the face detection apparatus of this embodiment are the same as those of the first embodiment except for the processing of step S14, the description thereof is omitted, and here, step S14 of this embodiment is performed according to the flowchart of FIG. The process will be described in detail. In the present embodiment, a case will be described in which three face candidates 34a to 34c shown in FIG. 9 are detected in step S12. Here, the face candidates 34a and 34c are faces, but the face candidate 34b is a non-face (false detection).

まず、非顔判定部14がステップS12の結果(本実施形態では、顔候補の位置座標データ、顔サイズデータ、顔候補の顔向き及びそのスコア)を取り込む(ステップS21)。   First, the non-face determination unit 14 captures the result of step S12 (in this embodiment, position coordinate data of face candidates, face size data, face orientation of face candidates and their scores) (step S21).

次に、非顔判定部14がステップS12で検出された顔候補のうち一つを選択し(ステップS22)、顔候補の位置座標データから顔候補の検出位置が属する部分領域を特定する(ステップS23)。図9の例では、顔候補34aの検出位置は部分領域31に属し、顔候補34bの検出位置は部分領域32に属し、顔候補34cの検出位置は部分領域33に属する。   Next, the non-face determination unit 14 selects one of the face candidates detected in step S12 (step S22), and specifies a partial region to which the detected position of the face candidate belongs from the position coordinate data of the face candidate (step S22). S23). In the example of FIG. 9, the detection position of the face candidate 34 a belongs to the partial area 31, the detection position of the face candidate 34 b belongs to the partial area 32, and the detection position of the face candidate 34 c belongs to the partial area 33.

そして、部分領域ごとに設定されている判定基準と顔候補の顔サイズ、顔向き及びそのスコアとから顔候補が顔であるか非顔であるかを判定する(ステップS24)。例えば、顔候補34aの顔向き及びそのスコアは「正面;90、左斜め;70、右斜め;40、左;−、右;−」であり、顔候補34bは「正面;40、左斜め;50、右斜め;30、左;70、右;30」であり、顔候補34cは「正面;−、左斜め;−、右斜め;−、左;100、右;−」である(ここで、「−」は顔候補として検出されなかったことを意味する。)。ステップS24において、顔候補34aの検出位置は部分領域31に属するので、「正面;60、左右斜め;80、左右;100」と比較され、「正面」のスコアが閾値
を上回っているので「顔」とされる(同様に、34bは「非顔」とされ、34cは「顔」とされる。)。顔候補34a〜34cの顔サイズは夫々の属する部分領域に設定された顔サイズの範囲内であるため、顔サイズの範囲のみの判定基準(第1の実施形態)では顔候補34bを非顔と判定することはできない。しかし、本実施形態では、判定基準として顔向きごとの閾値を設定することで、顔候補34bを非顔と判定することができる。
Then, it is determined whether the face candidate is a face or a non-face from the determination criteria set for each partial region, the face size, face orientation, and score of the face candidate (step S24). For example, the face direction of the face candidate 34a and its score are “front; 90, left diagonal; 70, right diagonal; 40, left; −, right; −”, and the face candidate 34b is “front; 40, left diagonal; 50, right diagonal; 30, left; 70, right; 30 ", and the face candidate 34c is"front;-, left diagonal;-, right diagonal;-, left; 100, right;-"(here , “-” Means that no face candidate was detected.) In step S24, since the detection position of the face candidate 34a belongs to the partial region 31, it is compared with “front; 60, left and right diagonal; 80, left and right; 100”. Since the score of “front” exceeds the threshold, “face” (Similarly, 34b is "non-face" and 34c is "face"). Since the face sizes of the face candidates 34a to 34c are within the face size range set in the partial area to which each of the face candidates 34a to 34c belongs, the face candidate 34b is regarded as a non-face according to the determination criterion only for the face size range (first embodiment). It cannot be judged. However, in the present embodiment, the face candidate 34b can be determined as a non-face by setting a threshold value for each face direction as a determination criterion.

顔候補が顔とされた場合(ステップS24;YES)、ステップS26に進み、非顔とされた場合(ステップS24;NO)、該顔候補を複数の顔候補から排除し(ステップS25)、ステップS26に進む。   When the face candidate is a face (step S24; YES), the process proceeds to step S26. When the face candidate is a non-face (step S24; NO), the face candidate is excluded from a plurality of face candidates (step S25), and step Proceed to S26.

ステップS26では、非顔判定部14がステップS12で検出された複数の顔候補のうち、判定に用いられていない顔候補があるかどうかを判断する。他の顔候補があるとされた場合(ステップS26;YES)、その顔候補を選択し、該顔候補が顔であるか非顔であるかを判定する(ステップS22〜S24)。ステップS12で検出された全ての顔候補について顔であるか非顔であるかの判定が行われたら、ステップS14の処理を終了し、ステップS15に進む。   In step S <b> 26, the non-face determination unit 14 determines whether there is a face candidate that is not used for determination among the plurality of face candidates detected in step S <b> 12. When it is determined that there is another face candidate (step S26; YES), the face candidate is selected, and it is determined whether the face candidate is a face or a non-face (steps S22 to S24). If it is determined whether all face candidates detected in step S12 are faces or non-faces, the process of step S14 is terminated, and the process proceeds to step S15.

ステップS15では、非顔判定部14の判定結果が顔検出処理結果として結果記憶部16に格納される。結果記憶部16に格納される顔検出処理結果の情報は、顔検出処理に用いた画像及びその撮影時刻と、検出された顔の数とその検出位置の情報が好ましい。ユーザは、目的に応じた撮影時刻と顔検出処理結果の表示方法とを入力することで、顔検出処理結果を表示部15で確認することができる。前記表示方法は入力された撮影時刻の総顔検出数であってもよいし、前記撮影時刻に撮影された画像を表示し、前記検出位置に印を付けるなどであってもよい。   In step S15, the determination result of the non-face determination unit 14 is stored in the result storage unit 16 as a face detection process result. The information of the face detection process result stored in the result storage unit 16 is preferably an image used for the face detection process, its photographing time, the number of detected faces, and information on the detection position. The user can check the face detection processing result on the display unit 15 by inputting the photographing time and the display method of the face detection processing result according to the purpose. The display method may be the total number of detected faces at the input shooting time, or may display the image shot at the shooting time and mark the detection position.

以上述べたように、本実施形態ではまず、顔候補検出部13が画像から顔候補を検出し、非顔判定部14が顔であるか非顔であるかの判定を行う。また、本実施形態の判定基準として、顔候補のうち画像上部では小さい顔サイズ且つ正面向きの顔候補を顔と判定し易くし、画像下部では大きい顔サイズ且つ左右向きの顔候補を顔と判定し易くするような判定基準が設定されている。これにより、画像内の部分領域ごとに適切な顔サイズ及び顔向きの顔候補のみが顔として検出されるため、同一基準で非顔判定を行うよりも、高精度な顔検出処理が実行できる。   As described above, in this embodiment, first, the face candidate detection unit 13 detects a face candidate from the image, and determines whether the non-face determination unit 14 is a face or a non-face. In addition, as a determination criterion of the present embodiment, among the face candidates, a face candidate with a small face size and facing the front is easily determined as a face in the upper part of the image, and a face candidate with a large face size and left and right facing is determined as a face in the lower part of the image. Judgment criteria that make it easy to do are set. As a result, only face candidates with appropriate face sizes and face orientations are detected as faces for each partial region in the image, so that it is possible to perform face detection processing with higher accuracy than non-face determination based on the same reference.

なお、本実施形態では判定基準記憶部17に部分領域情報と部分領域ごとの判定基準が設定されている場合について述べたが、図7及び図11のような関数によって判定基準を設定するなど、様々な手法が適用できる。図11において、縦軸は画像の縦方向の位置に対応し、横軸は閾値に対応する。また、顔検出器ごとに関数が設定される。そして、図11は、位置座標Y21で顔候補が検出された場合、正面顔の閾値はZ22となり、左右斜め顔の閾値はZ21となり、左右顔の閾値はZ23となることを意味する。また、本実施形態では同じ部分領域に顔サイズの範囲を規定する情報と顔向きごとの顔と判定すべきスコアの範囲を規定する情報とを設定しているが、種々の情報ごとに部分領域を設定してもよい。   In the present embodiment, the case where the partial area information and the determination standard for each partial area are set in the determination reference storage unit 17 has been described. However, the determination standard is set by a function as shown in FIGS. Various methods can be applied. In FIG. 11, the vertical axis corresponds to the position in the vertical direction of the image, and the horizontal axis corresponds to the threshold value. A function is set for each face detector. FIG. 11 means that when a face candidate is detected at the position coordinate Y21, the front face threshold is Z22, the left and right oblique face threshold is Z21, and the left and right face threshold is Z23. In the present embodiment, information that defines the face size range and information that defines the face range for each face orientation are set in the same partial area. May be set.

なお、本実施形態ではステップS12で顔候補であるか否かを判定するための手法について具体的に述べていないが、ステップS12でもステップS14のスコアと同じ定義のスコアを用いてもよい。その場合、顔候補であるか否かの判定に用いられる閾値は顔であるか否かの判定に用いられる閾値より低く設定しておくとよい。これにより、顔の検出漏れを防ぐことができる。   In the present embodiment, the method for determining whether or not the face candidate is determined in step S12 is not specifically described, but a score having the same definition as the score in step S14 may be used in step S12. In that case, the threshold used for determining whether or not the face is a candidate may be set lower than the threshold used for determining whether or not the face is a candidate. Thereby, it is possible to prevent face detection omission.

<第3の実施形態>
第3の実施形態では、撮像部11が屋内から屋外を向くように設置してあり、撮像部11で撮影される画像には屋内と屋外の両方が写るという状況下での顔検出装置について述べる(図12)。この状況下で、撮像部11が撮影する画像は、第1の実施形態と同様に画像下部ほど大きい顔が写る傾向にある。更に、図13のように、屋内にある顔と屋外にある顔とで照明環境が異なる傾向にある(例えば、屋外が屋内より明るい場合、屋外の顔は明るく写り、屋内の顔は逆光により暗く写るなど)。このような照明環境の違いは顔検出処理に悪影響を及ぼす。このような傾向に着目し、本実施形態では、顔と判定すべき顔サイズの範囲を画像内の位置に応じて変える。更に、画像全体を複数の部分領域に区分し、顔候補検出処理の前処理として画像全体の照明環境をそろえるために部分領域ごとに照明補正をする。
<Third Embodiment>
In the third embodiment, a face detection apparatus will be described in a situation where the imaging unit 11 is installed so as to face indoors and outdoors, and an image captured by the imaging unit 11 includes both indoors and outdoors. (FIG. 12). Under this circumstance, the image captured by the imaging unit 11 tends to show a larger face at the lower part of the image, as in the first embodiment. Further, as shown in FIG. 13, the lighting environment tends to be different between the indoor face and the outdoor face (for example, when the outdoor is brighter than the indoor, the outdoor face appears bright, and the indoor face becomes dark due to backlight. Etc.) Such a difference in lighting environment adversely affects the face detection process. Focusing on such a tendency, in this embodiment, the range of the face size to be determined as a face is changed according to the position in the image. Further, the entire image is divided into a plurality of partial areas, and illumination correction is performed for each partial area in order to align the illumination environment of the entire image as a pre-process for the face candidate detection process.

以下、第1の実施形態と異なる構成及び処理を中心に説明する。   Hereinafter, the configuration and processing different from those of the first embodiment will be mainly described.

本実施形態における顔候補検出部13は、画像処理によって画像から顔候補を検出する機能のほかに、前処理として照明補正を施す機能を有する。   The face candidate detection unit 13 in the present embodiment has a function of performing illumination correction as preprocessing in addition to a function of detecting face candidates from an image by image processing.

本実施形態における判定基準記憶部17は、判定基準のほかに、画像を複数の部分領域に区分するための部分領域情報と部分領域ごとの照明情報とを更に記憶する記憶装置である。   The determination criterion storage unit 17 in the present embodiment is a storage device that further stores, in addition to the determination criterion, partial region information for dividing an image into a plurality of partial regions and illumination information for each partial region.

次に、本実施形態における判定基準、部分領域情報及び部分領域ごとの照明情報の一例を図14に示す。上述したように、本実施形態の撮像部11で撮影される画像は図13のように画像下部ほど大きい顔が写る傾向にあり、更に、屋内にある顔と屋外にある顔とで照明環境が異なる傾向にある。そこで、図14の例では、部分領域情報として、判定基準記憶部17に画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域41〜43に区分するための情報を設定する(ここでの部分領域の定義は第1の実施形態と同様である)。また、判定基準(顔サイズの範囲を規定するための情報)及び照明情報として、画像上部の部分領域41に「5〜20」と「朝;明るい、昼;明るい、夜;暗い」、画像中部の部分領域42に「20〜35」と「朝;暗い、昼;暗い、夜;明るい」、画像下部の部分領域43に「35〜50」と「朝;暗い、昼;暗い、夜;明るい」とが設定されている。なお、照明情報は、「明るい」、「暗い」のような属性ではなく、照明環境に対応する数値や、照明補正に用いられるパラメータで規定されてもよい。   Next, FIG. 14 shows an example of determination criteria, partial area information, and illumination information for each partial area in the present embodiment. As described above, the image captured by the imaging unit 11 of the present embodiment tends to have a larger face at the lower part of the image as shown in FIG. 13, and the illumination environment includes an indoor face and an outdoor face. Tend to be different. Therefore, in the example of FIG. 14, as the partial area information, information for dividing the entire image into three partial areas 41 to 43 of “upper part of image”, “middle part of image”, and “lower part of image” in the determination criterion storage unit 17. (The definition of the partial area here is the same as in the first embodiment). In addition, as determination criteria (information for defining the face size range) and illumination information, “5 to 20” and “morning; bright, daytime; bright, night; "20-35" and "morning; dark, daytime; dark, night; bright" in the partial area 42 of the image, "35-50" and "morning; dark, daytime; dark, night; bright" in the partial area 43 below the image Is set. The illumination information may be defined not by attributes such as “bright” and “dark” but by numerical values corresponding to the illumination environment and parameters used for illumination correction.

<顔検出機能>
図15のフローチャートに沿って、本実施形態の顔検出装置の機能及び処理の流れを説明する。
<Face detection function>
The function and processing flow of the face detection apparatus of this embodiment will be described with reference to the flowchart of FIG.

本実施形態の顔検出装置は一定の時間間隔で顔検出機能を実行する。顔検出機能が起動すると、撮像部11で撮影された画像が、顔検出処理に用いるために取り込まれる(ステップS31)。入力された画像は画像記憶部12に撮影時刻情報と共に格納される。なお、必要に応じて、ユーザは、顔検出処理用の画像を表示部15で確認することができる。   The face detection apparatus according to the present embodiment executes the face detection function at regular time intervals. When the face detection function is activated, an image captured by the imaging unit 11 is captured for use in face detection processing (step S31). The input image is stored in the image storage unit 12 together with shooting time information. If necessary, the user can check the face detection processing image on the display unit 15.

次に、顔候補検出部13が判定基準記憶部17から部分領域情報と部分領域ごとに予め設定された照明情報とを読み込み(ステップS32)、部分領域ごとに照明情報に基づいて照明補正を施す(ステップS33)。ここで、顔候補検出部13は、照明情報として「暗い」と設定されている場合、画像を明るくするように明るさやコントラストなどを調節し、「明るい」と設定されている場合、画像を暗くするように明るさやコントラストなどを調節して画像全体を同程度の明るさにする。つまり、顔候補検出部13が部分領域ごとに照明補正を施すことにより、図13の画像は、図16のような画像になる。   Next, the face candidate detection unit 13 reads the partial region information and the illumination information set in advance for each partial region from the determination criterion storage unit 17 (step S32), and performs illumination correction based on the illumination information for each partial region. (Step S33). Here, the face candidate detection unit 13 adjusts the brightness and contrast so as to brighten the image when the illumination information is set to “dark”, and darkens the image when set to “bright”. Adjust the brightness, contrast, etc. to make the entire image as bright as possible. That is, when the face candidate detection unit 13 performs illumination correction for each partial region, the image of FIG. 13 becomes an image as shown in FIG.

そして、顔候補検出部13は照明補正が施された画像から顔候補の検出を行う(ステップS34)。   Then, the face candidate detection unit 13 detects a face candidate from the image that has been subjected to illumination correction (step S34).

次に、非顔判定部14が判定基準記憶部17から部分領域情報と部分領域ごとに予め設定された判定基準とを読み込み(ステップS35)、顔候補が顔であるか非顔であるかを該顔候補の検出位置に対応する判定基準を用いて判定し、非顔を除いた顔候補を顔として出力する(ステップS36)。   Next, the non-face determination unit 14 reads the partial region information and the determination criterion set in advance for each partial region from the determination criterion storage unit 17 (step S35), and determines whether the face candidate is a face or a non-face. Judgment is made using a judgment criterion corresponding to the detection position of the face candidate, and the face candidate excluding the non-face is output as a face (step S36).

そして、ステップS37では、非顔判定部14の判定結果が顔検出処理結果として結果記憶部16に格納される。結果記憶部16に格納される顔検出処理結果の情報は、顔検出処理に用いた画像及びその撮影時刻と、検出された顔の数とその検出位置の情報が好ましい。ユーザは、目的に応じた撮影時刻と顔検出処理結果の表示方法とを入力することで、顔検出処理結果を表示部15で確認することができる。前記表示方法は入力された撮影時刻の総顔検出数であってもよいし、前記撮影時刻に撮影された画像を表示し、前記検出位置に印を付けるなどであってもよい。   In step S37, the determination result of the non-face determination unit 14 is stored in the result storage unit 16 as the face detection processing result. The information of the face detection process result stored in the result storage unit 16 is preferably an image used for the face detection process, its photographing time, the number of detected faces, and information on the detection position. The user can check the face detection processing result on the display unit 15 by inputting the photographing time and the display method of the face detection processing result according to the purpose. The display method may be the total number of detected faces at the input shooting time, or may display the image shot at the shooting time and mark the detection position.

以上述べたように、本実施形態では、顔候補検出部13が画像から顔候補を検出する前に、部分領域ごとに照明補正を施す。これにより、画像全体の照明環境をそろえることができるので、照明補正を施さない顔検出処理よりも、高精度な顔検出処理が実行できる。   As described above, in this embodiment, before the face candidate detection unit 13 detects a face candidate from the image, illumination correction is performed for each partial region. Thereby, since the illumination environment of the whole image can be prepared, a highly accurate face detection process can be performed rather than the face detection process which does not perform illumination correction.

なお、本実施形態では同じ部分領域に顔サイズの範囲を規定するための情報と照明情報を設定しているが、種々の情報ごとに部分領域を設定してもよい。顔サイズの範囲を規定するための情報は、第1の実施形態で述べたように関数でもよい。   In this embodiment, the information for defining the face size range and the illumination information are set in the same partial area, but the partial area may be set for each of various types of information. The information for defining the face size range may be a function as described in the first embodiment.

なお、当該照明情報はユーザが設定してもよいし、インターネットなどを介して自動的に照明情報(天気情報など)を取得・設定するなどしてもよい。例えば、本実施形態では、部分領域ごとに時間帯ごとの照明情報が設定してある。しかし、天気などによって時間帯ごとの照明状態が変化する場合には(例えば、晴れの日は屋外が明るいが、曇りの日は暗いなど)、そのつど照明情報の設定が必要になる。そのような場合に、インターネットなどを介して自動的に照明情報(天気情報)を取得し、それに応じて画像の明るさ補正を行うことによって、そのつど照明情報の設定をしなくても時間帯ごとに適切な照明情報を設定することができる。   The lighting information may be set by the user, or the lighting information (such as weather information) may be automatically acquired and set via the Internet or the like. For example, in this embodiment, illumination information for each time zone is set for each partial region. However, when the lighting state varies depending on the time zone depending on the weather (for example, the outdoors is bright on a clear day but dark on a cloudy day), it is necessary to set illumination information each time. In such a case, the lighting information (weather information) is automatically acquired via the Internet, and the brightness of the image is corrected accordingly. Appropriate lighting information can be set for each.

なお、第1〜3の実施形態は、夫々、画像の部分領域ごとに予め検出される顔の大きさが決まっている場合、予め検出される顔の向きが決まっている場合、予め検出される顔の照明環境が決まっている場合に好ましく適用できる。例えば、第3の実施形態では屋内と屋外の照明環境の違いを想定した例を挙げているが、画像の一部が照明で照らされている場合などにも好ましく適用できる。   In the first to third embodiments, the size of the face detected in advance is determined for each partial region of the image, and the direction of the face detected in advance is determined in advance. This can be preferably applied when the lighting environment of the face is determined. For example, in the third embodiment, an example in which a difference between indoor and outdoor illumination environments is assumed is described, but the present invention can be preferably applied to a case where a part of an image is illuminated with illumination.

図1は、第1の実施形態における撮像部の設置様態を示す図である。FIG. 1 is a diagram illustrating an installation mode of an imaging unit according to the first embodiment. 図2は、第1の実施形態における撮像部で撮影された画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of an image captured by the imaging unit according to the first embodiment. 図3は、顔検出装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the face detection apparatus. 図4は、第1の実施形態における判定基準の一例を示す図である。FIG. 4 is a diagram illustrating an example of the determination criterion according to the first embodiment. 図5は、第1の実施形態及び第2の実施形態における顔検出装置の処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of processing of the face detection apparatus in the first embodiment and the second embodiment. 図6は、ステップS14の処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing the process flow of step S14. 図7は、判定基準の一例を示す図である。FIG. 7 is a diagram illustrating an example of determination criteria. 図8は、第2の実施形態における撮像部の設置様態を示す図である。FIG. 8 is a diagram illustrating an installation mode of the imaging unit in the second embodiment. 図9は、第2の実施形態における撮像部で撮影された画像の一例を示す図である。FIG. 9 is a diagram illustrating an example of an image captured by the imaging unit according to the second embodiment. 図10は、第2の実施形態における判定基準の一例を示す図である。FIG. 10 is a diagram illustrating an example of a determination criterion according to the second embodiment. 図11は、判定基準の一例を示す図である。FIG. 11 is a diagram illustrating an example of a determination criterion. 図12は、第3の実施形態における撮像部の設置様態を示す図である。FIG. 12 is a diagram illustrating an installation state of the imaging unit in the third embodiment. 図13は、第3の実施形態における撮像部で撮影された画像の一例を示す図である。FIG. 13 is a diagram illustrating an example of an image photographed by the imaging unit according to the third embodiment. 図14は、第3の実施形態における部分領域情報、判定基準及び照明情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of partial region information, determination criteria, and illumination information in the third embodiment. 図15は、第3の実施形態における顔検出装置の処理の流れを示すフローチャートである。FIG. 15 is a flowchart illustrating a process flow of the face detection apparatus according to the third embodiment. 図16は、照明補正後の画像の一例を示す図である。FIG. 16 is a diagram illustrating an example of an image after illumination correction.

符号の説明Explanation of symbols

11 撮像部
12 画像記憶部
13 顔候補検出部
14 非顔判定部
15 表示部
16 結果記憶部
17 判定基準記憶部
21〜23,31〜33,41〜43 部分領域
24a〜24f,34a〜34c 顔候補
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Image memory | storage part 13 Face candidate detection part 14 Non-face determination part 15 Display part 16 Result storage part 17 Judgment reference | standard storage part 21-23, 31-33, 41-43 Partial region 24a-24f, 34a-34c Face Candidate

Claims (5)

撮像手段と、
前記撮像手段で撮影された画像から顔候補を検出する顔候補検出手段と、
前記撮影された画像内にある顔候補の顔サイズの値により顔か非顔かを判定する判定基準であって、前記撮影された画像内の縦方向の位置座標が上方になるにつれて顔と判定すべき顔サイズの上限値および下限値が共に小さくなるような判定基準を記憶する判定基準記憶手段と、
前記顔候補が顔であるか非顔であるかを、前記判定基準と前記顔候補の顔サイズとを比較することによって判定する非顔判定手段と、
非顔と判定された顔候補を除いた顔候補を顔として出力する非顔排除手段と、
を備える顔検出装置。
Imaging means;
Face candidate detection means for detecting a face candidate from an image taken by the imaging means;
A determination criterion for determining whether a face is a face or a non-face based on a face size value of a face candidate in the photographed image, and the face is determined as the vertical position coordinates in the photographed image are upward. Determination criterion storage means for storing determination criteria such that both the upper limit value and the lower limit value of the face size to be reduced are reduced ;
Non-face determination means for determining whether the face candidate is a face or a non-face by comparing the determination criterion and the face size of the face candidate;
Non-face removing means for outputting face candidates excluding face candidates determined as non-faces as faces,
A face detection apparatus comprising:
前記判定基準記憶手段は、前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとの照明情報とを更に記憶し、
前記顔候補検出手段は、前記画像から顔候補を検出する前に、部分領域ごとに前記照明情報に基づいて照明補正を施す
請求項1に記載の顔検出装置。
The determination criterion storage means further stores partial area information for dividing an image photographed by the imaging means into a plurality of partial areas and illumination information for each partial area,
The face candidate detection means performs illumination correction based on the illumination information for each partial area before detecting a face candidate from the image.
The face detection apparatus according to claim 1 .
前記判定基準記憶手段は、時間帯ごとに異なる照明情報を記憶可能であり、
前記顔候補検出手段は、前記画像の撮影時刻に基づいて照明補正に用いる照明情報を決定する
請求項に記載の顔検出装置。
The determination criterion storage means can store different illumination information for each time zone,
The face detection apparatus according to claim 2 , wherein the face candidate detection unit determines illumination information used for illumination correction based on a shooting time of the image.
撮像手段で撮影された画像から顔を検出する顔検出処理を行うコンピュータが、
前記撮像手段で撮影された画像から顔候補を検出し、
前記撮影された画像内にある顔候補の顔サイズの値により顔か非顔かを判定する判定基準であって、前記撮影された画像内の縦方向の位置座標が上方になるにつれて顔と判定すべき顔サイズの上限値および下限値が共に小さくなるような判定基準を記憶しており、
前記顔候補が顔であるか非顔であるかを、前記判定基準と前記顔候補の顔サイズとを比較することによって判定し、
非顔と判定された顔候補を除いた顔候補を顔として出力する
顔検出方法。
A computer that performs face detection processing for detecting a face from an image captured by an imaging unit,
Detecting a face candidate from the image taken by the imaging means;
A determination criterion for determining whether a face is a face or a non-face based on a face size value of a face candidate in the photographed image, and the face is determined as the vertical position coordinates in the photographed image are upward. Judgment criteria are stored so that the upper and lower limits of the face size to be reduced are both small ,
Determining whether the face candidate is a face or a non-face by comparing the criterion and the face size of the face candidate ;
A face detection method of outputting face candidates excluding face candidates determined as non-faces as faces.
撮像手段で撮影された画像から顔を検出する顔検出処理を行うコンピュータに、
前記撮像手段で撮影された画像から顔候補を検出するステップと、
前記撮影された画像内にある顔候補の顔サイズの値により顔か非顔かを判定する判定基準であって、前記撮影された画像内の縦方向の位置座標が上方になるにつれて顔と判定すべき顔サイズの上限値および下限値が共に小さくなるような判定基準を記憶するステップと、
前記顔候補が顔であるか非顔であるかを、前記判定基準と前記顔候補の顔サイズとを比較することによって判定するステップと、
非顔と判定された顔候補を除いた顔候補を顔として出力するステップと、
を実行させるための顔検出プログラム。
To a computer that performs face detection processing for detecting a face from an image taken by an imaging means,
Detecting a face candidate from an image photographed by the imaging means;
A determination criterion for determining whether a face is a face or a non-face based on a face size value of a face candidate in the photographed image, and the face is determined as the vertical position coordinates in the photographed image are upward. Storing a determination criterion such that both the upper limit value and the lower limit value of the face size to be reduced are reduced ;
A step of determining by the face candidate whether a non-face or a face, and compares the face size of the face candidate and the criterion,
Outputting face candidates excluding face candidates determined as non-faces as faces;
Face detection program for running.
JP2007088222A 2007-03-29 2007-03-29 Face detection device, face detection method, and face detection program Active JP4798042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007088222A JP4798042B2 (en) 2007-03-29 2007-03-29 Face detection device, face detection method, and face detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007088222A JP4798042B2 (en) 2007-03-29 2007-03-29 Face detection device, face detection method, and face detection program

Publications (2)

Publication Number Publication Date
JP2008250444A JP2008250444A (en) 2008-10-16
JP4798042B2 true JP4798042B2 (en) 2011-10-19

Family

ID=39975357

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007088222A Active JP4798042B2 (en) 2007-03-29 2007-03-29 Face detection device, face detection method, and face detection program

Country Status (1)

Country Link
JP (1) JP4798042B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5227888B2 (en) * 2009-05-21 2013-07-03 富士フイルム株式会社 Person tracking method, person tracking apparatus, and person tracking program
CN102906790B (en) 2010-05-26 2015-10-07 松下电器(美国)知识产权公司 Image information processing device
KR101665392B1 (en) * 2010-07-15 2016-10-12 한화테크윈 주식회사 Shape detection method in camera
JP5609555B2 (en) * 2010-11-05 2014-10-22 セイコーエプソン株式会社 Image processing apparatus, program, and image processing method
JP5830851B2 (en) * 2010-11-19 2015-12-09 セイコーエプソン株式会社 Image processing apparatus, image processing program, and image processing method
JP5934653B2 (en) 2010-11-29 2016-06-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image classification device, image classification method, program, recording medium, integrated circuit, model creation device
WO2012147256A1 (en) 2011-04-25 2012-11-01 パナソニック株式会社 Image-processing device
JP2017097510A (en) * 2015-11-20 2017-06-01 ソニー株式会社 Image processing apparatus, image processing method, and program
JP6525934B2 (en) 2016-10-14 2019-06-05 キヤノン株式会社 Image processing apparatus and control method
CN109614848B (en) * 2018-10-24 2021-07-20 百度在线网络技术(北京)有限公司 Human body recognition method, device, equipment and computer readable storage medium

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3651745B2 (en) * 1998-03-17 2005-05-25 株式会社東芝 Object region tracking apparatus and object region tracking method
JP4461747B2 (en) * 2003-09-10 2010-05-12 オムロン株式会社 Object determination device
JP4509654B2 (en) * 2004-05-31 2010-07-21 セコム株式会社 Sensing device
JP2006221355A (en) * 2005-02-09 2006-08-24 Hitachi Ltd Monitoring device and monitoring system
JP4873216B2 (en) * 2005-03-15 2012-02-08 オムロン株式会社 Surveillance system and method, unauthorized player recognition server and method, and program
JP2007058722A (en) * 2005-08-26 2007-03-08 Fujifilm Corp Learning method for discriminator, object discrimination apparatus, and program
JP2007066010A (en) * 2005-08-31 2007-03-15 Fujifilm Corp Learning method for discriminator, object discrimination apparatus, and program
JP2007066114A (en) * 2005-08-31 2007-03-15 Fujifilm Software Co Ltd Sorting method and apparatus using sorter
JP2008035125A (en) * 2006-07-27 2008-02-14 Canon Inc Image pickup device, image processing method, and program

Also Published As

Publication number Publication date
JP2008250444A (en) 2008-10-16

Similar Documents

Publication Publication Date Title
JP4798042B2 (en) Face detection device, face detection method, and face detection program
CN105611230B (en) Image processing apparatus and image processing method
US8189869B2 (en) Method of motion detection and autonomous motion tracking using dynamic sensitivity masks in a pan-tilt camera
US9049397B2 (en) Image processing device and image processing method
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
US20210281748A1 (en) Information processing apparatus
US20120219180A1 (en) Automatic Detection of Vertical Gaze Using an Embedded Imaging Device
CN102147856A (en) Image recognition apparatus and its control method
CN102244728B (en) Apparatus and method for subject tracking
JP2010086336A (en) Image control apparatus, image control program, and image control method
JP2010130087A (en) Monitoring system and method
CN102414717A (en) Method of selecting an optimal viewing angle position for a camera
WO2020137193A1 (en) Human detection device and human detection method
CN113012383A (en) Fire detection alarm method, related system, related equipment and storage medium
US9773143B2 (en) Image processing apparatus, image processing method, and image processing system
JP7074174B2 (en) Discriminator learning device, discriminator learning method and computer program
JP2008234578A (en) Face detecting device, face detecting method and face detecting program
JP2017157043A (en) Image processing device, imaging device, and image processing method
US11394877B2 (en) Control apparatus, image pickup apparatus, and control method
JP2011055291A (en) Video display device and program
JP2008211534A (en) Face detecting device
JP2013029996A (en) Image processing device
JP5843618B2 (en) Image processing apparatus, control method thereof, and program
JP6460510B2 (en) Image processing apparatus, image processing method, and program
JP2001285849A (en) Photographing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4798042

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150