JP2008234578A - Face detecting device, face detecting method and face detecting program - Google Patents

Face detecting device, face detecting method and face detecting program Download PDF

Info

Publication number
JP2008234578A
JP2008234578A JP2007077107A JP2007077107A JP2008234578A JP 2008234578 A JP2008234578 A JP 2008234578A JP 2007077107 A JP2007077107 A JP 2007077107A JP 2007077107 A JP2007077107 A JP 2007077107A JP 2008234578 A JP2008234578 A JP 2008234578A
Authority
JP
Japan
Prior art keywords
face
face detection
image
condition
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007077107A
Other languages
Japanese (ja)
Inventor
Ayako Hirano
綾子 平野
Yoshiharu Sakuragi
美春 櫻木
Atsushi Katayama
敦司 片山
Masataka Kimura
雅孝 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2007077107A priority Critical patent/JP2008234578A/en
Publication of JP2008234578A publication Critical patent/JP2008234578A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology for efficiently executing high-accuracy facial detection processing, using a simple constitution. <P>SOLUTION: A face-detecting condition storage part 16 stores partial area information for dividing an image photographed by an imaging means 11 into a plurality of partial areas, and a facial detection conditions preset with respective partial areas. A face-detecting part 13 omits the facial detection processing that does not correspond to the face-detecting conditions set in the belonging partial area of a facial detection position, when executing the face-detecting processing for detecting a face in the image. Here, various conditions, such as, the facial size condition for determining the size of the face that is set as a detecting object, a facial direction condition for determining the direction of the face that is the detecting object and illumination condition, can be selected as the face-detecting conditions. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像から顔を検出する顔検出装置に関する。   The present invention relates to a face detection apparatus that detects a face from an image.

画像から顔を検出する顔検出装置は、顔を精度よく検出することが望まれている。   A face detection device that detects a face from an image is desired to detect the face with high accuracy.

このような課題に鑑みた従来技術として、入力画像から算出した顔との想定距離と距離センサにより測定した測定距離とを比較して顔か非顔かの判定を行う対象物検出装置がある(特許文献1参照)。   As a conventional technique in view of such a problem, there is an object detection device that compares an estimated distance with a face calculated from an input image and a measured distance measured by a distance sensor to determine whether it is a face or a non-face ( Patent Document 1).

しかし、この装置は顔検出部の他に距離センサを必要とするため、装置構成が大掛かりになり、装置コストも増加する。更に、顔検出処理に前記距離センサにより測定した測定距離の情報を用いるため、処理負荷は増加する。   However, since this apparatus requires a distance sensor in addition to the face detection unit, the apparatus configuration becomes large and the apparatus cost also increases. Furthermore, since the information on the measured distance measured by the distance sensor is used for the face detection process, the processing load increases.

一方、2台のカメラで撮影された画像を三次元復元する画像処理装置がある(特許文献2参照)。この装置は、前記画像の三次元情報を用いて顔を検出する。   On the other hand, there is an image processing apparatus that three-dimensionally restores images taken by two cameras (see Patent Document 2). This apparatus detects a face using the three-dimensional information of the image.

しかし、この装置は2台のカメラを必要とするため、装置構成が大掛かりになり、装置コストも増加する。更に、前記画像の三次元情報を用いるため、処理負荷は増加する。
特開2005−78376号公報 特開2005−301833号公報
However, since this apparatus requires two cameras, the apparatus configuration becomes large and the apparatus cost increases. Furthermore, since the three-dimensional information of the image is used, the processing load increases.
JP-A-2005-78376 JP 2005-301833 A

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、簡易な構成で、高精度な顔検出処理を効率的に実行するための技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for efficiently executing highly accurate face detection processing with a simple configuration.

上記目的を達成するために本発明は、以下の構成を採用する。   In order to achieve the above object, the present invention adopts the following configuration.

本発明に係る顔検出装置は、撮像手段と、前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとに予め設定された顔検出条件とを記憶する顔検出条件記憶手段と、前記画像から顔を検出する顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔検出条件に該当しない顔検出処理を省略する顔検出手段と、を備える。   The face detection apparatus according to the present invention stores an imaging means, partial area information for dividing an image photographed by the imaging means into a plurality of partial areas, and a face detection condition preset for each partial area. And a face detection unit that omits face detection processing that does not meet the face detection condition set in the partial region to which the face detection position belongs when executing face detection processing for detecting a face from the image And comprising.

本発明では部分領域ごとに異なる顔検出条件を設定しておくことができる。本発明の顔検出処理は、部分領域ごとに予め設定された顔検出条件を用いるので、画像全体を同一条件で行う顔検出処理よりも精度の向上が期待できる。更に、本発明の顔検出処理は、部分領域ごとに設定された顔検出条件に該当しない顔検出処理を省略できるので、画像全体を全ての条件で行う顔検出処理よりも効率化できる。また、従来技術は距離センサや2台目のカメラが必要であったのに対し、本発明は付加機器を必要としないため、簡易な構成である。   In the present invention, different face detection conditions can be set for each partial region. Since the face detection process of the present invention uses a face detection condition set in advance for each partial region, an improvement in accuracy can be expected compared to the face detection process in which the entire image is performed under the same condition. Furthermore, the face detection process of the present invention can eliminate the face detection process that does not correspond to the face detection condition set for each partial region, and therefore can be more efficient than the face detection process that performs the entire image under all conditions. Further, while the conventional technique requires a distance sensor and a second camera, the present invention does not require an additional device, and thus has a simple configuration.

ここで、顔検出条件は、検出対象とする顔の大きさを定める顔サイズ条件、検出対象とする顔の向きを定める顔向き条件、照明条件など、様々な条件を選ぶことができる。   Here, various conditions such as a face size condition that determines the size of the face to be detected, a face direction condition that determines the orientation of the face to be detected, and an illumination condition can be selected as the face detection condition.

前記顔サイズ条件を部分領域ごとに設定することにより、あり得ない大きさの顔をはじめから排除できるため、誤検出の低減が期待できる。具体的には、前記顔検出手段は、異なる顔の大きさに対応する複数の顔検出ウィンドウを有しており、前記画像から顔検出ウィンドウを用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔サイズ条件に応じた顔検出ウィンドウによる顔検出処理を行うとよい。これにより、顔検出処理は、部分領域ごとに設定された顔サイズ条件に応じた顔検出ウィンドウ以外の顔検出ウィンドウによる顔検出処理を省略できるため、画像全体について全ての顔検出ウィンドウで行う顔検出処理よりも効率化できる。   By setting the face size condition for each partial area, it is possible to exclude faces with an impossible size from the beginning, so that reduction of false detection can be expected. Specifically, the face detection means has a plurality of face detection windows corresponding to different face sizes, and when performing face detection processing using the face detection window from the image, face detection is performed. It is preferable to perform face detection processing using a face detection window according to the face size condition set in the partial region to which the position belongs. As a result, the face detection process can be omitted in the face detection window other than the face detection window according to the face size condition set for each partial region, and thus face detection performed in all face detection windows for the entire image. More efficient than processing.

前記顔向き条件を部分領域ごとに設定することにより、検出精度の向上及び誤検出の低減が期待できる。具体的には、前記顔検出手段は、異なる顔向きに対応する複数の顔検出器を有しており、前記画像から顔検出器を用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔向き条件に応じた顔検出器を用いて顔検出処理を行うとよい。これにより、顔検出処理は、部分領域ごとに設定された顔向き条件に応じた顔検出器以外の顔検出器による顔検出処理を省略できるため、画像全体について全ての顔検出器を用いて行う顔検出処理よりも効率化できる。   By setting the face orientation condition for each partial region, an improvement in detection accuracy and a reduction in false detection can be expected. Specifically, the face detection means includes a plurality of face detectors corresponding to different face orientations, and when performing face detection processing using the face detector from the image, the face detection position is detected. The face detection process may be performed using a face detector corresponding to the face orientation condition set for the partial region to which the image belongs. Accordingly, the face detection process can be omitted by using all the face detectors for the entire image because the face detection process by a face detector other than the face detector corresponding to the face orientation condition set for each partial region can be omitted. More efficient than face detection processing.

前記照明条件を部分領域ごとに設定することにより、検出精度の向上及び誤検出の低減が期待できる。具体的には、前記顔検出手段は、異なる照明環境に対応する複数の顔検出器を有しており、前記画像から顔検出器を用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された照明条件に応じた顔検出器を用いて顔検出処理を行うとよい。これにより、顔検出処理は、部分領域ごとに設定された照明条件に応じた顔検出器以外の顔検出器による顔検出処理を省略できるため、画像全体について全ての顔検出器を用いて行う顔検出処理よりも効率化できる。   By setting the illumination condition for each partial region, it is possible to expect improvement in detection accuracy and reduction in false detection. Specifically, the face detection means has a plurality of face detectors corresponding to different illumination environments, and when performing face detection processing using the face detector from the image, the face detection position is detected. The face detection process may be performed using a face detector corresponding to the illumination condition set for the partial region to which the image belongs. As a result, the face detection processing can be omitted by using a face detector other than the face detector according to the illumination condition set for each partial region, and therefore the face to be performed using all the face detectors for the entire image. More efficient than detection processing.

本発明は、上記顔検出条件のうちいずれか1つの顔検出条件に応じて顔検出処理を行ってもよいし、2つ以上の顔検出条件の組み合わせに応じて顔検出処理を行ってもよい。複数の顔検出条件を組み合わせれば、更に絞り込まれた条件で顔検出処理が行えるので、顔検出処理の効率化は向上する。   In the present invention, face detection processing may be performed according to any one of the face detection conditions described above, or face detection processing may be performed according to a combination of two or more face detection conditions. . If a plurality of face detection conditions are combined, the face detection process can be performed under further narrowed conditions, so that the efficiency of the face detection process is improved.

また、本発明は、上記手段の少なくとも一部を有する顔検出装置として捉えてもよいし、上記処理の少なくとも一部を含む顔検出方法、または、かかる方法を実現するための顔検出プログラムやそのプログラムを記録した記録媒体として捉えることもできる。なお、上記手段及び処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。   Further, the present invention may be regarded as a face detection device having at least a part of the above means, a face detection method including at least a part of the above process, a face detection program for realizing such a method, and It can also be understood as a recording medium on which the program is recorded. Each of the above means and processes can be combined with each other as much as possible to constitute the present invention.

本発明によれば、画像中の部分領域ごとに顔検出条件を予め設定でき、付加機器を必要としないため、簡易な構成で、高精度な顔検出処理を効率的に実行することが可能である。   According to the present invention, face detection conditions can be set in advance for each partial region in an image, and no additional device is required. Therefore, highly accurate face detection processing can be efficiently executed with a simple configuration. is there.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings.

<第1の実施形態>
第1の実施形態では、本発明を通行人や侵入者などを監視するための監視装置に適用した例を挙げる。この種の監視装置では図1のように撮像部11が人の頭より高い位置の天井や壁などに固定されており、監視エリアを俯瞰するような撮影画像を得ることが多い。この状況下で、撮像部11が撮影する画像は図2のように画像上部の顔は小さく写り、画像下部の顔は大きく写る傾向にある。このような傾向に着目し、本実施形態における顔検
出処理は撮像部11で撮影された画像を複数の部分領域に区分し、部分領域ごとに検出対象とする顔の大きさを変える。なお、本発明は本実施形態の監視装置のような固定カメラに好ましく適用することができるが、本発明は固定カメラに限らず、あらゆる撮影装置に適用することが可能である。
<First Embodiment>
In the first embodiment, an example in which the present invention is applied to a monitoring device for monitoring a passerby or an intruder is given. In this type of monitoring apparatus, as shown in FIG. 1, the imaging unit 11 is fixed to a ceiling, a wall, or the like that is higher than a person's head, and in many cases, a captured image overlooking the monitoring area is obtained. Under this circumstance, the image captured by the imaging unit 11 tends to appear as a small face at the top of the image and a large face at the bottom of the image as shown in FIG. Focusing on this tendency, the face detection process in this embodiment divides the image captured by the imaging unit 11 into a plurality of partial areas, and changes the size of the face to be detected for each partial area. Note that the present invention can be preferably applied to a fixed camera such as the monitoring apparatus of the present embodiment, but the present invention is not limited to a fixed camera and can be applied to any photographing apparatus.

<装置構成>
図3は本発明の実施形態に係る顔検出装置の機能構成を示すブロック図である。顔検出装置は、概略、撮像部11、画像記憶部12、顔検出部13、表示部14、結果記憶部15、顔検出条件記憶部16を備えている。本実施形態では、これらの機能要素は、コンピュータの演算処理装置がソフトウエア(プログラム)を実行し、必要に応じてカメラ、メモリ、ディスプレイなどのハードウエア資源を制御することで実現される。ただし、これらの機能要素を専用のチップで構成しても構わない。
<Device configuration>
FIG. 3 is a block diagram showing a functional configuration of the face detection apparatus according to the embodiment of the present invention. The face detection apparatus generally includes an imaging unit 11, an image storage unit 12, a face detection unit 13, a display unit 14, a result storage unit 15, and a face detection condition storage unit 16. In the present embodiment, these functional elements are realized by an arithmetic processing unit of a computer executing software (program) and controlling hardware resources such as a camera, a memory, and a display as necessary. However, these functional elements may be configured by a dedicated chip.

撮像部11としては、光学系と撮像素子(CCD、CMOSセンサなど)を備えるデジタルカメラを好ましく適用できる。   As the imaging unit 11, a digital camera including an optical system and an imaging element (CCD, CMOS sensor, etc.) can be preferably applied.

画像記憶部12は、処理対象となる画像を一時的に記憶する記憶装置である。この記憶装置としては、揮発性メモリや不揮発性メモリなど、どのような具体的技術が適用されてもよい。   The image storage unit 12 is a storage device that temporarily stores an image to be processed. As the storage device, any specific technique such as a volatile memory or a nonvolatile memory may be applied.

顔検出部13は、画像処理によって画像から顔を検出する顔検出処理を実行する機能である。顔検出部13による顔検出処理は、既存のどのような技術が適用されてもよい。一例を挙げると、顔全体の輪郭に対応した基準テンプレートを用いたテンプレートマッチングによって顔を検出する手法、顔の器官(目、鼻、耳など)に基づくテンプレートマッチングによって顔を検出する手法、クロマキー処理によって頭部などの頂点を検出し、この頂点に基づいて顔を検出する手法、肌の色に近い領域を検出し、その領域を顔として検出する手法、ニューラルネットワークを使って教師信号による学習を行い、顔らしい領域を顔として検出する手法、などがある。   The face detection unit 13 has a function of executing face detection processing for detecting a face from an image by image processing. Any existing technique may be applied to the face detection processing by the face detection unit 13. For example, a method for detecting a face by template matching using a reference template corresponding to the contour of the entire face, a method for detecting a face by template matching based on a facial organ (eg, eyes, nose, ears), chroma key processing Detecting vertices such as the head, detecting a face based on the vertices, detecting a region close to the skin color, detecting that region as a face, and learning with a teacher signal using a neural network And a method for detecting a face-like area as a face.

表示部14としては、液晶ディスプレイなど、どのような具体的技術が適用されてもよい。   As the display unit 14, any specific technique such as a liquid crystal display may be applied.

結果記憶部15は、顔検出部13による顔検出処理の結果を記憶する記憶装置である。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The result storage unit 15 is a storage device that stores the result of the face detection process performed by the face detection unit 13. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

顔検出条件記憶部16は、撮像部11で撮影された画像を複数の部分領域に区分するための部分領域情報と、部分領域ごとに予め設定された顔検出条件と、を記憶する記憶装置である。この記憶装置としては、不揮発性メモリやハードディスクなど、どのような具体的技術が適用されてもよい。   The face detection condition storage unit 16 is a storage device that stores partial area information for dividing an image captured by the imaging unit 11 into a plurality of partial areas, and face detection conditions set in advance for each partial area. is there. As the storage device, any specific technique such as a nonvolatile memory or a hard disk may be applied.

本実施形態における部分領域情報と顔検出条件の一例を図4に示す。上述したように、本実施形態の撮像部11で撮影される画像は図2のように画像上部の顔は小さく写り、画像下部の顔は大きく写る傾向にある。そこで、図4の例では、部分領域情報として、画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域21〜23に区分する情報を設定する。ここでは四角形の部分領域を設定しており、部分領域は四角形の対角に位置する頂点の始点座標と終点座標の2つの座標で定義される。なお、部分領域の形は四角形でなく、多角形や円形などでもよい。部分領域情報は、部分領域の形状・位置・大きさを定義できれば、どのような形式でもよい。また、顔検出条件として、検出対象とする顔の大きさを定める顔サイズ条件を設定する(ここでは画像上部の部分領域21に
「小」、画像中部の部分領域22に「中」、画像下部の部分領域23に「大」という顔サイズ条件が設定されている。)。なお、顔サイズ条件は、「大」、「中」、「小」のような属性でもよいし、顔の大きさに対応する数値でもよいし、(後述する)顔検出ウィンドウのサイズなどでもよい。
An example of partial area information and face detection conditions in this embodiment is shown in FIG. As described above, the image photographed by the imaging unit 11 of the present embodiment has a tendency that the face at the top of the image appears small and the face at the bottom of the image appears large as shown in FIG. Therefore, in the example of FIG. 4, information that divides the entire image into three partial areas 21 to 23 called “upper part of image”, “middle part of image”, and “lower part of image” is set as partial area information. Here, a quadrangular partial area is set, and the partial area is defined by two coordinates of a start point coordinate and an end point coordinate of a vertex located at the diagonal of the quadrangle. The shape of the partial area is not a quadrangle, but may be a polygon or a circle. The partial area information may be in any format as long as the shape, position, and size of the partial area can be defined. Further, a face size condition that determines the size of the face to be detected is set as the face detection condition (here, “small” in the partial area 21 at the top of the image, “medium” in the partial area 22 in the middle of the image, and the lower part of the image) The face size condition of “Large” is set in the partial area 23). The face size condition may be an attribute such as “large”, “medium”, or “small”, a numerical value corresponding to the size of the face, or the size of a face detection window (described later). .

<顔検出機能>
図5及び図6のフローチャートに沿って、本実施形態の顔検出装置の機能及び処理の流れを説明する。
<Face detection function>
The function and processing flow of the face detection apparatus of this embodiment will be described with reference to the flowcharts of FIGS.

本実施形態の顔検出装置は一定の時間間隔で顔検出機能を実行する。顔検出機能が起動すると、撮像部11で撮影された画像が、顔検出処理に用いるために取り込まれる(ステップS11)。入力された画像は画像記憶部12に撮影時刻情報と共に格納される。なお、必要に応じて、ユーザは、顔検出処理用の画像を表示部14で確認することができる。   The face detection apparatus according to the present embodiment executes the face detection function at regular time intervals. When the face detection function is activated, an image captured by the imaging unit 11 is captured for use in face detection processing (step S11). The input image is stored in the image storage unit 12 together with shooting time information. Note that the user can check the face detection processing image on the display unit 14 as necessary.

次に、顔検出部13が、顔検出条件記憶部16から部分領域情報と部分領域ごとに予め設定された顔検出条件とを読み込み(ステップS12)、部分領域ごとに顔検出条件に応じた顔検出処理を行う(ステップS13)。   Next, the face detection unit 13 reads the partial area information and the face detection condition set in advance for each partial area from the face detection condition storage unit 16 (step S12), and the face corresponding to the face detection condition for each partial area. A detection process is performed (step S13).

図6は、ステップS13の顔検出処理の一具体例を示している。   FIG. 6 shows a specific example of the face detection process in step S13.

まず、顔検出部13が撮像部11で撮影された画像内の初期位置(例えば、図2の(X21、Y21))に顔検出位置を配置する(ステップS21)。   First, the face detection unit 13 places a face detection position at an initial position (for example, (X21, Y21) in FIG. 2) in the image captured by the imaging unit 11 (step S21).

次に、顔検出部13が、顔検出位置の座標と部分領域情報とを比較することによって、顔検出位置が属する部分領域を特定する(ステップS22)。そして、顔検出部13は、特定された部分領域に設定されている顔サイズ条件に基づいて、当該顔検出位置に適用する顔検出ウィンドウを選択する。   Next, the face detection unit 13 identifies the partial area to which the face detection position belongs by comparing the coordinates of the face detection position with the partial area information (step S22). Then, the face detection unit 13 selects a face detection window to be applied to the face detection position based on the face size condition set in the specified partial region.

顔検出ウィンドウとは、検出対象とする顔の大きさを規定するものである(つまり、顔検出ウィンドウと同程度の大きさの顔だけが検出され、顔検出ウィンドウよりも明らかに小さい顔や大きい顔は検出されない。)。本実施形態の顔検出部13は、様々な大きさの顔に対応するため、図2に示すようにサイズの異なる複数種類の顔検出ウィンドウ24a〜24iを有している。ただし、顔検出部13は、画像全体に対して全ての顔検出ウィンドウを一律に適用するのではなく、顔サイズ条件に従って、適用する顔検出ウィンドウを部分領域ごとに変えるのである。図2の例では、顔検出位置が部分領域21にある場合は「小」顔用の顔検出ウィンドウ24a〜24cが選択され、顔検出位置が部分領域22にある場合は「中」顔用の顔検出ウィンドウ24d〜24fが選択され、顔検出位置が部分領域23にある場合は「大」顔用の顔検出ウィンドウ24g〜24iが選択される。   The face detection window defines the size of the face to be detected (that is, only faces of the same size as the face detection window are detected, and a face that is clearly smaller or larger than the face detection window) Face is not detected.) The face detection unit 13 of the present embodiment has a plurality of types of face detection windows 24a to 24i having different sizes as shown in FIG. 2 in order to correspond to faces of various sizes. However, the face detection unit 13 does not uniformly apply all the face detection windows to the entire image, but changes the face detection window to be applied for each partial region according to the face size condition. In the example of FIG. 2, when the face detection position is in the partial area 21, the “small” face detection windows 24 a to 24 c are selected, and when the face detection position is in the partial area 22, the “medium” face is selected. When the face detection windows 24d to 24f are selected and the face detection position is in the partial area 23, the face detection windows 24g to 24i for the “large” face are selected.

そして、顔検出部13は、ステップS22で選択された顔検出ウィンドウの内のいずれかを顔検出位置に設定し(ステップS23)、顔検出処理を実行する(ステップS24)。次に、顔検出部13は、ステップS22で選択された複数の顔検出ウィンドウの内、顔検出処理に用いられていない顔検出ウィンドウがあるかどうかを判断する(ステップS25)。他の顔検出ウィンドウがあるとされた場合(ステップS25;YES)、顔検出位置にその顔検出ウィンドウを設定し(ステップS23)、顔検出処理を実行する(ステップS24)。ステップS22で選択された全ての顔検出ウィンドウについて顔検出処理が行われたら(ステップS25;NO)、当該顔検出位置についての処理を終了し、ステップS26に進む。   Then, the face detection unit 13 sets one of the face detection windows selected in step S22 as a face detection position (step S23), and executes face detection processing (step S24). Next, the face detection unit 13 determines whether there is a face detection window that is not used in the face detection process among the plurality of face detection windows selected in step S22 (step S25). When it is determined that there is another face detection window (step S25; YES), the face detection window is set at the face detection position (step S23), and the face detection process is executed (step S24). When face detection processing has been performed for all the face detection windows selected in step S22 (step S25; NO), the processing for the face detection position ends, and the process proceeds to step S26.

ステップS26では、顔検出部13は次の顔検出位置があるかどうかを判定し、次の顔
検出位置がある場合(ステップS26;YES)、顔検出位置を次の顔検出位置へ移動させる(ステップS27)。そして、次の顔検出位置についても、部分領域に応じた適切なサイズの顔検出ウィンドウを用いて顔検出処理が行われる(ステップS22〜S25)。次の顔検出位置が無くなるまで(画像の最後に到達するまで)ステップS22〜S25の工程を繰り返す(ステップS26)。なお、顔検出位置の移動量と移動経路25は予め顔検出部13にプログラムしておけばよい(図2は、顔検出位置が1画素ずつX方向に移動し、行の最後に到達したら1画素Y方向に移動する例を示している。)。
In step S26, the face detection unit 13 determines whether there is a next face detection position. If there is a next face detection position (step S26; YES), the face detection position is moved to the next face detection position (step S26). Step S27). Then, face detection processing is also performed for the next face detection position using a face detection window of an appropriate size corresponding to the partial area (steps S22 to S25). Steps S22 to S25 are repeated until there is no next face detection position (until the end of the image is reached) (step S26). Note that the movement amount of the face detection position and the movement path 25 may be programmed in advance in the face detection unit 13 (FIG. 2 shows that the face detection position moves 1 pixel at a time in the X direction and reaches 1 at the end of the line. An example of moving in the pixel Y direction is shown.).

次に、顔検出部13の顔検出処理結果が結果記憶部15に格納される(図5のステップS14)。結果記憶部15に格納される顔検出処理結果は、顔検出処理に用いた画像及びその撮影時刻と、検出された顔の数とその位置座標の情報が好ましい。ユーザは、目的に応じた撮影時刻と顔検出処理結果の表示方法とを入力することで、顔検出処理結果を表示部14で確認することができる。前記表示方法は入力された撮影時刻の総顔検出数であってもよいし、前記撮影時刻に撮影された画像を表示し、前記顔検出位置に印を付けるなどであってもよい。なお、本実施形態では顔検出処理(ステップS13)後に顔検出処理結果を結果記憶部15に格納しているが、顔検出処理中(例えばステップS24の後)に顔検出処理結果を結果記憶部15に格納してもよい。   Next, the face detection processing result of the face detection unit 13 is stored in the result storage unit 15 (step S14 in FIG. 5). The face detection process result stored in the result storage unit 15 is preferably an image used for the face detection process, its photographing time, the number of detected faces, and information on its position coordinates. The user can confirm the face detection processing result on the display unit 14 by inputting the photographing time and the display method of the face detection processing result according to the purpose. The display method may be the total number of face detections at the input shooting time, or may display an image shot at the shooting time and mark the face detection position. In this embodiment, the face detection process result is stored in the result storage unit 15 after the face detection process (step S13). However, the face detection process result is stored in the result storage unit during the face detection process (for example, after step S24). 15 may be stored.

以上述べたように、本実施形態では、画像上部の部分領域21では3つの顔検出ウィンドウ24a〜24cのみが用いられ、それ以外の顔検出ウィンドウ24d〜24iによる顔検出処理は省略される。同様に、部分領域22では、顔検出ウィンドウ24a〜24c及び24g〜24iによる顔検出処理が省略され、部分領域23では、顔検出ウィンドウ24a〜24fによる顔検出処理が省略される。そのため、図7のように画像全体について全ての顔検出ウィンドウ24a〜24iを用いるのに比べて、顔検出処理の効率化(演算量の削減)を図ることができる。また、部分領域ごとに予め適切な顔サイズ条件を設定することにより、あり得ない大きさの顔をはじめから排除できるため、誤検出の低減が期待できる。   As described above, in the present embodiment, only the three face detection windows 24a to 24c are used in the partial area 21 at the top of the image, and the face detection processing using the other face detection windows 24d to 24i is omitted. Similarly, in the partial area 22, the face detection processing by the face detection windows 24a to 24c and 24g to 24i is omitted, and in the partial area 23, the face detection processing by the face detection windows 24a to 24f is omitted. Therefore, compared to using all the face detection windows 24a to 24i for the entire image as shown in FIG. 7, it is possible to improve the efficiency of the face detection process (reduction in the amount of calculation). Further, by setting an appropriate face size condition for each partial area in advance, it is possible to exclude a face having an impossible size from the beginning, and therefore, it is possible to expect a reduction in false detection.

なお、本実施形態の顔検出ウィンドウの切替え方法は、顔検出位置ごとに顔検出ウィンドウの切替えを行っているが、1つの顔検出ウィンドウで1つの部分領域全体の顔検出処理を行った後に顔検出位置をその部分領域の初期位置に移し、顔検出ウィンドウの切替えを行ってもよい。   In the face detection window switching method according to the present embodiment, the face detection window is switched for each face detection position, but the face detection process is performed after performing face detection processing for one entire partial area using one face detection window. The face detection window may be switched by moving the detection position to the initial position of the partial area.

<第2の実施形態>
第2の実施形態では、T字型の通路の交差位置に撮像部11があり、撮像部11の前方向と左右方向には通路があるという状況下での顔検出装置について述べる(図8)。この状況下で、撮像部11が撮影する画像は、第1の実施形態と同様に画像下部ほど大きい顔が写る傾向にある。更に、画像上部では前方の通路を通る人が写るため、正面向きの顔が多く写り、画像中部では前方の通路と左右の通路との交差位置付近を通る人が写るため、左右斜め向きの顔が多く写り、画像下部では左右の通路を通る人が写るため、左右向きの顔が多く写る傾向にある(図9)。このような傾向に着目し、本実施形態における顔検出処理は、部分領域ごとに検出対象とする顔の大きさと向きを変える。
<Second Embodiment>
In the second embodiment, a face detection apparatus will be described in a situation where the imaging unit 11 is at the intersection of the T-shaped passage and there are passages in the front and left and right directions of the imaging unit 11 (FIG. 8). . Under this circumstance, the image captured by the imaging unit 11 tends to show a larger face at the lower part of the image, as in the first embodiment. Furthermore, in the upper part of the image, people pass through the front passage, so there are many faces facing the front. In the lower part of the image, people passing through the left and right passages appear, so there is a tendency for many left and right faces to appear (FIG. 9). Focusing on such a tendency, the face detection processing in the present embodiment changes the size and orientation of the face to be detected for each partial region.

以下、第1の実施形態と異なる構成及び処理を中心に説明する。   Hereinafter, the configuration and processing different from those of the first embodiment will be mainly described.

<装置構成>
本実施形態の顔検出部13は図10のように複数種類の顔検出器35a〜35eを有する。
<Device configuration>
The face detection unit 13 of this embodiment includes a plurality of types of face detectors 35a to 35e as shown in FIG.

ここで、顔検出器35a〜35eは、それぞれ異なる顔向きに対応する顔検出器である
。顔検出器35aは正面顔用の顔検出器であり、正面向き(例えば、真正面を0°とし、そこから左右に±10°の顔向き)の顔の検出に特化した顔検出器である。これは、学習用の教師画像として正面向きの顔画像のみを用いたり、あるいは正面顔専用の検出アルゴリズムを採用したりすることで実現できる。同様に、顔検出器35bは右斜め向きの顔の検出に特化した右斜め顔用の顔検出器であり、顔検出器35cは左斜め顔用の顔検出器、顔検出器35dは右顔用の顔検出器、顔検出器35eは左顔用の顔検出器である。
Here, the face detectors 35a to 35e are face detectors corresponding to different face orientations. The face detector 35a is a face detector for a front face, and is a face detector specialized in detecting a face facing the front (for example, the front is 0 ° and the face is ± 10 ° from side to side). . This can be realized by using only a front-facing face image as a learning teacher image or adopting a detection algorithm dedicated to the front face. Similarly, the face detector 35b is a face detector for a right oblique face specialized in detecting a right oblique face, the face detector 35c is a face detector for a left oblique face, and the face detector 35d is a right detector. The face detector for the face, the face detector 35e, is a face detector for the left face.

次に、本実施形態における部分領域情報と顔検出条件の一例を図11に示す。上述したように、本実施形態の撮像部11で撮影される画像は図9のように画像下部ほど大きい顔が写る傾向にあり、更に、画像上部では前方の通路を通る人が写るため、正面向きの顔が多く写り、画像中部では前方の通路と左右の通路との交差位置付近を通る人が写るため、左右斜め向きの顔が多く写り、画像下部では左右の通路を通る人が写るため、左右向きの顔が多く写る傾向にある。そこで、図11の例では、部分領域情報として、画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域31〜33に区分する情報を設定する(ここでの部分領域の定義は第1の実施形態と同様である)。また、顔検出条件として、顔サイズ条件と検出対象とする顔の向きを定める顔向き条件とを設定する(ここでは画像上部の部分領域31に「小」と「正面」、画像中部の部分領域32に「中」と「斜め」、画像下部の部分領域33に「大」と「左右」という顔サイズ条件と顔向き条件とが設定されている。)。なお、顔向き条件は、第1の実施形態で述べた顔サイズ条件と同様に「正面」、「斜め」、「左右」のような属性でもよいし、顔の向きに対応する数値でもよいし、顔検出器の識別子などでもよい。   Next, FIG. 11 shows an example of partial area information and face detection conditions in the present embodiment. As described above, the image photographed by the imaging unit 11 of the present embodiment tends to have a larger face as the lower part of the image as shown in FIG. Many faces are shown, and people in the middle of the image pass through the vicinity of the intersection between the front passage and the left and right passages, so there are many faces that appear diagonally left and right, and people in the lower part of the image pass through the left and right passages. , There is a tendency to see a lot of left and right faces. Therefore, in the example of FIG. 11, information that divides the entire image into three partial areas 31 to 33, “upper part of image”, “middle part of image”, and “lower part of image” is set as the partial area information (partial here) The definition of the area is the same as in the first embodiment). Further, as face detection conditions, face size conditions and face orientation conditions that determine the orientation of the face to be detected are set (here, “small” and “front” in the partial area 31 at the top of the image, and partial areas in the middle of the image The face size condition and the face orientation condition of “medium” and “diagonal” are set in 32, and “large” and “left and right” are set in the partial area 33 below the image). The face orientation condition may be an attribute such as “front”, “diagonal”, “left / right” as in the face size condition described in the first embodiment, or may be a numerical value corresponding to the face orientation. It may be an identifier of a face detector.

<顔検出機能>
本実施形態の顔検出装置の機能はステップS13の顔検出処理を除いて第1の実施形態と同様であるため、その記述を省略し、ここでは図12のフローチャートに沿って、本実施形態の顔検出処理(ステップS13)について詳しく説明する。
<Face detection function>
Since the function of the face detection apparatus of this embodiment is the same as that of the first embodiment except for the face detection process in step S13, the description thereof is omitted, and here, according to the flowchart of FIG. The face detection process (step S13) will be described in detail.

まず、顔検出部13が撮像部11で撮影された画像内の初期位置に顔検出位置を配置する(ステップS31)。   First, the face detection unit 13 places the face detection position at the initial position in the image captured by the imaging unit 11 (step S31).

次に、顔検出部13が、顔検出位置の座標と部分領域情報とを比較することによって、顔検出位置が属する部分領域を特定する(ステップS32)。そして、顔検出部13は、特定された部分領域に設定されている顔サイズ条件と顔向き条件とに基づいて、当該顔検出位置に適用する顔検出ウィンドウと顔検出器とを選択する。   Next, the face detection unit 13 identifies the partial area to which the face detection position belongs by comparing the coordinates of the face detection position with the partial area information (step S32). Then, the face detection unit 13 selects a face detection window and a face detector to be applied to the face detection position based on the face size condition and face orientation condition set in the specified partial region.

前述したように、本実施形態の顔検出部13は、サイズの異なる複数種類の顔検出ウィンドウ34a〜34iの他に、異なる顔向きに対応する複数種類の顔検出器35a〜35eを有している。ただし、顔検出部13は、画像全体に対して全ての顔検出ウィンドウと顔検出器を一律に適用するのではなく、顔サイズ条件と顔向き条件に従って、適用する顔検出ウィンドウと顔検出器を部分領域ごとに変えるのである。図9の例では、顔検出位置が部分領域31にある場合は「小」顔用の顔検出ウィンドウ34a〜34cと「正面」顔用の顔検出器35aとが選択され、顔検出位置が部分領域32にある場合は「中」顔用の顔検出ウィンドウ34d〜34fと「斜め」顔用の顔検出器35b及び35cとが選択され、顔検出位置が部分領域33にある場合は「大」顔用の顔検出ウィンドウ34g〜34iと「左右」顔用の顔検出器35d及び35eとが選択される。   As described above, the face detection unit 13 of this embodiment includes a plurality of types of face detectors 35a to 35e corresponding to different face orientations in addition to a plurality of types of face detection windows 34a to 34i having different sizes. Yes. However, the face detection unit 13 does not apply all face detection windows and face detectors uniformly to the entire image, but applies the face detection window and face detector to be applied according to face size conditions and face orientation conditions. It changes for each partial area. In the example of FIG. 9, when the face detection position is in the partial area 31, the face detection windows 34 a to 34 c for “small” face and the face detector 35 a for “front” face are selected, and the face detection position is partially If it is in the area 32, the face detection windows 34 d to 34 f for the “medium” face and the face detectors 35 b and 35 c for the “oblique” face are selected, and “large” if the face detection position is in the partial area 33. Face detection windows 34g-34i for faces and face detectors 35d and 35e for "left and right" faces are selected.

そして、顔検出部13は、ステップS32で選択された顔検出ウィンドウと顔検出器の組み合わせの内、いずれかを顔検出位置に設定し(ステップS33)、顔検出処理を実行する(ステップS34)。次に、顔検出部13は、ステップS32で選択された複数の顔検出器の内、顔検出処理に用いられていない顔検出器があるかどうかを判断する(ステッ
プS35)。他の顔検出器があるとされた場合(ステップS35;YES)、顔検出位置にその顔検出器を設定し(ステップS33)、顔検出処理を実行する(ステップS34)。ステップS32で選択された全ての顔検出器について顔検出処理が行われたら(ステップS35;NO)、ステップS32で選択された複数の顔検出ウィンドウの内、顔検出処理に用いられていない顔検出ウィンドウがあるかどうかを判断する(ステップS36)。ステップS32で選択された顔検出ウィンドウと顔検出器の全ての組み合わせについて顔検出処理が行われたら(ステップS36;NO)、当該顔検出位置についての処理を終了し、ステップS37に進む。
Then, the face detection unit 13 sets one of the combinations of the face detection window and the face detector selected in step S32 as a face detection position (step S33), and executes face detection processing (step S34). . Next, the face detection unit 13 determines whether there is a face detector that is not used in the face detection process among the plurality of face detectors selected in Step S32 (Step S35). If it is determined that there is another face detector (step S35; YES), the face detector is set at the face detection position (step S33), and face detection processing is executed (step S34). When face detection processing is performed for all the face detectors selected in step S32 (step S35; NO), face detection that is not used in face detection processing among the plurality of face detection windows selected in step S32 It is determined whether there is a window (step S36). When face detection processing is performed for all combinations of the face detection window and face detector selected in step S32 (step S36; NO), the processing for the face detection position is terminated, and the process proceeds to step S37.

ステップS37では、顔検出部13は次の顔検出位置があるかどうかを判定し、次の顔検出位置がある場合(ステップS37;YES)、顔検出位置を次の顔検出位置へ移動させる(ステップS38)。そして、次の顔検出位置についても、部分領域に応じた適切なサイズの顔検出ウィンドウ及び適切な顔向きの顔検出器を用いて顔検出処理が行われる(ステップS32〜S36)。次の顔検出位置が無くなるまで(画像の最後に到達するまで)ステップS32〜S36の工程を繰り返す(ステップS37)。   In step S37, the face detection unit 13 determines whether there is a next face detection position. If there is a next face detection position (step S37; YES), the face detection position is moved to the next face detection position (step S37). Step S38). Then, the face detection process is also performed for the next face detection position using a face detection window of an appropriate size corresponding to the partial area and a face detector having an appropriate face orientation (steps S32 to S36). Steps S32 to S36 are repeated until there is no next face detection position (until the end of the image is reached) (step S37).

以上述べたように、本実施形態では、画像上部の部分領域31では3つの顔検出ウィンドウ34a〜34cと1つの顔検出器35aのみが用いられ、それ以外の顔検出ウィンドウ34d〜34iと顔検出器35b〜35eとによる顔検出処理は省略される。同様に、部分領域32では、顔検出ウィンドウ34a〜34c及び34g〜34iと顔検出器35a及び35d、35eとによる顔検出処理が省略され、部分領域33では、顔検出ウィンドウ34a〜34fと顔検出器35a〜35cとによる顔検出処理が省略される。そのため、画像全体について全ての顔検出ウィンドウ34a〜34iと顔検出器35a〜35eを用いるのに比べて、顔検出処理の効率化(演算量の削減)を図ることができる。また、部分領域ごとに予め適切な顔向き条件を設定することにより、検出精度の向上及び誤検出の低減が期待できる。   As described above, in the present embodiment, only the three face detection windows 34a to 34c and one face detector 35a are used in the partial area 31 at the top of the image, and the other face detection windows 34d to 34i and face detection are performed. The face detection process by the devices 35b to 35e is omitted. Similarly, in the partial area 32, face detection processing by the face detection windows 34a to 34c and 34g to 34i and the face detectors 35a, 35d and 35e is omitted, and in the partial area 33, the face detection windows 34a to 34f and face detection are performed. The face detection process by the devices 35a to 35c is omitted. Therefore, compared to using all the face detection windows 34a to 34i and the face detectors 35a to 35e for the entire image, it is possible to improve the efficiency of face detection processing (reduction in the amount of calculation). In addition, by setting an appropriate face orientation condition for each partial region in advance, an improvement in detection accuracy and a reduction in false detection can be expected.

なお、本実施形態の部分領域情報は顔サイズ条件と顔向き条件とで共通の部分領域を設定しているが、それぞれ独立した部分領域を設定してもよい。また、顔検出ウィンドウ及び顔検出器の切替え方法は、顔検出位置ごとに顔検出ウィンドウ及び顔検出器の切替えを行っているが、一組の顔検出ウィンドウと顔検出器で1つの部分領域全体の顔検出処理を行った後に顔検出位置をその部分領域の初期位置に移し、顔検出ウィンドウの切替えを行ってもよい。   In the partial area information of the present embodiment, a common partial area is set for the face size condition and the face orientation condition, but independent partial areas may be set. Further, the face detection window and face detector switching method switches the face detection window and face detector for each face detection position, but one set of face detection window and face detector is used for the entire partial area. After performing the face detection processing, the face detection position may be moved to the initial position of the partial area, and the face detection window may be switched.

<第3の実施形態>
第3の実施形態では、撮像部11が屋内から屋外を向くように設置してあり、撮像部11で撮影される画像には屋内と屋外の両方が写るという状況下での顔検出装置について述べる(図13)。この状況下で、撮像部11が撮影する画像は、第1の実施形態と同様に画像下部ほど大きい顔が写る傾向にある。更に、図14のように、屋内にある顔と屋外にある顔とで照明環境が異なる傾向にある(例えば、屋外が屋内より明るい場合、屋外の顔は明るく写り、屋内の顔は逆光により暗く写るなど)。このような傾向に着目し、本実施形態における顔検出処理は、部分領域ごとに検出対象とする顔の大きさと照明環境を変える。
<Third Embodiment>
In the third embodiment, a face detection apparatus will be described in a situation where the imaging unit 11 is installed so as to face indoors and outdoors, and an image captured by the imaging unit 11 includes both indoors and outdoors. (FIG. 13). Under this circumstance, the image captured by the imaging unit 11 tends to show a larger face at the lower part of the image, as in the first embodiment. Furthermore, as shown in FIG. 14, the lighting environment tends to be different between the indoor face and the outdoor face (for example, when the outdoor is brighter than the indoor, the outdoor face appears bright, and the indoor face becomes dark due to backlight. Etc.) Focusing on such a tendency, the face detection process in the present embodiment changes the size of the face to be detected and the illumination environment for each partial region.

以下、第1の実施形態と異なる構成及び処理を中心に説明する。   Hereinafter, the configuration and processing different from those of the first embodiment will be mainly described.

<装置構成>
本実施形態の顔検出部13は図15のように複数種類の顔検出器45a〜45eを有する。
<Device configuration>
The face detection unit 13 of the present embodiment includes a plurality of types of face detectors 45a to 45e as shown in FIG.

ここで、顔検出器45a〜45eは、それぞれ異なる照明環境に対応する顔検出器である。顔検出器45aは明るい顔用の顔検出器であり、明るい照明環境下の顔の検出に特化した顔検出器である。これは、学習用の教師画像として明るい照明環境下の顔画像のみを用いたり、あるいは明るい顔専用の検出アルゴリズムを採用したりすることで実現できる。同様に、顔検出器45bはやや明るい照明環境下の顔の検出に特化したやや明るい顔用の顔検出器であり、顔検出器45cは普通の顔用の顔検出器、顔検出器45dはやや暗い顔用の顔検出器、顔検出器45eは暗い顔用の顔検出器である。   Here, the face detectors 45a to 45e are face detectors corresponding to different illumination environments. The face detector 45a is a face detector for a bright face, and is a face detector specialized for detecting a face under a bright illumination environment. This can be realized by using only a face image under a bright illumination environment as a learning teacher image or adopting a detection algorithm dedicated to a bright face. Similarly, the face detector 45b is a face detector for a slightly bright face specialized for detection of a face in a slightly bright illumination environment, and the face detector 45c is a face detector for a normal face, a face detector 45d. The face detector for a slightly dark face and the face detector 45e are face detectors for a dark face.

次に、本実施形態における部分領域情報と顔検出条件の一例を図16に示す。上述したように、本実施形態の撮像部11で撮影される画像は図14のように画像下部ほど大きい顔が写る傾向にあり、更に、屋内にある顔と屋外にある顔とで照明環境が異なる傾向にある。そこで、図16の例では、部分領域情報として、画像全体を「画像上部」、「画像中部」、「画像下部」という3つの部分領域41〜43に区分する情報を設定する(ここでの部分領域の定義は第1の実施形態と同様である)。また、顔検出条件として、顔サイズ条件と検出対象とする顔の照明環境を定める照明条件とを設定する(ここでは画像上部の部分領域41に「小」と「明るい」、画像中部の部分領域42に「中」と「暗い」、画像下部の部分領域43に「大」と「暗い」という顔サイズ条件と照明条件とが設定されている。)。なお、照明条件は、第1の実施形態で述べた顔サイズ条件と同様に「明るい」、「暗い」のような属性でもよいし、照明環境に対応する数値でもよいし、顔検出器の識別子などでもよい。   Next, FIG. 16 shows an example of partial area information and face detection conditions in the present embodiment. As described above, the image captured by the imaging unit 11 of the present embodiment tends to have a larger face at the lower part of the image as shown in FIG. 14, and the illumination environment includes an indoor face and an outdoor face. Tend to be different. Therefore, in the example of FIG. 16, information for dividing the entire image into three partial areas 41 to 43 of “upper part of image”, “middle part of image”, and “lower part of image” is set as the partial area information (parts here) The definition of the area is the same as in the first embodiment). In addition, as face detection conditions, face size conditions and illumination conditions that determine the illumination environment of the face to be detected are set (here, “small” and “bright” in the partial area 41 at the top of the image, and the partial area in the middle of the image The face size condition and the illumination condition of “medium” and “dark” are set in 42, and “large” and “dark” are set in the partial area 43 below the image. The illumination condition may be an attribute such as “bright” or “dark” as in the face size condition described in the first embodiment, may be a numerical value corresponding to the illumination environment, or may be an identifier of the face detector. Etc.

<顔検出機能>
本実施形態の顔検出装置の機能はステップS13の顔検出処理を除いて第1の実施形態と同様であるため、その記述を省略し、ここでは図12のフローチャートに沿って、本実施形態の顔検出処理(ステップS13)について詳しく説明する。
<Face detection function>
Since the function of the face detection apparatus of this embodiment is the same as that of the first embodiment except for the face detection process in step S13, the description thereof is omitted, and here, according to the flowchart of FIG. The face detection process (step S13) will be described in detail.

まず、顔検出部13が撮像部11で撮影された画像内の初期位置に顔検出位置を配置する(ステップS31)。   First, the face detection unit 13 places the face detection position at the initial position in the image captured by the imaging unit 11 (step S31).

次に、顔検出部13が、顔検出位置の座標と部分領域情報とを比較することによって、顔検出位置が属する部分領域を特定する(ステップS32)。そして、顔検出部13は、特定された部分領域に設定されている顔サイズ条件と照明条件とに基づいて、当該顔検出位置に適用する顔検出ウィンドウと顔検出器とを選択する。   Next, the face detection unit 13 identifies the partial area to which the face detection position belongs by comparing the coordinates of the face detection position with the partial area information (step S32). Then, the face detection unit 13 selects a face detection window and a face detector to be applied to the face detection position based on the face size condition and the illumination condition set in the specified partial region.

前述したように、本実施形態の顔検出部13は、サイズの異なる複数種類の顔検出ウィンドウ44a〜44iの他に、異なる照明環境に対応する複数種類の顔検出器45a〜45eを有している。ただし、顔検出部13は、画像全体に対して全ての顔検出ウィンドウと顔検出器を一律に適用するのではなく、顔サイズ条件と照明条件に従って、適用する顔検出ウィンドウと顔検出器を部分領域ごとに変えるのである。図14の例では、顔検出位置が部分領域41にある場合は「小」顔用の顔検出ウィンドウ44a〜44cと「明るい」顔用の顔検出器45a及び45bとが選択され、顔検出位置が部分領域42にある場合は「中」顔用の顔検出ウィンドウ44d〜44fと「暗い」顔用の顔検出器45d及び45eとが選択され、顔検出位置が部分領域43にある場合は「大」顔用の顔検出ウィンドウ44g〜44iと「暗い」顔用の顔検出器45d及び45eとが選択される。   As described above, the face detection unit 13 of this embodiment includes a plurality of types of face detectors 45a to 45e corresponding to different illumination environments in addition to a plurality of types of face detection windows 44a to 44i having different sizes. Yes. However, the face detection unit 13 does not apply all face detection windows and face detectors uniformly to the entire image, but partially applies the face detection windows and face detectors to be applied according to face size conditions and illumination conditions. It changes from region to region. In the example of FIG. 14, when the face detection position is in the partial area 41, the face detection windows 44a to 44c for the “small” face and the face detectors 45a and 45b for the “bright” face are selected, and the face detection position is selected. Is in the partial area 42, the face detection windows 44d to 44f for the “medium” face and the face detectors 45d and 45e for the “dark” face are selected, and when the face detection position is in the partial area 43, “ Face detection windows 44g-44i for the “large” face and face detectors 45d and 45e for the “dark” face are selected.

そして、顔検出部13は、ステップS32で選択された顔検出ウィンドウと顔検出器の組み合わせの内、いずれかを顔検出位置に設定し(ステップS33)、顔検出処理を実行する(ステップS34)。次に、顔検出部13は、ステップS32で選択された複数の顔検出器の内、顔検出処理に用いられていない顔検出器があるかどうかを判断する(ステップS35)。他の顔検出器があるとされた場合(ステップS35;YES)、顔検出位置
にその顔検出器を設定し(ステップS33)、顔検出処理を実行する(ステップS34)。ステップS32で選択された全ての顔検出器について顔検出処理が行われたら(ステップS35;NO)、ステップS32で選択された複数の顔検出ウィンドウの内、顔検出処理に用いられていない顔検出ウィンドウがあるかどうかを判断する(ステップS36)。ステップS32で選択された顔検出ウィンドウと顔検出器の全ての組み合わせについて顔検出処理が行われたら(ステップS36;NO)、当該顔検出位置についての処理を終了し、ステップS37に進む。
Then, the face detection unit 13 sets one of the combinations of the face detection window and the face detector selected in step S32 as a face detection position (step S33), and executes face detection processing (step S34). . Next, the face detection unit 13 determines whether there is a face detector that is not used in the face detection process among the plurality of face detectors selected in Step S32 (Step S35). If it is determined that there is another face detector (step S35; YES), the face detector is set at the face detection position (step S33), and face detection processing is executed (step S34). When face detection processing is performed for all the face detectors selected in step S32 (step S35; NO), face detection that is not used in face detection processing among the plurality of face detection windows selected in step S32 It is determined whether there is a window (step S36). When face detection processing is performed for all combinations of the face detection window and face detector selected in step S32 (step S36; NO), the processing for the face detection position is terminated, and the process proceeds to step S37.

ステップS37では、顔検出部13は次の顔検出位置があるかどうかを判定し、次の顔検出位置がある場合(ステップS37;YES)、顔検出位置を次の顔検出位置へ移動させる(ステップS38)。そして、次の顔検出位置についても、部分領域に応じた適切なサイズの顔検出ウィンドウ及び適切な顔向きの顔検出器を用いて顔検出処理が行われる(ステップS32〜S36)。次の顔検出位置が無くなるまで(画像の最後に到達するまで)ステップS32〜S36の工程を繰り返す(ステップS37)。   In step S37, the face detection unit 13 determines whether there is a next face detection position. If there is a next face detection position (step S37; YES), the face detection position is moved to the next face detection position (step S37). Step S38). Then, the face detection process is also performed for the next face detection position using a face detection window of an appropriate size corresponding to the partial area and a face detector having an appropriate face orientation (steps S32 to S36). Steps S32 to S36 are repeated until there is no next face detection position (until the end of the image is reached) (step S37).

以上述べたように、本実施形態では、画像上部の部分領域41では3つの顔検出ウィンドウ44a〜44cと2つの顔検出器45a及び45bのみが用いられ、それ以外の顔検出ウィンドウ44d〜44iと顔検出器45c〜45eとによる顔検出処理は省略される。同様に、部分領域42では、顔検出ウィンドウ44a〜44c及び44g〜44iと顔検出器45a〜45cとによる顔検出処理が省略され、部分領域43では、顔検出ウィンドウ44a〜44fと顔検出器45a〜45cとによる顔検出処理が省略される。そのため、画像全体について全ての顔検出ウィンドウ44a〜44iと顔検出器45a〜45eを用いるのに比べて、顔検出処理の効率化(演算量の削減)を図ることができる。また、部分領域ごとに予め適切な照明条件を設定することにより、検出精度の向上及び誤検出の低減が期待できる。   As described above, in the present embodiment, only the three face detection windows 44a to 44c and the two face detectors 45a and 45b are used in the partial area 41 at the top of the image, and the other face detection windows 44d to 44i are used. The face detection process by the face detectors 45c to 45e is omitted. Similarly, in the partial area 42, face detection processing by the face detection windows 44a to 44c and 44g to 44i and the face detectors 45a to 45c is omitted, and in the partial area 43, the face detection windows 44a to 44f and the face detector 45a are omitted. The face detection process by ~ 45c is omitted. Therefore, compared to using all the face detection windows 44a to 44i and the face detectors 45a to 45e for the entire image, it is possible to improve the efficiency of face detection processing (reduction in the amount of calculation). In addition, by setting an appropriate illumination condition for each partial region in advance, an improvement in detection accuracy and a reduction in false detection can be expected.

なお、本実施形態の部分領域情報は顔サイズ条件と照明条件とで共通の部分領域を設定しているが、それぞれ独立した部分領域を設定してもよい。また、顔検出ウィンドウ及び顔検出器の切替え方法は、顔検出位置ごとに顔検出ウィンドウ及び顔検出器の切替えを行っているが、一組の顔検出ウィンドウと顔検出器で1つの部分領域全体の顔検出処理を行った後に顔検出位置をその部分領域の初期位置に移し、顔検出ウィンドウの切替えを行ってもよい。   In the partial area information of this embodiment, a common partial area is set for the face size condition and the illumination condition, but independent partial areas may be set. Further, the face detection window and face detector switching method switches the face detection window and face detector for each face detection position, but one set of face detection window and face detector is used for the entire partial area. After performing the face detection processing, the face detection position may be moved to the initial position of the partial area, and the face detection window may be switched.

<第4の実施形態>
第4の実施形態では、図17のように撮像部11で撮影された画像に写る範囲で前方と左右に壁があるという状況下での顔検出装置について述べる(前方の壁は行き止まりである必要は無く、T字型の通路の様に左右に通路があってもよい)。この状況下で、撮像部11が撮影する画像は、第1の実施形態と同様に画像下部ほど大きい顔が写る傾向にある。更に、図18のように、撮像部11が撮影する画像の一部(例えば、前述した左右の壁及び前側の壁など)に顔の写り得ない領域を有する傾向にある。このような傾向に着目し、本実施形態における顔検出処理は、部分領域ごとに検出対象とする顔の大きさと顔検出処理を行うか否かを変える。
<Fourth Embodiment>
In the fourth embodiment, as shown in FIG. 17, a face detection device will be described in a situation where there are walls on the front and left and right within the range of an image captured by the imaging unit 11 (the front wall needs to be a dead end). There may be a passage on the left and right like a T-shaped passage). Under this circumstance, the image captured by the imaging unit 11 tends to show a larger face at the lower part of the image, as in the first embodiment. Furthermore, as shown in FIG. 18, there is a tendency that a part of an image photographed by the imaging unit 11 (for example, the left and right walls and the front wall described above) cannot include a face. Focusing on such a tendency, the face detection process in the present embodiment changes the size of the face to be detected and whether or not to perform the face detection process for each partial region.

以下、第1の実施形態と異なる構成及び処理を中心に説明する。   Hereinafter, the configuration and processing different from those of the first embodiment will be mainly described.

本実施形態における部分領域情報と顔検出条件の一例を図19に示す。上述したように、本実施形態の撮像部11で撮影される画像は図18のように画像下部ほど大きい顔が写る傾向にあり、更に、撮像部11が撮影する画像の一部に顔の写り得ない領域を有する傾向にある。そこで、図19の例では、部分領域情報として、画像全体を「画像左上部」、「画像右上部」、「画像上部」、「画像中部」、「画像下部」という5つの部分領域51
〜55に区分する情報を設定する(ここでの部分領域の定義は第1の実施形態と同様である)。また、顔検出条件として、顔サイズ条件と顔検出処理を行うか否かを定める顔検出処理実行の有無条件とを設定する(ここでは画像左上部と画像右上部、画像上部の部分領域51〜53に「未設定」と「顔検出処理実行無し」、画像中部の部分領域54に「中」と「顔検出処理実行有り」、画像下部の部分領域55に「大」と「顔検出処理実行有り」という顔サイズ条件と顔検出処理実行の有無条件とが設定されている。)。なお、顔検出処理実行の有無条件は、第1の実施形態で述べた顔サイズ条件と同様に「顔検出処理実行無し」、「顔検出処理実行有り」のような属性でもよいし、顔検出処理を行うか否かに対応する数値でもよい。
An example of partial area information and face detection conditions in this embodiment is shown in FIG. As described above, the image photographed by the imaging unit 11 of the present embodiment tends to show a larger face at the lower part of the image as shown in FIG. 18, and the image of the face appears in a part of the image photographed by the imaging unit 11. There is a tendency to have areas that cannot be obtained. Therefore, in the example of FIG. 19, as the partial area information, the entire image is divided into five partial areas 51, which are “upper left part of image”, “upper right part of image”, “upper part of image”, “middle part of image”, and “lower part of image”.
Information to be divided into .about.55 is set (the definition of the partial area here is the same as in the first embodiment). As face detection conditions, face size conditions and presence / absence conditions for executing face detection processing for determining whether or not to perform face detection processing are set (here, the upper left portion of the image, the upper right portion of the image, and the partial regions 51 to 51 at the upper portion of the image). 53 is “not set” and “no face detection processing is executed”, “middle” and “face detection processing is executed” in the partial area 54 in the middle of the image, “large” and “face detection processing is executed in the partial area 55 in the lower part of the image A face size condition “Yes” and a condition for whether or not to perform face detection processing are set.). Note that the presence / absence condition of the face detection process execution may be an attribute such as “no face detection process execution” or “face detection process execution” as in the face size condition described in the first embodiment. A numerical value corresponding to whether or not to perform processing may be used.

<顔検出機能>
本実施形態の顔検出装置の機能はステップS13の顔検出処理を除いて第1の実施形態と同様であるため、その記述を省略し、ここでは図20のフローチャートに沿って、本実施形態の顔検出処理(ステップS13)について詳しく説明する。
<Face detection function>
Since the function of the face detection apparatus of this embodiment is the same as that of the first embodiment except for the face detection process in step S13, the description thereof is omitted, and here, the function of this embodiment is described along the flowchart of FIG. The face detection process (step S13) will be described in detail.

まず、顔検出部13が撮像部11で撮影された画像内の初期位置に顔検出位置を配置する(ステップS51)。   First, the face detection unit 13 places the face detection position at the initial position in the image captured by the imaging unit 11 (step S51).

次に、顔検出部13が、顔検出位置の座標と部分領域情報とを比較することによって、顔検出位置が属する部分領域を特定する(ステップS52)。そして、顔検出部13は、特定された部分領域に設定されている顔サイズ条件と顔検出処理実行の有無条件とに基づいて、当該顔検出位置に適用する顔検出ウィンドウと顔検出処理を行うか否かを選択する。   Next, the face detection unit 13 identifies the partial area to which the face detection position belongs by comparing the coordinates of the face detection position with the partial area information (step S52). Then, the face detection unit 13 performs a face detection window and a face detection process to be applied to the face detection position based on the face size condition set in the specified partial region and the presence / absence condition of the face detection process. Select whether or not.

本実施形態の顔検出部13は、サイズの異なる複数種類の顔検出ウィンドウ56a〜56fを有している。ただし、顔検出部13は、画像全体に対して全ての顔検出ウィンドウを一律に適用するのではなく、顔サイズ条件と顔検出処理実行の有無条件に従って、適用する顔検出ウィンドウと顔検出処理を行うか否かを部分領域ごとに変えるのである。図18の例では、顔検出位置が部分領域51〜53にある場合、顔検出ウィンドウは選択されず、当該顔検出位置での顔検出処理は行われない。顔検出位置が部分領域54にある場合は「中」顔用の顔検出ウィンドウ56a〜56cが選択され、当該顔検出位置での顔検出処理が行われる。そして、顔検出位置が部分領域55にある場合は「大」顔用の顔検出ウィンドウ56d〜56fが選択され、当該顔検出位置での顔検出処理が行われる。   The face detection unit 13 of the present embodiment has a plurality of types of face detection windows 56a to 56f having different sizes. However, the face detection unit 13 does not uniformly apply all the face detection windows to the entire image, but applies the face detection window and the face detection process to be applied according to the face size condition and the presence / absence condition of the face detection process. Whether or not to do this is changed for each partial area. In the example of FIG. 18, when the face detection position is in the partial areas 51 to 53, the face detection window is not selected, and the face detection process at the face detection position is not performed. When the face detection position is in the partial region 54, face detection windows 56a to 56c for the “medium” face are selected, and face detection processing at the face detection position is performed. When the face detection position is in the partial area 55, the face detection windows 56d to 56f for the “large” face are selected, and the face detection process at the face detection position is performed.

そして、顔検出部13はステップS53で顔検出処理を行うか否かを判定する。「顔検出処理実行有り」とされた場合(ステップS53;YES)、ステップS54に進み、当該顔検出位置での処理を続け、「顔検出処理実行無し」とされた場合(ステップS53;NO)、当該顔検出位置についての処理を終了し、ステップS57に進む。   Then, the face detection unit 13 determines whether or not to perform face detection processing in step S53. When it is determined that “face detection processing is performed” (step S53; YES), the process proceeds to step S54, and processing at the face detection position is continued, and when “face detection processing is not performed” is determined (step S53; NO). Then, the process for the face detection position ends, and the process proceeds to step S57.

次に、顔検出部13はステップS52で選択された顔検出ウィンドウの内、いずれかを顔検出位置に設定し(ステップS54)、顔検出処理を実行する(ステップS55)。次に、顔検出部13は、ステップS52で選択された複数の顔検出ウィンドウの内、顔検出処理に用いられていない顔検出ウィンドウがあるかどうかを判断する(ステップS56)。他の顔検出ウィンドウがあるとされた場合(ステップS56;YES)、顔検出位置にその顔検出ウィンドウを設定し(ステップS54)、顔検出処理を実行する(ステップS55)。ステップS52で選択された全ての顔検出ウィンドウについて顔検出処理が行われたら(ステップS56;NO)、当該顔検出位置についての処理を終了し、ステップS57に進む。   Next, the face detection unit 13 sets one of the face detection windows selected in step S52 as a face detection position (step S54), and executes face detection processing (step S55). Next, the face detection unit 13 determines whether there is a face detection window that is not used in the face detection process among the plurality of face detection windows selected in step S52 (step S56). If it is determined that there is another face detection window (step S56; YES), the face detection window is set at the face detection position (step S54), and face detection processing is executed (step S55). When face detection processing has been performed for all the face detection windows selected in step S52 (step S56; NO), the processing for the face detection position ends, and the process proceeds to step S57.

ステップS57では、顔検出部13は次の顔検出位置があるかどうかを判定し、次の顔
検出位置がある場合(ステップS57;YES)、顔検出位置を次の顔検出位置へ移動させる(ステップS58)。そして、次の顔検出位置についても、顔検出処理を行うか否かを判定し、「顔検出処理実行有り」とされた場合、部分領域に適切なサイズの顔検出ウィンドウを用いて顔検出処理が行われる(ステップS52〜S56)。次の顔検出位置が無くなるまで(画像の最後に到達するまで)ステップS52〜S56の工程を繰り返す(ステップS57)。
In step S57, the face detection unit 13 determines whether or not there is a next face detection position. If there is a next face detection position (step S57; YES), the face detection position is moved to the next face detection position (step S57). Step S58). Then, it is determined whether or not to perform face detection processing for the next face detection position, and when it is determined that “face detection processing is performed”, face detection processing is performed using a face detection window of an appropriate size for the partial area. Is performed (steps S52 to S56). Steps S52 to S56 are repeated until there is no next face detection position (until the end of the image is reached) (step S57).

以上述べたように、本実施形態では、画像左上部、画像右上部、画像上部の部分領域51〜53では顔検出処理は省略される。画像中部の部分領域54では3つの顔検出ウィンドウ56a〜56cのみが用いられ、それ以外の顔検出ウィンドウ56d〜56fによる顔検出処理は省略される。同様に、部分領域55では、顔検出ウィンドウ56a〜56cによる顔検出処理が省略される。そのため、画像全体について全ての顔検出ウィンドウ56a〜56fを用いるのに比べて、顔検出処理の効率化(演算量の削減)を図ることができる。また、部分領域ごとに予め適切な顔検出処理実行の有無条件を設定することにより、あり得ない位置の顔をはじめから排除できるため、誤検出の低減が期待できる。   As described above, in this embodiment, the face detection process is omitted in the upper left part of the image, the upper right part of the image, and the partial areas 51 to 53 in the upper part of the image. Only the three face detection windows 56a to 56c are used in the partial area 54 in the middle of the image, and face detection processing using the other face detection windows 56d to 56f is omitted. Similarly, in the partial area 55, the face detection process by the face detection windows 56a to 56c is omitted. Therefore, compared to using all the face detection windows 56a to 56f for the entire image, it is possible to improve the efficiency of the face detection process (reduction in the amount of calculation). Further, by setting appropriate presence / absence conditions for executing face detection processing for each partial region, it is possible to exclude faces at positions that cannot be found from the beginning, so that reduction of false detection can be expected.

また、上記4つの実施形態はそれぞれ異なる顔検出条件に応じた顔検出処理の一例を示したものであるが、本発明は上記実施形態における4つの顔検出条件のうち少なくとも1つに応じた顔検出処理を行う。   The above four embodiments show an example of face detection processing according to different face detection conditions, but the present invention is a face according to at least one of the four face detection conditions in the above embodiments. Perform detection processing.

なお、上記実施形態の顔検出条件記憶部に記憶されている情報は、時刻に応じて変化するように設定できることが好ましい。例えば、第3の実施形態のように画像中に屋内と屋外が写っている場合、日中と夜間では屋内と屋外の照明環境は異なる。この場合、屋外部分の照明条件としては「日中;明るい」、「夜間;暗い」などを設定すればよく、屋内部分の照明条件としては「日中;暗い」、「夜間;明るい」などを設定すればよいと考えられる。   In addition, it is preferable that the information memorize | stored in the face detection condition memory | storage part of the said embodiment can be set so that it may change according to time. For example, when indoors and outdoors are captured in an image as in the third embodiment, the indoor and outdoor lighting environments are different during the day and at night. In this case, “daytime: bright”, “nighttime: dark”, etc. may be set as the lighting conditions for the outdoor portion, and “daytime: dark”, “nighttime: bright”, etc., as the lighting conditions for the indoor portion. It should be set.

なお、第1〜4の実施形態は、それぞれ、画像の部分領域ごとに予め検出される顔の大きさが決まっている場合、予め検出される顔の向きが決まっている場合、予め検出される顔の照明環境が決まっている場合、予め顔検出を行う領域が決まっている場合に好ましく適用できる。例えば、第3の実施形態では屋内と屋外の照明環境の違いを想定した例を挙げているが、画像の一部が照明で照らされている場合などにも好ましく適用できる。また、第4の実施形態では「顔が写り得ない領域」に「顔検出処理無し」を設定しているが、人がいる領域であっても「大勢の人の内、一部分の領域にいる人はカウントしない」という場合などに好ましく適用できる。   In the first to fourth embodiments, the size of the face detected in advance is determined for each partial region of the image, and the direction of the face detected in advance is determined in advance. The present invention can be preferably applied when the face illumination environment is determined, and when the face detection area is determined in advance. For example, in the third embodiment, an example in which a difference between indoor and outdoor illumination environments is assumed is described, but the present invention can be preferably applied to a case where a part of an image is illuminated with illumination. In the fourth embodiment, “no face detection process” is set in “area where face cannot be captured”. However, even if there is a person, “there is a part of a large number of people” It can be preferably applied to the case where “a person does not count”.

図1は、第1の実施形態における撮像部の設置様態を示す図である。FIG. 1 is a diagram illustrating an installation mode of an imaging unit according to the first embodiment. 図2は、第1の実施形態における撮像部で撮影される画像とその画像の顔検出処理を示す図である。FIG. 2 is a diagram illustrating an image photographed by the imaging unit and face detection processing of the image in the first embodiment. 図3は、顔検出装置の機能構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the face detection apparatus. 図4は、第1の実施形態における部分領域情報と顔検出条件(顔サイズ条件)の一例を示す図である。FIG. 4 is a diagram illustrating an example of partial region information and face detection conditions (face size conditions) in the first embodiment. 図5は、顔検出装置の処理の流れを示すフローチャートである。FIG. 5 is a flowchart showing the flow of processing of the face detection apparatus. 図6は、第1の実施形態における顔検出処理の流れを示すフローチャートである。FIG. 6 is a flowchart showing the flow of face detection processing in the first embodiment. 図7は、画像全体について全ての顔検出ウィンドウを用いた顔検出処理を示す図である。FIG. 7 is a diagram illustrating face detection processing using all face detection windows for the entire image. 図8は、第2の実施形態における撮像部の設置様態を示す図である。FIG. 8 is a diagram illustrating an installation mode of the imaging unit in the second embodiment. 図9は、第2の実施形態における撮像部で撮影される画像とその画像の顔検出処理を示す図である。FIG. 9 is a diagram illustrating an image photographed by the imaging unit and face detection processing of the image in the second embodiment. 図10は、第2の実施形態における顔検出部と顔検出器とを示すブロック図である。FIG. 10 is a block diagram illustrating a face detection unit and a face detector in the second embodiment. 図11は、第2の実施形態における部分領域情報と顔検出条件(顔サイズ条件及び顔向き条件)の一例を示す図である。FIG. 11 is a diagram illustrating an example of partial region information and face detection conditions (face size condition and face orientation condition) in the second embodiment. 図12は、第2の実施形態及び第3の実施形態における顔検出処理の流れを示すフローチャートである。FIG. 12 is a flowchart showing the flow of face detection processing in the second and third embodiments. 図13は、第3の実施形態における撮像部の設置様態を示す図である。FIG. 13 is a diagram illustrating an installation state of the imaging unit in the third embodiment. 図14は、第3の実施形態における撮像部で撮影される画像とその画像の顔検出処理を示す図である。FIG. 14 is a diagram illustrating an image photographed by the imaging unit and face detection processing of the image in the third embodiment. 図15は、第3の実施形態における顔検出部と顔検出器とを示すブロック図である。FIG. 15 is a block diagram showing a face detector and a face detector in the third embodiment. 図16は、第3の実施形態における部分領域情報と顔検出条件(顔サイズ条件及び照明条件)の一例を示す図である。FIG. 16 is a diagram illustrating an example of partial region information and face detection conditions (face size conditions and illumination conditions) in the third embodiment. 図17は、第4の実施形態における撮像部の設置様態を示す図である。FIG. 17 is a diagram illustrating an installation state of the imaging unit according to the fourth embodiment. 図18は、第4の実施形態における撮像部で撮影される画像とその画像の顔検出処理を示す図である。FIG. 18 is a diagram illustrating an image photographed by the imaging unit and face detection processing of the image in the fourth embodiment. 図19は、第4の実施形態における部分領域情報と顔検出条件(顔サイズ条件及び顔検出処理実行の有無条件)の一例を示す図である。FIG. 19 is a diagram illustrating an example of partial region information and face detection conditions (face size condition and presence / absence condition for execution of face detection processing) in the fourth embodiment. 図20は、第4の実施形態における顔検出処理の流れを示すフローチャートである。FIG. 20 is a flowchart showing the flow of face detection processing in the fourth embodiment.

符号の説明Explanation of symbols

11 撮像部
12 画像記憶部
13 顔検出部
14 表示部
15 結果記憶部
16 顔検出条件記憶部
21〜23,31〜33,41〜43,51〜55 部分領域
24a〜24i,34a〜34i,44a〜44i,56a〜56f 顔検出ウィンドウ
25 移動経路
35,45 顔検出器
DESCRIPTION OF SYMBOLS 11 Image pick-up part 12 Image memory | storage part 13 Face detection part 14 Display part 15 Result memory | storage part 16 Face detection condition memory | storage part 21-23, 31-33, 41-43, 51-55 Partial region 24a-24i, 34a-34i, 44a ˜44i, 56a to 56f Face detection window 25 Movement path 35,45 Face detector

Claims (9)

撮像手段と、
前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとに予め設定された顔検出条件とを記憶する顔検出条件記憶手段と、
前記画像から顔を検出する顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔検出条件に該当しない顔検出処理を省略する顔検出手段と、
を備える顔検出装置。
Imaging means;
Face detection condition storage means for storing partial area information for dividing an image captured by the imaging means into a plurality of partial areas and face detection conditions set in advance for each of the partial areas;
A face detection unit that omits a face detection process that does not meet the face detection condition set in the partial region to which the face detection position belongs when performing a face detection process for detecting a face from the image;
A face detection apparatus comprising:
前記顔検出条件は、検出対象とする顔の大きさを定める顔サイズ条件を含む
請求項1に記載の顔検出装置。
The face detection apparatus according to claim 1, wherein the face detection condition includes a face size condition that determines a size of a face to be detected.
前記顔検出手段は、異なる顔の大きさに対応する複数の顔検出ウィンドウを有しており、前記画像から顔検出ウィンドウを用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔サイズ条件に応じた顔検出ウィンドウを用いて顔検出処理を行い、それ以外の顔検出ウィンドウによる顔検出処理を省略する
請求項2に記載の顔検出装置。
The face detection means has a plurality of face detection windows corresponding to different face sizes, and a partial area to which a face detection position belongs when performing face detection processing using the face detection window from the image The face detection device according to claim 2, wherein the face detection process is performed using a face detection window corresponding to the face size condition set to, and face detection processing using other face detection windows is omitted.
前記顔検出条件は、検出対象とする顔の向きを定める顔向き条件を含む
請求項1〜請求項3のいずれかに記載の顔検出装置。
The face detection apparatus according to claim 1, wherein the face detection condition includes a face orientation condition that determines a face orientation to be detected.
前記顔検出手段は、異なる顔向きに対応する複数の顔検出器を有しており、前記画像から顔検出器を用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔向き条件に応じた顔検出器を用いて顔検出処理を行い、それ以外の顔検出器による顔検出処理を省略する
請求項4に記載の顔検出装置。
The face detection means has a plurality of face detectors corresponding to different face orientations, and is set to a partial region to which a face detection position belongs when performing face detection processing using the face detector from the image The face detection apparatus according to claim 4, wherein face detection processing is performed using a face detector corresponding to the face orientation condition, and face detection processing by other face detectors is omitted.
前記顔検出条件は照明条件を含む
請求項1〜請求項5のいずれかに記載の顔検出装置。
The face detection apparatus according to claim 1, wherein the face detection condition includes an illumination condition.
前記顔検出手段は、異なる照明環境に対応する複数の顔検出器を有しており、前記画像から顔検出器を用いて顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された照明条件に応じた顔検出器を用いて顔検出処理を行い、それ以外の顔検出器による顔検出処理を省略する
請求項6に記載の顔検出装置。
The face detection means has a plurality of face detectors corresponding to different illumination environments, and is set to a partial region to which a face detection position belongs when performing face detection processing using the face detector from the image The face detection apparatus according to claim 6, wherein face detection processing is performed using a face detector corresponding to the illumination condition, and face detection processing by other face detectors is omitted.
撮像手段で撮影された画像から顔を検出する顔検出処理を行うコンピュータが、
前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとに予め設定された顔検出条件とを記憶しており、
前記画像から顔を検出する顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔検出条件に該当しない顔検出処理を省略する
顔検出方法。
A computer that performs face detection processing for detecting a face from an image captured by an imaging unit,
Storing partial area information for dividing an image photographed by the imaging means into a plurality of partial areas and face detection conditions set in advance for each partial area;
A face detection method that omits a face detection process that does not satisfy a face detection condition set in a partial region to which a face detection position belongs when performing a face detection process for detecting a face from the image.
撮像手段で撮影された画像から顔を検出する顔検出処理を行うコンピュータに、
前記撮像手段で撮影された画像を複数の部分領域に区分するための部分領域情報と前記部分領域ごとに予め設定された顔検出条件とを記憶するステップと、
前記画像から顔を検出する顔検出処理を実行する際に、顔検出位置の属する部分領域に設定された顔検出条件に該当しない顔検出処理を省略するステップと、
を実行させるための顔検出プログラム。
To a computer that performs face detection processing for detecting a face from an image taken by an imaging means,
Storing partial area information for dividing an image captured by the imaging unit into a plurality of partial areas and face detection conditions set in advance for each partial area;
Omitting the face detection process that does not meet the face detection condition set in the partial region to which the face detection position belongs when executing the face detection process for detecting a face from the image;
Face detection program for running.
JP2007077107A 2007-03-23 2007-03-23 Face detecting device, face detecting method and face detecting program Withdrawn JP2008234578A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007077107A JP2008234578A (en) 2007-03-23 2007-03-23 Face detecting device, face detecting method and face detecting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007077107A JP2008234578A (en) 2007-03-23 2007-03-23 Face detecting device, face detecting method and face detecting program

Publications (1)

Publication Number Publication Date
JP2008234578A true JP2008234578A (en) 2008-10-02

Family

ID=39907240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007077107A Withdrawn JP2008234578A (en) 2007-03-23 2007-03-23 Face detecting device, face detecting method and face detecting program

Country Status (1)

Country Link
JP (1) JP2008234578A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018046501A (en) * 2016-09-16 2018-03-22 株式会社東芝 Information processing apparatus, detection system, and information processing method
WO2019058800A1 (en) * 2017-09-19 2019-03-28 日本電気株式会社 Verification system
JP2020072469A (en) * 2018-10-25 2020-05-07 キヤノン株式会社 Information processing apparatus, control method and program of the same, and imaging system
WO2021240903A1 (en) * 2020-05-29 2021-12-02 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018046501A (en) * 2016-09-16 2018-03-22 株式会社東芝 Information processing apparatus, detection system, and information processing method
WO2019058800A1 (en) * 2017-09-19 2019-03-28 日本電気株式会社 Verification system
JP2019053674A (en) * 2017-09-19 2019-04-04 日本電気株式会社 Collation system
EP3686839A4 (en) * 2017-09-19 2020-11-11 Nec Corporation Verification system
US11210496B2 (en) 2017-09-19 2021-12-28 Nec Corporation Collation system
US11704932B2 (en) 2017-09-19 2023-07-18 Nec Corporation Collation system
JP2020072469A (en) * 2018-10-25 2020-05-07 キヤノン株式会社 Information processing apparatus, control method and program of the same, and imaging system
JP7353864B2 (en) 2018-10-25 2023-10-02 キヤノン株式会社 Information processing device, control method and program for information processing device, imaging system
WO2021240903A1 (en) * 2020-05-29 2021-12-02 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP4798042B2 (en) Face detection device, face detection method, and face detection program
US8041077B2 (en) Method of motion detection and autonomous motion tracking using dynamic sensitivity masks in a pan-tilt camera
CN105611230B (en) Image processing apparatus and image processing method
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
KR20030029104A (en) Motion detection via image alignment
US20180262660A1 (en) Method and system for mimicking human camera operation
US9456146B2 (en) Exposure control device, imaging device, image display device, and exposure control method
US20220406065A1 (en) Tracking system capable of tracking a movement path of an object
CN103310187A (en) Face image prioritization based on face quality analysis
CN104137028A (en) Device and method for controlling rotation of displayed image
WO2005107240A1 (en) Automatic imaging method and apparatus
US10373015B2 (en) System and method of detecting moving objects
EP2309454A2 (en) Apparatus and method for detecting motion
JP5060264B2 (en) Human detection device
JP2008009849A (en) Person tracking device
CN102414717A (en) Method of selecting an optimal viewing angle position for a camera
JP2008234578A (en) Face detecting device, face detecting method and face detecting program
WO2017035025A1 (en) Engagement analytic system and display system responsive to user&#39;s interaction and/or position
JP2008259161A (en) Target tracing device
CN110460778A (en) A kind of cruise method of camera, device, computer equipment and storage medium
KR100706871B1 (en) Method for truth or falsehood judgement of monitoring face image
KR102119215B1 (en) Image displaying method, Computer program and Recording medium storing computer program for the same
JP2008182459A (en) Passage monitoring system
JP6849760B2 (en) Elevator user detection system
KR102411612B1 (en) Thermal imaging monitoring system using multiple cameras

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100601