JP2008211534A - Face detecting device - Google Patents

Face detecting device Download PDF

Info

Publication number
JP2008211534A
JP2008211534A JP2007046385A JP2007046385A JP2008211534A JP 2008211534 A JP2008211534 A JP 2008211534A JP 2007046385 A JP2007046385 A JP 2007046385A JP 2007046385 A JP2007046385 A JP 2007046385A JP 2008211534 A JP2008211534 A JP 2008211534A
Authority
JP
Japan
Prior art keywords
face
face detection
area
template
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007046385A
Other languages
Japanese (ja)
Inventor
Katsuhiko Kawamori
克彦 河守
Tomoaki Yoshinaga
智明 吉永
Koji Nozato
浩司 野里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007046385A priority Critical patent/JP2008211534A/en
Publication of JP2008211534A publication Critical patent/JP2008211534A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide high-speed processing based on a reduction in computational complexity because face type template and calculation of image similarity become huge. <P>SOLUTION: A face detection mode switching means for setting a face detection area from an image in a plurality of segmenting modes is provided, and template matching is performed by a face type template of an optimized size in each segmenting mode to thereby detect a face area at a high speed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、監視システム等の顔検知装置に関する。   The present invention relates to a face detection device such as a monitoring system.

近年、デジタル画像を被写体となった人物の顔で分類する顔検出処理が様々な分野で利用されるようになっている。一方、顔検出処理において、判別精度だけでなく計算量を削減して高速で動作することが重要な課題となっている。   In recent years, face detection processing for classifying a digital image by the face of a person who is a subject has been used in various fields. On the other hand, in face detection processing, it is an important issue to operate at high speed by reducing not only the discrimination accuracy but also the calculation amount.

処理速度を向上させる方法として、例えば、特開2005−215750号公報(特許文献1)には、課題として、「顔検知の精度を保持しつつ、処理時間の短縮を図る。」と記載されており、解決手段として「デジタルカメラ101等で撮影された画像から被写体の顔領域を抽出する顔検知手段106として、画像データと撮像条件等の画像データに関連する付属情報とから、画像領域内の合焦領域情報を取得する手段107と、前記合焦領域情報に基づいて該画像領域内で顔検知領域を決定する手段110と、画像領域全体ではなく、部分的に顔検知処理を実行する手段111とを備える。」と記載されている(要約参照)。   As a method for improving the processing speed, for example, Japanese Patent Laid-Open No. 2005-215750 (Patent Document 1) describes, as a problem, “Aiming to shorten processing time while maintaining the accuracy of face detection”. As a solving means, “as the face detecting means 106 for extracting the face area of the subject from the image photographed by the digital camera 101 or the like, the image data and the attached information related to the image data such as the imaging condition are used. Means 107 for acquiring in-focus area information; means 110 for determining a face detection area within the image area based on the in-focus area information; and means for partially executing face detection processing instead of the entire image area 111 ”(see summary).

また、特開2006−253805号公報(特許文献2)には、課題として、「簡単な操作で撮影画像から複数の顔領域を高速且つ精度良く検出できるようにすること。」と記載されており、解決手段として「撮影者のズーミング操作によって顔領域を指定し、顔領域位置・大きさ探索部26にて、その指定された顔領域の大きさ相当の顔領域を撮影画像から検出する。」と記載されている(要約参照)。   Japanese Patent Laid-Open No. 2006-253805 (Patent Document 2) describes as a problem that “a plurality of face regions can be detected from a photographed image with high speed and accuracy with a simple operation”. As a solving means, “a face area is designated by a photographer's zooming operation, and the face area position / size searching unit 26 detects a face area corresponding to the size of the designated face area from the photographed image.” (See summary).

特開2005−215750号公報 (要約参照)Japanese Patent Laying-Open No. 2005-215750 (see summary) 特開2006−253805号公報 (要約参照)JP 2006-253805 A (see abstract)

ところで、監視カメラで撮影した映像をレコーダに記録する監視システムの普及が進み、犯罪者の特定に利用されている。しかし、犯罪者が写っていると思われる時間帯の画像を人の目ですべて確認するには多大な労力を必要とする為、画像から顔領域を自動検出することが望まれている。このような監視システムにおいては、不特定多数の人物に対する顔検知処理を行う必要があり、テンプレートマッチングによる顔検知が行われている。
テンプレートマッチングによる顔検知処理では、顔型テンプレートと画像の類似度を計算し、ある閾値より類似度が高かった場合、顔があると判断する。そして、顔型テンプレートの位置をずらしながら入力画像全体を走査し、顔型テンプレートの大きさと画像に写っている顔の大きさがマッチングしている時、検知することができる。
By the way, a surveillance system for recording video captured by a surveillance camera on a recorder has been widely used, and is used for identifying a criminal. However, since it takes a lot of labor to confirm all the images of the time zone where the criminal is supposed to be captured with human eyes, it is desired to automatically detect the face area from the images. In such a monitoring system, it is necessary to perform face detection processing for an unspecified number of people, and face detection is performed by template matching.
In face detection processing by template matching, the similarity between a face template and an image is calculated, and if the similarity is higher than a certain threshold, it is determined that there is a face. Then, the entire input image is scanned while shifting the position of the face template, and it can be detected when the size of the face template matches the size of the face shown in the image.

図6は従来手法による顔領域検出手法を模式的に説明する図である。画像に写っている顔の大きさは、カメラからの距離によって変化するため様々である。そのため、図6に示すように、顔型テンプレートのサイズを最大サイズから最小サイズまで少しずつ変えて、各サイズ毎に画面全体に渡って照合を繰り返している。また、従来手法では入力画像の全体にわたって顔型テンプレートを用いて照合を繰り返す。この為、顔型テンプレートと画像の類似度の計算は膨大となっており、監視システムにテンプレートマッチング方式の顔検知機能を搭載するには、計算量を軽減して高速処理化することが課題となっている。   FIG. 6 is a diagram schematically illustrating a conventional face area detection method. The size of the face shown in the image varies depending on the distance from the camera. Therefore, as shown in FIG. 6, the size of the face template is changed little by little from the maximum size to the minimum size, and matching is repeated over the entire screen for each size. In the conventional method, matching is repeated using a face template over the entire input image. For this reason, the calculation of the similarity between the face template and the image is enormous, and in order to incorporate the template matching face detection function in the monitoring system, it is an issue to reduce the amount of calculation and increase the processing speed. It has become.

顔検知機能の高速化対応として、特許文献1は、デジタルカメラのオートフォーカスに用いられている測距枠を利用して顔検知領域を限定している。また、特許文献2は、デジタルカメラのズームアップ時と本撮影時のズーム倍率から顔領域のサイズを限定することを開示している。   As a method for speeding up the face detection function, Patent Document 1 limits the face detection area by using a distance measuring frame used for autofocus of a digital camera. Further, Patent Document 2 discloses that the size of the face area is limited based on the zoom magnification at the time of zooming up of the digital camera and at the time of actual photographing.

しかし、監視カメラでの撮影は、デジタルカメラの撮影とは異なり、対象人物に対して合焦位置を精密に設定していないため、合焦位置に基づく顔検知範囲の設定あるいは顔サイズの設定によって計算処理を軽減することができない。このように、監視カメラにおいては新たな計算量削減処理に基づく顔検知の高速化処理が必要とである。この点については特許文献1、特許文献2のいずれにおいても考慮されていない。   However, unlike with digital cameras, shooting with a surveillance camera does not precisely set the focus position for the target person, so depending on the face detection range setting or face size setting based on the focus position. The calculation process cannot be reduced. As described above, in the surveillance camera, it is necessary to speed up the face detection based on a new calculation amount reduction process. This point is not considered in either Patent Document 1 or Patent Document 2.

そこで本発明は、上記課題を解決し、適切に顔を検知することが可能な監視システムを提供することを目的とする。   Accordingly, an object of the present invention is to provide a monitoring system capable of solving the above-described problems and appropriately detecting a face.

上記目的を達成するため、本発明は、画像データに含まれる顔を、顔型テンプレートを用いて検知する顔検知装置であって、前記画像データの領域のうち顔を検知する顔検知領域を設定する顔検知モードを複数有し、該複数の顔検知モードを切り替える顔検知モード切替手段と、前記顔検知モードに応じて前記顔型テンプレートのサイズ範囲を設定する顔型テンプレート設定手段と、を有することを特徴とする顔検知装置を用いる。   In order to achieve the above object, the present invention provides a face detection device that detects a face included in image data using a face template, and sets a face detection region for detecting a face in the image data region. A face detection mode switching unit that switches between the plurality of face detection modes, and a face template setting unit that sets a size range of the face template according to the face detection mode. A face detection device characterized by this is used.

本発明によれば、適切に顔を検知することが可能な監視システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the monitoring system which can detect a face appropriately can be provided.

以下、本発明の一実施例としてATM(現金自動預入支払機)等の監視システムにについて、図面を用いて説明するが、本発明はATM等の監視システムに限られることはない。   Hereinafter, a monitoring system such as an ATM (automated teller machine) will be described with reference to the drawings as an embodiment of the present invention, but the present invention is not limited to a monitoring system such as an ATM.

図12は、本実施形態であるATMの監視カメラの外観を示す。図中のB10がATM、B11が監視カメラ、B12がユーザーを表している。ATMには、ユーザーが利用する側に、キャッシュカード出入口、預金通帳出入口、現金出入口等が設けられており、ユーザーはタッチパネルにて各出入口の操作を行う。ATMに取付けられた監視カメラは、ユーザーのATM操作位置とその周辺を撮影するよう画角設定がされており、ユーザーの顔が検知される範囲に応じて、顔検知モードの切替設定を可能としている。   FIG. 12 shows the appearance of an ATM surveillance camera according to this embodiment. B10 in the figure represents ATM, B11 represents a surveillance camera, and B12 represents a user. The ATM is provided with a cash card entry / exit, a bankbook entry / exit, a cash entry / exit, etc. on the user's side, and the user operates each entry / exit on the touch panel. The angle of view of the surveillance camera attached to the ATM is set so as to capture the user's ATM operation position and its surroundings, and the face detection mode can be switched according to the range in which the user's face is detected. Yes.

図11は、本発明の顔検知モードの例であり、「全画面モード」「切り出しモード1」「切り出しモード2」の3モードの切替設定が可能である。
「全画面モード」は、サイズが横704×縦480の画面領域である画面全体を検知対象として、検知する顔のサイズは、最大値横387×縦430から最小値横90×縦100までの任意のサイズの顔検知を可能とする。ここで、これらのサイズは画素数を表す。
「切り出しモード1」は、横312×縦192の画面領域を顔検知対象として、画面上の切り出し領域の位置設定は任意に移動可能であり、検知する顔のサイズは、最大値横172×縦172、最小値横40×縦40の範囲までの任意のサイズの顔検知を可能とする。
「切り出しモード2」は、横156×縦96の画面領域を顔検知対象として、画面上の切り出し領域の位置設定は任意に移動可能であり、検知する顔のサイズは、最大値横86×縦86、最小値横20×縦20の範囲の任意のサイズの顔検知を可能とする。
FIG. 11 shows an example of the face detection mode according to the present invention, which can be switched between three modes of “full screen mode”, “cutout mode 1”, and “cutout mode 2”.
The “full-screen mode” targets the entire screen, which is a screen area of 704 × width 480 in size, and the size of the detected face ranges from the maximum value 387 × length 430 to the minimum value width 90 × length 100. Allows detection of any size face. Here, these sizes represent the number of pixels.
In “Cutout mode 1”, the position of the cutout area on the screen can be arbitrarily moved with the screen area of 312 × vertical 192 as the face detection target, and the size of the detected face is the maximum value of 172 × vertical. 172, it is possible to detect a face of any size within the range of the minimum value 40 × 40.
In “Cutout mode 2”, the position of the cutout area on the screen can be arbitrarily moved with a screen area of 156 × 96 in the face detection target, and the detected face size is the maximum value of 86 × vertical. 86, it is possible to detect a face of any size within the range of the minimum value 20 × 20.

このように、検知対象のサイズに応じて検知する顔のサイズを変化させるのは、顔検知のための処理時間を短縮するためである。例えば、検知対象が横704×縦480の「全画面モード」のときに、「切り出しモード2」用の最小の顔サイズ横20×縦20を用いて検知すると、膨大な計算時間を要することとなる。   Thus, the size of the face to be detected is changed according to the size of the detection target in order to shorten the processing time for face detection. For example, when the detection target is “full screen mode” of horizontal 704 × vertical 480, if the detection is performed using the minimum face size 20 × vertical 20 for “cutting mode 2”, a huge calculation time is required. Become.

本発明では、これらの3モードを、例えばカメラから被写体までの距離に応じて変化させることにより効率的に顔を検知することを可能とする。   In the present invention, it is possible to efficiently detect the face by changing these three modes according to the distance from the camera to the subject, for example.

図9は従来手法による顔領域検知例を示し、図10は本発明による顔領域検出例を示す。これらを用いて、顔検知モードを切り替えれば適切に顔を検知できることを以下説明する。   FIG. 9 shows an example of face area detection according to the conventional method, and FIG. 10 shows an example of face area detection according to the present invention. It will be described below that a face can be detected appropriately by switching the face detection mode using these.

従来手法では、顔検知モードの切替えはなく常に全画面を検知しており、顔検知のためのテンプレートのサイズも一定の範囲のまま変化しない。そのため、図9の画面上におけるAの人の顔は、テンプレートのサイズの範囲内にあるので検知できるが、Bの人の顔はテンプレートのサイズの範囲外にあるので検知できないこととなる。   In the conventional method, the face detection mode is not switched and the entire screen is always detected, and the size of the template for face detection remains unchanged within a certain range. Therefore, the face of the person A on the screen of FIG. 9 can be detected because it is within the template size range, but cannot be detected because the face of the person B is outside the template size range.

一方、本発明によればカメラから被写体までの距離に応じてモードを切り替えるため、顔検知のためのテンプレートのサイズの範囲も変化させることができる。例えば、図10において切り出しモード1を用いることにより、テンプレートのサイズの範囲が変化し、全画面モードでは検知できなかったBの人の顔も検知できるようになる。   On the other hand, according to the present invention, since the mode is switched according to the distance from the camera to the subject, the size range of the template for face detection can also be changed. For example, by using the cut-out mode 1 in FIG. 10, the size range of the template changes, and it becomes possible to detect the face of the person B who could not be detected in the full screen mode.

このように、図10は「全画面モード」で顔検知が困難な場合でも、「切り出しモード1」あるいは「切り出しモード2」に切り替えると顔検知が可能とする例を示しており、本発明は監視カメラと被写体間の距離に応じて「全画面モード」「切り出しモード1」「切り出しモード2」の切替えを行う。これにより、適切に顔を検知することができる。   Thus, FIG. 10 shows an example in which face detection is possible by switching to “cutout mode 1” or “cutout mode 2” even when face detection is difficult in “full-screen mode”. Switching between “full screen mode”, “cutout mode 1”, and “cutout mode 2” is performed according to the distance between the monitoring camera and the subject. Thereby, a face can be detected appropriately.

図1は、本発明の一実施形態である監視システムの顔領域検知装置の構成図である。   FIG. 1 is a configuration diagram of a face area detection device of a monitoring system according to an embodiment of the present invention.

図1において、100は画像を撮影する撮像装置、200は撮像された画像に対して顔検知領域を設定し、顔型テンプレートを用いて顔検知を行い、マッチングした顔領域と画像を内部メディアあるいは外部メディアに保存する画像処理・保存装置、300は撮像された画像及び顔検知結果の出力を行う画像表示装置、400は撮像された画像及び顔検知結果を保存又は警報の発報等の処理を行う外部装置である。   In FIG. 1, reference numeral 100 denotes an imaging device that captures an image, and 200 sets a face detection area for the captured image, performs face detection using a face template, and uses the matched face area and the image as internal media or An image processing / storing device for storing in an external medium, 300 an image display device for outputting captured images and face detection results, and 400 for storing captured images and face detection results or processing such as issuing an alarm. An external device to perform.

撮像装置100にて撮像された画像は、画像処理・保存装置200に16フレーム/秒ずつ送信する。   The image captured by the image capturing apparatus 100 is transmitted to the image processing / storing apparatus 200 every 16 frames / second.

画像処理・保存装置200の画像受信部201にて受信された画像は、画像読出部202にて読み出されて、顔検知領域設定部203に送信される。   The image received by the image receiving unit 201 of the image processing / storing apparatus 200 is read by the image reading unit 202 and transmitted to the face detection area setting unit 203.

顔検知領域設定部203にて、顔検知領域入力部207にてユーザーが指定した顔検知モード及び切り出し領域の位置座標情報に基づいて、顔検知領域の設定を行う。   The face detection area setting unit 203 sets the face detection area based on the face detection mode specified by the user using the face detection area input unit 207 and the position coordinate information of the cutout area.

次に、顔領域検知部204にて、顔型入力部208から顔検知領域入力部207にて設定した顔検知モードに対応するサイズの顔型テンプレートを入力して階調化し、顔検知領域設定部203にて設定した顔検知領域に対して階調化された顔型テンプレートを用いて顔座標の検知を行う。   Next, in the face area detection unit 204, a face type template having a size corresponding to the face detection mode set in the face detection area input unit 207 is input from the face type input unit 208 to be gradation, and the face detection area setting is performed. Face coordinates are detected using a face-type template gradationed for the face detection area set by the unit 203.

次に、情報付加部205にて、画像に検知した顔の数を表す顔番号と顔検知領域の座標と顔領域座標を付加して画像保存部209に保存するとともに画像送信部206に送る。画像送信部206にて外部の画像表示装置300及び外部装置400に出力を行う。   Next, the information adding unit 205 adds the face number indicating the number of detected faces to the image, the coordinates of the face detection area, and the face area coordinates, and stores them in the image storage unit 209 and sends them to the image transmission unit 206. The image transmission unit 206 outputs to the external image display device 300 and the external device 400.

なお、画像読出部202、顔検知領域設定部203、顔領域検知部204、顔検知領域入力部207、顔型入力部208を撮像装置に内蔵する構成も可能である。装置の設計上、省スペースや、制御が容易になることもあるからである。   A configuration in which the image reading unit 202, the face detection region setting unit 203, the face region detection unit 204, the face detection region input unit 207, and the face type input unit 208 are built in the imaging apparatus is also possible. This is because space may be saved and control may be facilitated due to the design of the apparatus.

図2は顔検知領域設定部203周囲の構成図である。また、図3は顔検知領域の設定例を表す図である。顔検知領域の具体的な設定方法について、図2、図3を用いて説明する。   FIG. 2 is a configuration diagram around the face detection area setting unit 203. FIG. 3 is a diagram illustrating an example of setting a face detection area. A specific method for setting the face detection area will be described with reference to FIGS.

図3は、撮影された画像に対して顔検知モードを「切り出しモード1」、切り出し領域の位置指定を、矩形の切り出し領域の左上と右下の頂点座標(100,100),(412,292)で表現している。   In FIG. 3, the face detection mode is expressed as “cutout mode 1” for the captured image, and the position designation of the cutout area is expressed by the upper left and lower right vertex coordinates (100,100), (412,292) of the rectangular cutout area. ing.

図2において、202はアナログ画像をデジタル画像に変換するなど、入力画像を加工可能な画像データに変換し、機器のメモリ上に画像を読み出す画像読出部、207は入力された画像を見ながら顔を捜す領域を移動制御し、顔検知領域を入力する顔検知領域入力部、211は入力された領域からX軸方向とY軸方向の位置座標情報に変換する領域計算部、210は領域計算部211から受信した位置座標情報を入力画像に設定する領域決定部である。座標が設定された画像は領域顔領域検知部204に送信される。位置座標情報の指定は、監視カメラをATM等に設置する際に、実際にユーザーが撮像装置の映像を見ながら、顔の出現が予想される顔検知領域の矩形の左上と右下をマークすることで行われる。ユーザがマークした2点の位置は、領域計算部211で入力画像との位置合わせの為、座標に変換されて領域決定部210に送られる。領域決定部210では領域計算部211から送られてきた2点の座標を、画像ヘッダ上に書き込み、顔領域検知部204に送信する。また、顔探索領域の設定は矩形に限らず、円形の中心座標などを用いて設定とすることも可能である。   In FIG. 2, an image reading unit 202 converts an input image into processable image data, such as converting an analog image into a digital image, and reads the image on the device memory, and 207 refers to a face while viewing the input image. A face detection area input unit that controls movement of the area to be searched and inputs a face detection area, 211 is an area calculation unit that converts the input area into position coordinate information in the X-axis direction and the Y-axis direction, and 210 is an area calculation unit An area determination unit that sets the position coordinate information received from 211 as an input image. The image in which the coordinates are set is transmitted to the area face area detection unit 204. The position coordinate information is specified by marking the upper left and lower right of the rectangle of the face detection area where the face is expected to appear while the user actually sees the image of the imaging device when installing the surveillance camera on ATM etc. Is done. The positions of the two points marked by the user are converted into coordinates for alignment with the input image by the area calculation unit 211 and sent to the area determination unit 210. The area determination unit 210 writes the coordinates of the two points sent from the area calculation unit 211 on the image header and transmits them to the face area detection unit 204. Further, the setting of the face search area is not limited to a rectangle, but can be set using a circular center coordinate or the like.

次に、図4に示す顔領域検知部204の詳細ブロック図を用いて、顔型テンプレートのセッティングと、顔型テンプレートを用いた顔検知領域に対する顔検知について説明する。   Next, setting of the face template and face detection for the face detection area using the face template will be described with reference to a detailed block diagram of the face area detector 204 shown in FIG.

図4にて、顔型入力部208から入力する顔型テンプレートは、複数人の顔画像を合成した平均顔を用いる。また、眉や目や鼻や口等の顔パーツだけのテンプレートを使って、それら顔パーツの位置関係、或いは特徴量の類似度で顔を判別する場合もある。これらのパーツのテンプレートを用いた方が顔を判別しやすくなる場合もあるからである。監視カメラの場合、天井などの高い位置に設置されることが多い為、斜め上から撮影された顔の平均顔を用いる場合もある。この平均顔は予め生成され、デジタルデータ化されて顔型入力部208に入力しておく。そして、上記顔検知用テンプレートを顔領域検知部204の顔型設定部214に設定する。   In FIG. 4, an average face obtained by combining face images of a plurality of people is used as the face template input from the face input unit 208. Further, there are cases where a face is discriminated based on the positional relationship of the facial parts or the similarity of the feature amount using a template of only facial parts such as eyebrows, eyes, nose and mouth. This is because it may be easier to discriminate the face by using the template of these parts. In the case of a surveillance camera, since it is often installed at a high position such as a ceiling, an average face taken from an oblique top may be used. This average face is generated in advance, converted into digital data, and input to the face type input unit 208. Then, the face detection template is set in the face type setting unit 214 of the face area detection unit 204.

顔型設定部214では、顔型テンプレートを顔検知に最適な大きさに変換し顔領域計算部213に送信する。例えば、「切り出しモード2」の場合は、顔型テンプレートの最大サイズ「横86×縦86」に変換し、顔サイズの最大サイズと最小サイズ間で諧調化した複数の顔型テンプレートを生成する。この階調化した複数の縮小顔型テンプレートは、予め生成しておき、顔型入力部208に入力しておくことも可能である。
顔領域計算部213にて、顔検知領域設定部203からの入力画像のヘッダから顔検知領域の矩形の左上と右下を指示する2点の座標情報を読出して顔検知領域範囲を決定し、顔型テンプレートとのテンプレートマッチング処理をおこなう。
The face-type setting unit 214 converts the face-type template into an optimum size for face detection and transmits it to the face area calculation unit 213. For example, in the “cutout mode 2”, the maximum size of the face template is converted to “horizontal 86 × vertical 86”, and a plurality of face templates in which gradation is made between the maximum size and the minimum size of the face size are generated. It is also possible to generate a plurality of scaled-down reduced face templates in advance and input them to the face input unit 208.
The face area calculation unit 213 reads the coordinate information of two points indicating the upper left and lower right of the rectangle of the face detection area from the header of the input image from the face detection area setting unit 203, determines the face detection area range, Perform template matching with face template.

次に、本発明のテンプレートマッチング処理について、図7のフローチャートと図5のテンプレートマッチングの発明手法を用いて説明する。   Next, template matching processing of the present invention will be described using the flowchart of FIG. 7 and the template matching invention method of FIG.

ステップ501にて、顔領域検知部204の画像展開部212に顔検知領域設定部203から切り出しモードの2点の位置座標に基づいて顔検知領域を設定する。   In step 501, the face detection area is set based on the position coordinates of two points in the cut-out mode from the face detection area setting section 203 in the image development section 212 of the face area detection section 204.

ステップ502にて、上記顔検知領域をメモリに展開する。   In step 502, the face detection area is expanded in the memory.

ステップ503にて、上記顔検知領域に対する顔型テンプレートのマッチング処理を行う。図5に示すように、まず、検知モード設定により決定された顔型テンプレートの最大サイズを用いて、顔検知領域の左上端から右上端までマッチング操作を行った後、顔型テンプレートを顔検知領域の左上端に戻して顔型テンプレート分だけY軸方向に下げ、再び顔検知領域の右端までX軸方向へマッチング操作を行う。以下同様な処理を繰り返して顔検知領域の最下段まで繰り返す。   In step 503, a face template matching process is performed on the face detection area. As shown in FIG. 5, first, after performing a matching operation from the upper left end to the upper right end of the face detection area using the maximum size of the face type template determined by the detection mode setting, the face type template is moved to the face detection area. Return to the top left corner and lower it in the Y-axis direction by the face template, and then perform the matching operation in the X-axis direction again to the right edge of the face detection area. Thereafter, the same processing is repeated until the lowest level of the face detection area.

最大サイズの顔型テンプレートによるマッチング操作にて顔検知されなかった場合は、検知モード設定により決定された顔型テンプレートの最大サイズと最小サイズの範囲内で階調化された次のサイズの顔型テンプレートを用いてマッチング操作を進める。マッチング操作による顔検知の判断は、顔型テンプレートと画像の類似度を計算して所定の閾値以上の場合はYESと判断してステップ504に進む。所定の閾値以下の場合は、最小サイズの顔型テンプレートによる顔検知領域全領域のマッチング操作まで行ってNOと判断し、ステップ505に進む。   If a face is not detected by the matching operation using the face template of the maximum size, the face type of the next size that has been gradated within the range of the maximum size and the minimum size of the face template determined by the detection mode setting Proceed with the matching operation using the template. In the determination of face detection by the matching operation, the similarity between the face template and the image is calculated, and if it is equal to or greater than a predetermined threshold value, YES is determined and the process proceeds to step 504. If it is equal to or less than the predetermined threshold value, the matching operation for the entire face detection area using the face template of the minimum size is performed and NO is determined, and the process proceeds to step 505.

ステップ504にて、顔領域をメモリに記憶してステップ505に進む。ステップ505で用いるメモリの記憶情報例を図8に示す。メモリには、図8に示すように検出された顔の個数を示す顔番号、顔検知領域情報、顔領域情報を書き込む。   In step 504, the face area is stored in the memory, and the process proceeds to step 505. An example of information stored in the memory used in step 505 is shown in FIG. In the memory, a face number indicating the number of detected faces, face detection area information, and face area information are written as shown in FIG.

ステップ505にて、最小サイズの顔型テンプレートによる顔検知領域全領域のマッチング操作が終了したか否かを判断し、終了していない場合は、ステップ503にもどる。終了した場合は、ステップ506に進み、顔領域検知を終了する。   In step 505, it is determined whether or not the matching operation for the entire face detection area using the face template of the minimum size has been completed. If not, the process returns to step 503. If completed, the process proceeds to step 506 to end the face area detection.

以上のように、本実施例によれば、顔検知領域を限定することにより、従来のテンプレートマッチングに比べ、大幅に計算量を削減し、検知処理速度を高め、顔検知の高速化を実現する。また、監視システム機器等の計算資源の乏しい機器でも、顔検知領域を狭めて顔検知を行うことにより、検出する顔画像の大小サイズ(カメラから被写体までの距離)を広く設定することができる。
また、本発明によれば特にATM(現金自動預入支払機)等の監視システムに好適な高速顔検知処理の提供することができる。さらに、顔領域の高速検知、及び、計算資源の乏しい機器でも顔領域検知を行える利点がある。
As described above, according to the present embodiment, by limiting the face detection area, the amount of calculation is greatly reduced compared to the conventional template matching, the detection processing speed is increased, and the speed of face detection is increased. . In addition, even in a device with scarce computing resources, such as a monitoring system device, the size of the face image to be detected (distance from the camera to the subject) can be set wide by narrowing the face detection area and performing face detection.
Further, according to the present invention, it is possible to provide a high-speed face detection process particularly suitable for a monitoring system such as an ATM (automated teller machine). Furthermore, there is an advantage that the face area can be detected even by a high-speed detection of the face area and a device having a poor calculation resource.

本発明の顔検出装置は、搭載される機器の計算力に合わせて検知範囲を設定できるため、機器の能力を最大限に使った顔検出が可能であり、計算資源の有効活用にも寄与する。   Since the face detection device of the present invention can set the detection range according to the calculation power of the installed device, it can detect the face using the maximum capability of the device and contribute to the effective use of calculation resources. .

本発明の実施例の形態における顔領域検知装置の構成図The block diagram of the face area detection apparatus in the form of the Example of this invention 本発明の実施例の形態における顔領域検知装置の顔検知領域設定部周囲の構成図The block diagram around the face detection area setting part of the face area detection apparatus in the form of the Example of this invention 顔検知領域の設定例Example of setting the face detection area 本発明の実施例の形態における顔領域検出装置の顔領域検知部の構成図The block diagram of the face area detection part of the face area detection apparatus in the form of the Example of this invention 本発明による顔領域検知手法Face area detection method according to the present invention 従来手法による顔領域検出手法Conventional face area detection method 顔領域検知のフローチャートFace area detection flowchart 本発明の実施例におけるメモリの記憶情報例Example of stored information in a memory according to an embodiment of the present invention 従来手法による顔領域検知例Example of face area detection by conventional method 本発明による顔領域検出例Example of face area detection according to the present invention 本発明の顔検知モードの例Example of face detection mode of the present invention 本実施形態であるATMの監視カメラの外観図External view of ATM surveillance camera according to this embodiment

符号の説明Explanation of symbols

100 撮像装置
200 画像処理・保存装置
201 画像受信部
202 画像読出部
203 顔検知領域設定部
204 顔領域検知部
205 情報付加部
206 画像送信部
207 顔検知領域入力部
208 顔型入力部
209 画像保存部
210 領域決定部
211 領域計算部
212 画像展開部
213 顔領域計算部
214 顔型設定部
300 画像表示装置
400 外部装置
A01 顔検知領域(始点)
A02 顔検知領域(終点)
B10 ATM
B11 監視カメラ
B12 ユーザー
DESCRIPTION OF SYMBOLS 100 Image pick-up device 200 Image processing / storing device 201 Image receiving unit 202 Image reading unit 203 Face detection region setting unit 204 Face region detection unit 205 Information addition unit 206 Image transmission unit 207 Face detection region input unit 208 Face type input unit 209 Image storage Unit 210 region determination unit 211 region calculation unit 212 image development unit 213 face region calculation unit 214 face type setting unit 300 image display device 400 external device A01 face detection region (start point)
A02 Face detection area (end point)
B10 ATM
B11 surveillance camera B12 user

Claims (4)

画像データに含まれる顔を、顔型テンプレートを用いて検知する顔検知装置であって、
前記画像データの領域のうち顔を検知する顔検知領域を設定する顔検知モードを複数有し、該複数の顔検知モードを切り替える顔検知モード切替手段と、
前記顔検知モードに応じて前記顔型テンプレートのサイズ範囲を設定する顔型テンプレート設定手段と、
を有することを特徴とする顔検知装置。
A face detection device that detects a face included in image data using a face template,
A plurality of face detection modes for setting a face detection area for detecting a face in the image data area, and a face detection mode switching means for switching the plurality of face detection modes;
A face template setting means for setting a size range of the face template according to the face detection mode;
A face detection device comprising:
請求項1記載の顔検知装置であって、
前記顔検知領域を、前記画像データの領域内で移動する顔検知領域移動手段を有することを特徴とする顔検知装置。
The face detection device according to claim 1,
A face detection apparatus comprising a face detection area moving means for moving the face detection area within the area of the image data.
請求項1または2いずれか一項に記載の顔検知装置であって、
前記顔型テンプレート設定手段は、前記複数の顔検知モード毎に異なる顔型テンプレートの最大サイズと最小サイズ設定とするとともに、前記最大サイズと前記最小サイズ間を階調化したサイズ設定を行うことを特徴とする顔検知装置。
The face detection device according to claim 1 or 2,
The face type template setting means sets the maximum size and the minimum size of the face type template which are different for each of the plurality of face detection modes, and performs size setting in which gradation is made between the maximum size and the minimum size. A featured face detection device.
請求項1から3いずれか一項に記載の顔検知装置であって、
前記画像データは撮像部により撮像されたものであり、
前記顔検知モード切替手段は、前記撮像部と被写体との距離に応じて前記複数の顔検知モードを切り替えることを特徴とする顔検知装置。
The face detection device according to any one of claims 1 to 3,
The image data is captured by an imaging unit,
The face detection mode switching unit switches the plurality of face detection modes according to a distance between the imaging unit and a subject.
JP2007046385A 2007-02-27 2007-02-27 Face detecting device Pending JP2008211534A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007046385A JP2008211534A (en) 2007-02-27 2007-02-27 Face detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007046385A JP2008211534A (en) 2007-02-27 2007-02-27 Face detecting device

Publications (1)

Publication Number Publication Date
JP2008211534A true JP2008211534A (en) 2008-09-11

Family

ID=39787464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007046385A Pending JP2008211534A (en) 2007-02-27 2007-02-27 Face detecting device

Country Status (1)

Country Link
JP (1) JP2008211534A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100183A (en) * 2010-11-05 2012-05-24 Seiko Epson Corp Image processing device and image processing method
US10318792B2 (en) 2014-04-08 2019-06-11 Panasonic Intellectual Property Management Co., Ltd. Target pickup device and target detection method
US10592729B2 (en) 2016-01-21 2020-03-17 Samsung Electronics Co., Ltd. Face detection method and apparatus
JP2020135609A (en) * 2019-02-22 2020-08-31 キヤノン株式会社 Image processing device, image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150834A (en) * 2003-11-11 2005-06-09 Softopia Japan Foundation Monitoring system
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2006117107A (en) * 2004-10-21 2006-05-11 Honda Motor Co Ltd Periphery monitoring device for vehicle

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005150834A (en) * 2003-11-11 2005-06-09 Softopia Japan Foundation Monitoring system
JP2006059015A (en) * 2004-08-18 2006-03-02 Sony Corp Human body detector, human body detection method, and computer program
JP2006117107A (en) * 2004-10-21 2006-05-11 Honda Motor Co Ltd Periphery monitoring device for vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012100183A (en) * 2010-11-05 2012-05-24 Seiko Epson Corp Image processing device and image processing method
US10318792B2 (en) 2014-04-08 2019-06-11 Panasonic Intellectual Property Management Co., Ltd. Target pickup device and target detection method
US10592729B2 (en) 2016-01-21 2020-03-17 Samsung Electronics Co., Ltd. Face detection method and apparatus
JP2020135609A (en) * 2019-02-22 2020-08-31 キヤノン株式会社 Image processing device, image processing method and program
US11610422B2 (en) 2019-02-22 2023-03-21 Canon Kabushiki Kaisha Image processing method, apparatus, and storage medium for object detection
JP7297463B2 (en) 2019-02-22 2023-06-26 キヤノン株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
EP1912432B1 (en) Digital camera
JP4575829B2 (en) Display screen position analysis device and display screen position analysis program
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
JP4274233B2 (en) Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method
JP4852652B2 (en) Electronic zoom device, electronic zoom method, and program
JP4912117B2 (en) Imaging device with tracking function
JP4642128B2 (en) Image processing method, image processing apparatus and system
JP3801137B2 (en) Intruder detection device
JP2009110486A (en) Unit, method and program for image processing, imaging unit, and control method for imaging unit
US11070729B2 (en) Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus
US20110096995A1 (en) Image processing apparatus, image processing method, and program
JP2008205774A (en) System, method and program for guiding photographing work
KR20110089655A (en) Apparatus and method for capturing digital image for guiding photo composition
JP5247338B2 (en) Image processing apparatus and image processing method
JP5159390B2 (en) Object detection method and apparatus
JP2008211534A (en) Face detecting device
JP5376403B2 (en) Video display device and program
JP4702015B2 (en) Image display apparatus and program
EP3352446A1 (en) Multi-camera dynamic imaging systems and methods of capturing dynamic images
JP2011211757A (en) Electronic zoom apparatus, electronic zoom method, and program
JP6460510B2 (en) Image processing apparatus, image processing method, and program
JP2011077753A (en) Face detection method and device of camera
JP7324066B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP2021064871A (en) Information processing device and information processing method
JP6525693B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120403