JP2008234619A - Face authenticating device and face authenticating method - Google Patents

Face authenticating device and face authenticating method Download PDF

Info

Publication number
JP2008234619A
JP2008234619A JP2007251757A JP2007251757A JP2008234619A JP 2008234619 A JP2008234619 A JP 2008234619A JP 2007251757 A JP2007251757 A JP 2007251757A JP 2007251757 A JP2007251757 A JP 2007251757A JP 2008234619 A JP2008234619 A JP 2008234619A
Authority
JP
Japan
Prior art keywords
image
luminance
input image
face
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007251757A
Other languages
Japanese (ja)
Inventor
Kei Takizawa
圭 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007251757A priority Critical patent/JP2008234619A/en
Publication of JP2008234619A publication Critical patent/JP2008234619A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face authenticating device superior in obtaining a face image suitable for face authentication. <P>SOLUTION: This face authenticating device determines whether a walking person is already registered or not, by collating the face image acquired from the walking person with preregistered dictionary information, for example, when authenticating the walking person. A change and a head portion candidate are detected for a high-gradation input image acquired from a camera, and are then converted into a low-gradation input image by conversting a face luminance for the head portion candidate region, and a face pattern is detected for the obtained low-gradation input image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、たとえば、歩行者を認証対象とし、当該歩行者から取得した顔画像をあらかじめ登録された辞書情報と照合することにより当該歩行者はあらかじめ登録された人物であるかを判定する顔認証装置および顔認証方法に関する。   The present invention, for example, uses a pedestrian as an authentication target, and compares the face image acquired from the pedestrian with pre-registered dictionary information to determine whether the pedestrian is a pre-registered person. The present invention relates to an apparatus and a face authentication method.

一般に、この種の顔認証装置は、あらかじめ認証対象となる人物の顔画像をカメラやセンサなどを用いて取得し、この取得した顔画像から得られる顔の特徴情報を辞書情報として辞書記憶手段に記憶しておく。
そして、照合時(認証識時)には、認証対象となる人物の顔画像をカメラやセンサなどを用いて再度取得し、この取得した顔画像から得られる顔の特徴情報が辞書記憶手段にあらかじめ記憶されている辞書情報と類似しているかどうかを評価し、類似性が高い場合には当該人物は登録者(本人)であると判定し、類似性が低い場合には未登録者(本人ではない)と判定するようになっている。
In general, this type of face authentication apparatus acquires a face image of a person to be authenticated in advance using a camera, a sensor, or the like, and stores facial feature information obtained from the acquired face image as dictionary information in a dictionary storage unit. Remember.
At the time of verification (at the time of authentication recognition), the face image of the person to be authenticated is acquired again using a camera, a sensor, or the like, and the facial feature information obtained from the acquired face image is stored in the dictionary storage means in advance. Evaluate whether it is similar to the stored dictionary information, and if the similarity is high, determine that the person is a registered person (person), and if the similarity is low, No).

このような顔認証装置で利用される画像取得手段であるカメラやセンサは、入力された画像全体の明るさや色あいからゲイン、シャッタ速度、アイリス、ホワイトバランスといった制御パラメータを自動的に最適なものに調整する技術が搭載されているものが多い。   Cameras and sensors that are image acquisition means used in such face authentication devices automatically optimize control parameters such as gain, shutter speed, iris, and white balance based on the brightness and hue of the entire input image. Many are equipped with technology to adjust.

顔を対象にしてゲイン制御を行なう方法としては、カメラで人物の顔を撮影し、撮影した顔が予め登録された人物か否かを判定する顔認証装置において、カメラの出力をA/D変換する際のゲイン値を、顔認証にとって適した値となるように制御する技術が知られている(たとえば、特許文献1参照)。
特開2005−202731号公報
As a method of performing gain control for a face, a face authentication apparatus that photographs a person's face with a camera and determines whether the photographed face is a registered person or not is A / D converted. There is known a technique for controlling the gain value at the time of making a value suitable for face authentication (see, for example, Patent Document 1).
JP 2005-202731 A

しかし、認証対象とする人物は、カメラの前に立ち止まることなく、移動する人物(通行者)である。このため、ゲイン値を徐々に変化させながら、顔認証に適したゲイン値を得ようとする間に、人物がカメラの視野から外れしまう場合がある。   However, the person to be authenticated is a person (passerby) who moves without stopping in front of the camera. For this reason, there is a case where a person moves out of the field of view of the camera while trying to obtain a gain value suitable for face authentication while gradually changing the gain value.

そこで、本発明は、顔認証に適した顔画像を得ることに優れた顔認証装置および顔認証方法を提供することを目的とする。   Accordingly, an object of the present invention is to provide a face authentication apparatus and a face authentication method that are excellent in obtaining a face image suitable for face authentication.

本発明の一実施形態に係る顔認証装置は、移動する人物の少なくとも顔を含む画像を高階調入力画像として取得する画像取得手段と、この画像取得手段から一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出手段と、この変化検出手段により検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出手段と、この頭部候補検出手段により検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換手段と、この輝度変換手段により生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出手段と、この顔検出手段により検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証手段とを具備している。   A face authentication apparatus according to an embodiment of the present invention includes an image acquisition unit that acquires an image including at least a face of a moving person as a high gradation input image, and a high gradation input image obtained at regular intervals from the image acquisition unit. Change detection means for detecting a moving object area as a change area, head candidate detection means for detecting a human head candidate area from an image of the change area detected by the change detection means, and this head candidate detection Luminance conversion means for generating a low gradation input image from a high gradation input image by performing luminance conversion on the image of the head candidate area detected by the means, and a low gradation input generated by the luminance conversion means Face detection means for detecting a human face candidate area with respect to the head candidate area of the image, and an image of the face candidate area detected by the face detection means is compared with previously registered dictionary information. The person has and a determining face authentication means whether a pre-registered person by.

また、本発明の一実施形態に係る顔認証装置は、変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像から水平微分画像および垂直微分画像を取得し、この取得した水平微分画像および垂直微分画像を用いて増分符合フレーム間差分の計算を行なうことにより変化領域を検出するもので、その増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする。   Further, in the face authentication device according to an embodiment of the present invention, the change detection unit acquires a horizontal differential image and a vertical differential image from the high gradation input image obtained at regular intervals from the image acquisition unit, and acquires the acquired A change region is detected by calculating a difference between incremental code frames using a horizontal differential image and a vertical differential image. In the calculation of the difference between incremental code frames, the obtained horizontal differential image and vertical differential image are A correction process for removing the influence of light shot noise generated by the image acquisition means is performed by performing a calculation by dividing by the square root of the luminance of the high gradation input image.

また、本発明の顔認証装置は、変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像に対して輝度フレーム間差分の計算を行なうことにより変化領域を検出するもので、その輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする。   In the face authentication apparatus of the present invention, the change detection means detects a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals from the image acquisition means. In the calculation of the difference between the luminance frames, a correction for removing the influence of the light shot noise generated in the image acquisition unit by performing the calculation of dividing the luminance time difference by the square root of the luminance of the high gradation input image. Processing is performed.

本発明によれば、ゲイン値を切り換えずに高階調入力画像を処理するため、移動する人物に対して顔の輝度制御が容易にでき、よって顔認証に適した顔画像が得られ、結果として顔の認証性能が向上する顔認証装置および顔認証方法を提供できる。   According to the present invention, since the high gradation input image is processed without switching the gain value, the brightness of the face can be easily controlled for the moving person, and thus a face image suitable for face authentication can be obtained. It is possible to provide a face authentication device and a face authentication method that improve face authentication performance.

また、本発明によれば、光ショットノイズを変化として検出しなくなり、変化検出の性能が向上するので、その後段の処理での性能が向上し、結果として顔の認証性能が向上する顔認証装置および顔認証方法を提供できる。   Further, according to the present invention, since the light shot noise is not detected as a change and the performance of the change detection is improved, the performance in the subsequent processing is improved, and as a result, the face authentication performance is improved. And a face authentication method.

以下、本発明の実施の形態について図面を参照して説明する。
図12に、カメラからの出力をA/D変換する例を示す。図12の(a)は、カメラのアナログ出力信号および顔領域についてのアナログ出力レベルヒストグラムである。A/D変換器に対して、ゲイン値g1、g2、g3(g3>g2>g1)を与え、図12の(a)から得られる入力画像および顔領域についての輝度ヒストグラムは、それぞれ、図12の(b)、(c)、(d)となるとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 12 shows an example in which the output from the camera is A / D converted. FIG. 12A is an analog output level histogram for the analog output signal of the camera and the face area. The gain values g1, g2, and g3 (g3>g2> g1) are given to the A / D converter, and the luminance histograms for the input image and the face area obtained from FIG. (B), (c), and (d).

図12の例では、図12の(b)のように、顔領域の輝度が全ての画素について階調の最小値となるようなゲイン値g1や、図12の(d)のように、顔領域の輝度が全ての画素について階調の最大値となるようなゲイン値g3は望ましくなく、図12の(c)のように、入力画像の階調の中に納まるようなゲイン値g2に設定することが望ましい。   In the example of FIG. 12, as shown in FIG. 12 (b), the face region has a gain value g1 that makes the luminance of the minimum gradation value for all pixels, or the face value as shown in FIG. 12 (d). The gain value g3 in which the luminance of the region is the maximum gradation value for all pixels is not desirable, and is set to a gain value g2 that fits in the gradation of the input image as shown in FIG. It is desirable to do.

具体的には、ゲイン値を段階的に変えて、入力画像からの顔パターンの検出および検出した顔候補領域の輝度ヒストグラムから評価値の計算を行ない、評価値が最大となるゲイン値を選択する。   Specifically, the gain value is changed in stages, the face pattern is detected from the input image, the evaluation value is calculated from the luminance histogram of the detected face candidate region, and the gain value that maximizes the evaluation value is selected. .

評価値としては、白とび率、黒つぶれ率を考慮した次のような値が考えられる。   As the evaluation value, the following values are considered in consideration of the whiteout ratio and the blackout ratio.

−max(白とび率、黒つぶれ率)
白とび率とは、所定の領域(上記の場合は顔の領域)で、輝度が飽和している(輝度値が入力画像の階調の最大値となっている)画素数の割合である。黒つぶれ率とは、所定の領域で、輝度値が入力画像の階調の最小値である画素の割合である。
-Max (white skip rate, black crush rate)
The whiteout ratio is a ratio of the number of pixels in which brightness is saturated (a brightness value is the maximum value of the gradation of the input image) in a predetermined area (in the above case, a face area). The blackout ratio is a ratio of pixels in a predetermined area whose luminance value is the minimum gradation value of the input image.

また、カメラから一定時間ごとに得られる入力画像系列から、動きのある領域(変化領域)を検出する変化検出方法としては、輝度フレーム間差分の計算を用いる方法や増分符号フレーム間差分の計算を用いる方法が知られている。   In addition, as a change detection method for detecting a moving region (change region) from an input image sequence obtained every fixed time from the camera, a method using a luminance interframe difference calculation or an incremental code interframe difference calculation is used. The method used is known.

輝度フレーム間差分とは、時刻tの入力画像I(x,y)と時刻t−1の入力画像It−1(x,y)から、以下のように変化画像DIFF(x,y)を計算する方法である。 The difference between luminance frames is the change image DIFF t (x, y) as follows from the input image I t (x, y) at time t and the input image I t-1 (x, y) at time t−1. ).

まず、入力画像から、下記式1に示す差分画像DI(x,y)を計算する。

Figure 2008234619
First, a difference image DI t (x, y) represented by the following equation 1 is calculated from the input image.
Figure 2008234619

次に、計算した差分画像DI(x,y)と閾値TH_FDとを比較し、下記式2に示す比較結果を得る。

Figure 2008234619
Next, the calculated difference image DI t (x, y) is compared with the threshold value TH_FD, and a comparison result shown in the following Expression 2 is obtained.
Figure 2008234619

DIFF(x,y)=1は、画素(x,y)において変化が検出されたことを表す。また、DIFF(x,y)=0は、画素(x,y)において変化が検出されなかったことを表す。 DIFF t (x, y) = 1 indicates that a change is detected in the pixel (x, y). DIFF t (x, y) = 0 indicates that no change is detected in the pixel (x, y).

このような輝度フレーム間差分は、入力画像It(x,y)の輝度を直接用いているため、フリッカや照明のオン/オフなどに影響を受けやすく、および、対象物(人物等の認証対象)と背景物の輝度差が小さい場合に、対象物が検出されにくい。   Since such luminance inter-frame difference directly uses the luminance of the input image It (x, y), it is easily affected by flicker, lighting on / off, and the like, and an object (a person to be authenticated) ) And a background object have a small luminance difference, it is difficult to detect the object.

これに対して、入力画像It(x,y)について直接時間差分を計算するのではなく、It(x,y)から計算される増分符号画像の時間差分を用いることが考えられる。
増分符号とは、たとえば、文献(佐藤雄隆,金子俊一,五十嵐悟,“周辺増分符号相関画像に基づくロバスト物体検出及び分離”,信学論,vol.J84−D−II,No.12)にあるように、注目画素と周囲の画素との輝度の大小関係を符号化したものである。
On the other hand, it is conceivable to use the time difference of the incremental code image calculated from It (x, y) instead of directly calculating the time difference for the input image It (x, y).
Incremental codes are, for example, literature (Yutaka Sato, Shunichi Kaneko, Satoru Igarashi, “Robust Object Detection and Separation Based on Peripheral Incremental Sign Correlation Images,” IEICE, vol. J84-D-II, No. 12). As shown in FIG. 6, the magnitude relationship between the luminance of the pixel of interest and the surrounding pixels is encoded.

増分符号としては、たとえば、着目画素の水平方向に隣接する画素との差を符号化して得られるDS_X(x,y)、および、着目画素の垂直方向に隣接する画素との差を符号化したDS_Y(x,y)を用いる。 As the incremental code, for example, DS_X t (x, y) obtained by encoding the difference between the pixel of interest in the horizontal direction and the difference between the pixel of interest in the vertical direction is encoded. DS_Y t (x, y) is used.

DS_X(x,y)、DS_Y(x,y)は、下記式3−1、式3−2、式4−1、式4−2に示す計算により得られる。

Figure 2008234619
DS_X t (x, y) and DS_Y t (x, y) are obtained by calculations shown in the following equations 3-1, 3-2, 4-1, and 4-2.
Figure 2008234619

Figure 2008234619
Figure 2008234619

増分符号フレーム間差分画像DIFF_S(x,y)は、下記式5−1、式5−2、式5−3のように計算する。

Figure 2008234619
The incremental sign inter-frame difference image DIFF_S t (x, y) is calculated as in the following Expression 5-1, Expression 5-2, and Expression 5-3.
Figure 2008234619

増分符号フレーム間差分は、周辺画素との大小関係に基づくため照明変動に対してロバストであり、かつ、背景と対象物との輝度差が小さい場合でも、対象物の検出の性能が高いという利点がある。   Incremental code frame difference is based on the magnitude relationship with surrounding pixels, so it is robust against illumination fluctuations, and even when the brightness difference between the background and the object is small, the advantage of high object detection performance There is.

顔を対象にしたゲイン制御により、以下が起こり得る。
(1)人物が移動する場合に、顔認証に適したゲイン値および顔画像が得られないことがある。
With gain control for the face, the following can occur:
(1) When a person moves, gain values and face images suitable for face authentication may not be obtained.

(2)カメラの視野内に同時に複数の人物が存在し、かつ、顔に対しての照度が大きく異なる場合に、一方の人物の顔領域に対してゲイン制御を行うと、他の人物の顔領域に対して、顔認証に適した入力画像が得られない。   (2) When there are a plurality of persons at the same time in the field of view of the camera and the illuminance on the face differs greatly, if gain control is performed on the face area of one person, the face of the other person An input image suitable for face authentication cannot be obtained for the area.

上記(1)について説明すると、人物はカメラの前に立ち止まり、認証処理が終了するまで待つことを想定している。このため、顔認証に適した顔画像が得られるまで、ゲイン値を徐々に変化させながら、顔を撮影することができる。   The above (1) will be described. It is assumed that the person stops in front of the camera and waits until the authentication process is completed. Therefore, the face can be photographed while gradually changing the gain value until a face image suitable for face authentication is obtained.

しかし、本発明で対象とする人物は、カメラの前に立ち止まることなく、移動する人物(通行者)である。このため、ゲイン値を徐々に変化させながら、顔認証に適したゲイン値を得ようとする間に、人物がカメラの視野から外れしまう場合がある。   However, the person targeted by the present invention is a person (passerby) who moves without stopping in front of the camera. For this reason, there is a case where a person moves out of the field of view of the camera while trying to obtain a gain value suitable for face authentication while gradually changing the gain value.

上記(2)について説明する。たとえば、図13A及び図13Bに示すような状況を考える。図13Aでは、複数のスポット光照明装置L1,L2が一定間隔で配設された環境を、複数の人物M1,M2が図示矢印方向に移動している状況を表している。   The above (2) will be described. For example, consider the situation shown in FIGS. 13A and 13B. FIG. 13A shows a situation where a plurality of persons M1 and M2 are moving in the direction of the arrow in an environment in which a plurality of spot light illuminators L1 and L2 are arranged at regular intervals.

この場合に、カメラCAのアナログ映像出力は、図13Bに示すようになり、人物M1と人物M2の顔の明るさが大きく異なっている。このような場合、人物M1の顔領域についてゲイン制御を行なえば、人物M2の顔領域において多く白とびが発生し、人物M2については、顔認証に適した入力画像が得られない。一方、人物M2の顔領域についてゲイン制御を行なえば、人物M1の顔領域について多く黒つぶれが発生し、人物M1については、顔認証に適した入力画像が得られない。   In this case, the analog video output of the camera CA is as shown in FIG. 13B, and the brightness of the faces of the persons M1 and M2 are greatly different. In such a case, if gain control is performed on the face area of the person M1, many white jumps occur in the face area of the person M2, and an input image suitable for face authentication cannot be obtained for the person M2. On the other hand, if gain control is performed on the face area of the person M2, a large amount of blackening occurs in the face area of the person M1, and an input image suitable for face authentication cannot be obtained for the person M1.

図13A及び図13Bの人物M1と人物M2の顔領域について輝度調整を行なった場合の具体例を図14A及び図14Bに示す。図14Aは、人物M1の顔領域に対してゲイン制御を行なった結果である。この場合、人物M2の顔領域において多く白とびが発生しており、顔認証に適した入力画像が得られていない。図14Bは、人物M2の顔領域に対してゲイン制御を行なった結果である。この場合、人物M1の顔領域において多く黒つぶれが発生しており、顔認証に適した入力画像が得られていない。   14A and 14B show specific examples when the brightness adjustment is performed on the face areas of the persons M1 and M2 in FIGS. 13A and 13B. FIG. 14A shows the result of gain control performed on the face area of the person M1. In this case, many whiteouts occur in the face area of the person M2, and an input image suitable for face authentication is not obtained. FIG. 14B shows the result of gain control performed on the face area of the person M2. In this case, many black areas are generated in the face area of the person M1, and an input image suitable for face authentication is not obtained.

また、増分符号フレーム間差分による変化領域の検出方法によると、光ショットノイズの影響により、テクスチャがなく、かつ、動きのない領域を変化領域として誤って検出してしまうことがある。   In addition, according to the method for detecting a change area based on the difference between incremental code frames, an area having no texture and no motion may be erroneously detected as a change area due to the influence of light shot noise.

ここに、光ショットノイズとは、周知のように、カメラに用いられるイメージセンサで発生するノイズである。一般に、イメージセンサに一定照度で一定時間の光を当てた場合でも、イメージセンサの出力にばらつきが発生する。光ショットノイズは、このばらつきとして観測される。   Here, light shot noise is noise generated in an image sensor used in a camera, as is well known. In general, even when light is applied to an image sensor at a constant illuminance for a certain period of time, the output of the image sensor varies. Optical shot noise is observed as this variation.

図15Aに示すように、イメージセンサに一定照度で一定時間の光を当てたときの出力Sを時刻tについてプロットすると、図15Bに示すようになる。これは、平均値S_meanを中心とした標準偏差ノイズ成分を含んだ信号である。なお、標準偏差は下記式6により示される。

Figure 2008234619
As shown in FIG. 15A, when the output S when light of a predetermined time is irradiated with light at a constant illuminance is plotted for time t, the result is as shown in FIG. 15B. This is a signal including a standard deviation noise component centered on the average value S_mean. The standard deviation is represented by the following formula 6.
Figure 2008234619

図15BをSの値についてヒストグラムを生成すると、図15Cに示すように、平均値S_mean、標準偏差の正規分布となる。   When a histogram is generated for the value S in FIG. 15B, a normal distribution with an average value S_mean and a standard deviation is obtained as shown in FIG. 15C.

イメージセンサの出力をA/D変換して得られる入力画像中では、光ショットノイズの標準偏差σ(x,y)は、下記式7に示すように、輝度の平方根に比例する。ここで、I(x,y)は、入力画像の輝度とする。

Figure 2008234619
In the input image obtained by A / D converting the output of the image sensor, the standard deviation σ t (x, y) of the light shot noise is proportional to the square root of the luminance, as shown in the following Equation 7. Here, I t (x, y) is the luminance of the input image.
Figure 2008234619

図16Aの入力画像の直線y=yでの輝度値I(x,y)を垂直軸とし、入力画像のx軸を水平軸としたグラフは、図16Bのようになる。I(x,y)をx方向に微分した画像DI_X(x,y)を垂直軸に、入力画像のx軸を水平軸としたグラフは、図16Cのようになる。図16Aにおいて、Mは人物を示している。 Brightness value I t (x, y 0) of a straight line y = y o of the input image of FIG. 16A to the vertical axis, graph the horizontal axis in the x-axis of the input image is as shown in Figure 16B. I t (x, y 0) images obtained by differentiating in x DI_X t (x, y 0) in the vertical axis, graph the horizontal axis in the x-axis of the input image is as shown in Figure 16C. In FIG. 16A, M indicates a person.

図16A、図16B、図16Cから明らかなように、明るい壁の領域E1において、ノイズにより閾値TH_SDよりも値が大きくなる、あるいは、閾値−TH_SDよりも値が小さくなる画素が多く存在する。このような明るい壁の領域での増分符号DS_X(x,y)およびDS_Y(x,y)は、時間的に頻繁に変動する。 As is apparent from FIGS. 16A, 16B, and 16C, in the bright wall region E1, there are many pixels whose values are larger than the threshold value TH_SD or smaller than the threshold value -TH_SD due to noise. Incremental codes DS_X t (x, y) and DS_Y t (x, y) in such a bright wall region frequently change over time.

そのため、図17に示すように、輝度の高い領域において、ノイズの影響を受け、たとえば、壁の領域E1と天井の領域E2を変化領域として誤って検出してしまう。図17の差分画像DIFF_S(x,y)では、変化の検出された画素は黒と斜線で、変化の検出されなかった画素は白で表されている。 For this reason, as shown in FIG. 17, in the high luminance region, it is affected by noise, and for example, the wall region E1 and the ceiling region E2 are erroneously detected as change regions. In the difference image DIFF_S t (x, y) in FIG. 17, pixels in which a change is detected are represented by black and diagonal lines, and pixels in which no change is detected are represented by white.

光ショットノイズの影響を受けないように、閾値TH_SDの値を大きくすることが考えられる。しかし、図16の例では人物の輪郭部分がエッジのない平坦とみなされてしまい、つまり、増分符号DS_X(x,y)およびDS_Y(x,y)において、人物の輪郭部分が「0」となってしまい、人物の移動を変化として検出できなくなる。 It is conceivable to increase the threshold value TH_SD so as not to be affected by light shot noise. However, in the example of FIG. 16, the contour portion of the person is regarded as flat without an edge, that is, the contour portion of the person is “0” in the incremental codes DS_X t (x, y) and DS_Y t (x, y). It becomes impossible to detect the movement of the person as a change.

入力画像での光ショットノイズは、入力画像の輝度値に比例するため、入力画像の1画素当たりのビット数nが大きいほど、入力画像の輝度値の最大値が大きくなり、その結果、増分符号フレーム間差分は、光ショットノイズの影響を受けやすくなる。   Since the light shot noise in the input image is proportional to the luminance value of the input image, the maximum value of the luminance value of the input image increases as the number of bits n per pixel of the input image increases. The inter-frame difference is easily affected by light shot noise.

そこで、本実施形態で説明する顔認証装置及び顔認証方法によれば、顔認証に適した顔画像が得られ、結果として顔の認証性能が向上する。また、本実施形態で説明する顔認証装置及び顔認証方法によれば、光ショットノイズを変化として検出しなくなり、変化検出の性能が向上し、結果として顔の認証性能が向上する。   Therefore, according to the face authentication apparatus and the face authentication method described in the present embodiment, a face image suitable for face authentication is obtained, and as a result, face authentication performance is improved. Further, according to the face authentication device and the face authentication method described in the present embodiment, the light shot noise is not detected as a change, the change detection performance is improved, and as a result, the face authentication performance is improved.

以下、本実施形態の概要について簡単に説明する。本実施形態では、たとえば、図2に示すように、人物(歩行者)Mが図示矢印方向に移動する通路1などの壁面2にカメラ11を配設し、一定時間ごとに人物Mの少なくとも顔を含む画像を取得する。得られる画像系列から人物Mの顔領域を検出し、追跡する。得られた顔画像から、移動する人物Mがあらかじめ登録された人物が否かを判定する。   The outline of the present embodiment will be briefly described below. In the present embodiment, for example, as shown in FIG. 2, a camera 11 is disposed on a wall surface 2 such as a passage 1 where a person (pedestrian) M moves in the direction of the arrow in the figure, and at least the face of the person M is set at regular intervals. Get an image containing. The face area of the person M is detected and tracked from the obtained image series. It is determined from the obtained face image whether or not there is a person in which the moving person M is registered in advance.

本発明が適用される対象としては、たとえば、入室の制限を行ないたい部屋の入口付近に設置し、あらかじめ入室を許可する人物であると判定した場合に、部屋の鍵を開錠する等に用いることが考えられる。
または、店舗等に設置し、あらかじめ要注意人物を登録しておき、通行する人物が要注意人物であると判定した場合には、警報を発する等に用いることも考えられる。
As an object to which the present invention is applied, for example, it is installed near the entrance of a room where entry restriction is to be performed, and when it is determined that the person is allowed to enter the room in advance, it is used for unlocking the room key, etc. It is possible.
Alternatively, it may be installed in a store or the like, registered with a person requiring attention in advance, and used to issue an alarm when it is determined that the passing person is a person requiring attention.

以下、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る顔認証装置の構成を概略的に示すものである。この顔認証装置は、ビデオカメラ(以降、単にカメラと略称する)11、A/D変換部12、高階調入力画像バッファ13、変化検出部14、頭部候補領域検出部15、顔輝度変換部16、低階調入力画像バッファ17、顔検出辞書(メモリ)18、顔パターン検出部19、顔追跡部20、顔認証辞書(メモリ)21、及び顔認証部22を備えている。
Hereinafter, the first embodiment will be described.
FIG. 1 schematically shows a configuration of a face authentication apparatus according to the first embodiment. This face authentication apparatus includes a video camera (hereinafter simply referred to as a camera) 11, an A / D converter 12, a high gradation input image buffer 13, a change detector 14, a head candidate area detector 15, and a face luminance converter. 16, a low gradation input image buffer 17, a face detection dictionary (memory) 18, a face pattern detection unit 19, a face tracking unit 20, a face authentication dictionary (memory) 21, and a face authentication unit 22.

ビデオカメラ11は、歩行者Mの少なくとも顔を含む画像を取得する。A/D変換部12は、カメラ11から得られるアナログ映像信号をデジタル高階調入力画像(第1階調度の入力画像)に変換する。高階調入力画像バッファ13は、A/D変換部12から得られる高階調入力画像を一時格納する。   The video camera 11 acquires an image including at least the face of the pedestrian M. The A / D conversion unit 12 converts an analog video signal obtained from the camera 11 into a digital high gradation input image (an input image having a first gradation). The high gradation input image buffer 13 temporarily stores the high gradation input image obtained from the A / D conversion unit 12.

変化検出部14は、高階調入力画像バッファ13に格納された高階調入力画像から移動物体の領域を変化領域として検出する。つまり、変化検出部14は、高階調入力画像を構成する複数フレーム間から変化領域を検出する。頭部候補領域検出部15は、変化検出部14により検出された変化領域の画像から人物の頭部候補領域を検出する。顔輝度変換部16は、頭部候補領域検出部15により検出された頭部候補領域の画像に対して輝度変換を行なうことにより、高階調入力画像から低階調入力画像(第2階調度の入力画像)を生成する。   The change detection unit 14 detects the area of the moving object as a change area from the high gradation input image stored in the high gradation input image buffer 13. That is, the change detection unit 14 detects a change region between a plurality of frames constituting the high gradation input image. The head candidate area detection unit 15 detects a human head candidate area from the image of the change area detected by the change detection unit 14. The face luminance conversion unit 16 performs luminance conversion on the image of the head candidate region detected by the head candidate region detection unit 15, thereby converting the high gradation input image to the low gradation input image (second gradation degree). Input image).

低階調入力画像バッファ17は、顔輝度変換部16により生成された低階調入力画像を一時格納する。顔検出辞書18は、顔候補領域の検出に用いる顔検出辞書パターンを格納する。顔パターン検出部19、低階調入力画像バッファ17に格納された低階調入力画像の頭部候補領域から人物の顔候補領域を検出する。顔追跡部20は、顔パターン検出部19により検出された顔候補領域を追跡する。顔認証辞書21は、複数の辞書情報をあらかじめ登録(記憶)する。顔認証部22は、顔追跡部20で得られた顔領域の画像(顔画像)と顔認証辞書21にあらかじめ登録された辞書情報とを照合し、当該人物Mはあらかじめ登録された人物であるかを判定する。   The low gradation input image buffer 17 temporarily stores the low gradation input image generated by the face luminance conversion unit 16. The face detection dictionary 18 stores a face detection dictionary pattern used for detecting a face candidate area. The face pattern detection unit 19 detects a human face candidate area from the head candidate area of the low gradation input image stored in the low gradation input image buffer 17. The face tracking unit 20 tracks the face candidate area detected by the face pattern detection unit 19. The face authentication dictionary 21 registers (stores) a plurality of dictionary information in advance. The face authentication unit 22 compares the face area image (face image) obtained by the face tracking unit 20 with dictionary information registered in advance in the face authentication dictionary 21, and the person M is a person registered in advance. Determine whether.

以下、各構成要素について詳細に説明する。
カメラ11は、たとえば、図2に示すように、人物(歩行者)Mが図示矢印方向に移動する通路1などの壁面2に設置されていて、移動する人物Mの正面方向から少なくとも顔を含む画像を一定時間ごとに撮像するもので、イメージセンサを主体に構成されている。
Hereinafter, each component will be described in detail.
For example, as shown in FIG. 2, the camera 11 is installed on a wall surface 2 such as a passage 1 where a person (pedestrian) M moves in the direction of the arrow in the figure, and includes at least a face from the front direction of the moving person M. An image is taken at regular intervals, and is mainly composed of an image sensor.

A/D変換部12、カメラ11からのアナログ映像信号を1画素当たりmビットの高階調入力画像に変換し、高階調入力画像バッファ13に格納する。ここに、mとしては、たとえば、「14」を用いるものとする。   The analog video signal from the A / D converter 12 and the camera 11 is converted into a high gradation input image of m bits per pixel and stored in the high gradation input image buffer 13. Here, for example, “14” is used as m.

変化検出部14は、高階調入力画像バッファ13内の高階調入力画像から移動物体の領域を変化領域として検出するもので、その検出結果は、画素値「1」が変化あり、画素値「0」が変化なしとなるような変化画像として出力する。   The change detection unit 14 detects a moving object region as a change region from the high gradation input image in the high gradation input image buffer 13, and the detection result is that the pixel value “1” is changed and the pixel value “0” is detected. "Is output as a change image in which there is no change.

頭部候補領域検出部15は、変化検出部14により検出された変化画像から、人物の頭部らしい領域を検出する。具体的には、たとえば、変化領域に対して輪郭抽出を行ない、抽出した輪郭の曲率から頭部候補を検出する。   The head candidate area detection unit 15 detects an area that seems to be a person's head from the change image detected by the change detection unit 14. Specifically, for example, contour extraction is performed on the change region, and head candidates are detected from the curvature of the extracted contour.

顔輝度変換部16は、頭部候補領域検出部15からの頭部候補領域について、高階調入力画像から低階調入力画像を生成し、低階調入力画像バッファ17に格納する。ここに、低階調入力画像とは、1画素当たりn(<m)ビットの画像であり、nとしては、たとえば、「8」を用いるものとする。   The face luminance conversion unit 16 generates a low gradation input image from the high gradation input image for the head candidate region from the head candidate region detection unit 15 and stores it in the low gradation input image buffer 17. Here, the low gradation input image is an image of n (<m) bits per pixel, and for example, “8” is used as n.

なお、高階調入力画像から低階調入力画像への変換は、顔パターン検出および顔認証にとって適切な変換となるようにする。具体的には、たとえば、低階調入力画像において、顔領域の白とびや黒つぶれが発生しないような変換を行なう。   Note that the conversion from a high gradation input image to a low gradation input image is made suitable for face pattern detection and face authentication. Specifically, for example, in the low gradation input image, conversion is performed so as not to cause overexposure or underexposure in the face area.

顔パターン検出部19は、顔輝度変換部16により生成された低階調入力画像の頭部候補領域を対象として、顔検出辞書18内の顔検出辞書パターンとのパターンマッチングを行なうことで、顔らしい領域を顔候補領域として検出する。   The face pattern detection unit 19 performs pattern matching with the face detection dictionary pattern in the face detection dictionary 18 for the head candidate region of the low gradation input image generated by the face luminance conversion unit 16, thereby performing face matching. A probable area is detected as a face candidate area.

顔追跡部20は、顔パターン検出部19により検出された顔候補領域を時間的に追跡する。
顔認証処理22は、顔追跡部20から得られた顔画像を顔認証辞書21内の辞書情報とを照合することにより当該人物Mはあらかじめ登録された人物であるかを判定する。
The face tracking unit 20 temporally tracks the face candidate area detected by the face pattern detection unit 19.
The face authentication process 22 determines whether the person M is a person registered in advance by comparing the face image obtained from the face tracking unit 20 with the dictionary information in the face authentication dictionary 21.

図3は、全体的な処理の流れを概略的に示しており、以下、それについて説明する。
まず、ステップS1の画像入力処理では、カメラ11からのアナログ映像信号を入力する。次に、ステップS2のA/D変換処理は、A/D変換部12において、カメラ11からのアナログ映像信号を1画素当たりmビットの高階調入力画像に変換し、高階調入力画像バッファ13に格納する。
FIG. 3 schematically shows the overall processing flow, which will be described below.
First, in the image input process of step S1, an analog video signal from the camera 11 is input. Next, in the A / D conversion process of step S2, the A / D converter 12 converts the analog video signal from the camera 11 into a high gradation input image of m bits per pixel, and stores it in the high gradation input image buffer 13. Store.

次に、ステップS3の変化検出処理は、変化検出部14において、高階調入力画像バッファ13内の高階調入力画像から移動物体の領域を変化領域として検出する。その検出結果は、画素値「1」が変化あり、画素値「0」が変化なしとなるような変化画像として出力する。   Next, in the change detection process in step S <b> 3, the change detection unit 14 detects the area of the moving object from the high gradation input image in the high gradation input image buffer 13 as the change area. The detection result is output as a change image in which the pixel value “1” changes and the pixel value “0” does not change.

次に、ステップS4の頭部候補領域検出処理は、頭部候補領域検出部15において、変化検出部14により検出された変化画像から、人物の頭部らしい領域を検出する。具体的には、変化領域に対して輪郭抽出を行ない、抽出した輪郭の曲率から頭部候補を検出する。   Next, in the head candidate region detection process in step S4, the head candidate region detection unit 15 detects a region that seems to be a person's head from the change image detected by the change detection unit 14. Specifically, contour extraction is performed on the change region, and head candidates are detected from the curvature of the extracted contour.

次に、ステップS5の顔輝度変換処理は、顔輝度変換部16において、頭部候補領域検出部15からの頭部候補領域について、高階調入力画像から低階調入力画像を生成し、低階調入力画像バッファ17に格納する。   Next, in the face luminance conversion process in step S5, the face luminance conversion unit 16 generates a low gradation input image from the high gradation input image for the head candidate region from the head candidate region detection unit 15, Stored in the key input image buffer 17.

なお、高階調入力画像から低階調入力画像への変換は、顔パターン検出および顔認証にとって適切な変換となるようにする。具体的には、低階調入力画像において、顔領域の白とびや黒つぶれが発生しないような変換を行なう。   Note that the conversion from a high gradation input image to a low gradation input image is made suitable for face pattern detection and face authentication. Specifically, in the low gradation input image, conversion is performed so as not to cause overexposure or underexposure in the face area.

次に、ステップS6の顔パターン検出処理は、顔パターン検出部19において、顔輝度変換部16により生成された低階調入力画像の頭部候補領域を対象として、顔検出辞書18内の顔検出辞書パターンとのパターンマッチングを行なうことで、顔らしい領域を顔候補領域として検出する。   Next, in the face pattern detection process of step S6, the face pattern detection unit 19 detects the face in the face detection dictionary 18 for the head candidate region of the low gradation input image generated by the face luminance conversion unit 16. By performing pattern matching with the dictionary pattern, a face-like area is detected as a face candidate area.

次に、ステップS7の顔追跡処理は、顔追跡部20において、顔パターン検出部19により検出された顔候補領域を時間的に追跡する。そして、顔追跡部20により顔追跡中の人物について、顔の画像が一定枚数(N_IMG)以上得られた場合(ステップS8)、ステップS9の顔認証処理が行なわれる。   Next, in the face tracking process in step S7, the face tracking unit 20 temporally tracks the face candidate area detected by the face pattern detection unit 19. When the face tracking unit 20 obtains a certain number (N_IMG) of face images for the person whose face is being tracked (step S8), the face authentication process in step S9 is performed.

ステップS9の顔認証処理は、顔認証処理22において、顔追跡部20から得られた顔画像を顔認証辞書21内の辞書情報とを照合することにより当該人物Mはあらかじめ登録された人物であるかを判定する。   In the face authentication process in step S9, the person M is a person registered in advance by collating the face image obtained from the face tracking unit 20 with the dictionary information in the face authentication dictionary 21 in the face authentication process 22. Determine whether.

以下、ステップS3の変化検出処理、ステップS5の顔輝度変換処理、ステップS6の顔パターン検出処理、ステップS7の顔追跡処理、ステップS9の顔認証処理について詳細に説明する。   Hereinafter, the change detection process in step S3, the face luminance conversion process in step S5, the face pattern detection process in step S6, the face tracking process in step S7, and the face authentication process in step S9 will be described in detail.

まず、ステップS3の変化検出処理について説明する。
変化検出処理は、正規化増分符号フレーム間差分を用いて変化領域の検出を行なうものである。正規化増分符号フレーム間差分とは、前述した増分符号フレーム間差分を改良したものであり、以下、正規化増分符号フレーム間差分の計算について説明する。
First, the change detection process in step S3 will be described.
In the change detection process, a change region is detected using a normalized incremental code interframe difference. The normalized incremental code interframe difference is an improvement of the above-described incremental code interframe difference. Hereinafter, calculation of the normalized incremental code interframe difference will be described.

まず、時刻tの高階調入力画像I(x,y)から、下記式8−1、式8−2により、水平微分画像DI_X(x,y)および垂直微分画像DI_Y(x,y)を取得する。

Figure 2008234619
First, from the high gradation input image I t (x, y) at time t, the horizontal differential image DI_X t (x, y) and the vertical differential image DI_Y t (x, y) are expressed by the following equations 8-1 and 8-2. ) To get.
Figure 2008234619

次に、光ショットノイズの影響を受けないようにするため、下記式9−1、式9−2に示す補正処理を実行する。

Figure 2008234619
Next, in order to avoid the influence of light shot noise, correction processing shown in the following formulas 9-1 and 9-2 is executed.
Figure 2008234619

なお、上記式9−1、式9−2に記載のαsdは定数とする。 Note that α sd described in the above equations 9-1 and 9-2 is a constant.

なお、上記式9−1、式9−2の替わりに、下記式A−1、式A−2を用いても良い。   Note that the following formulas A-1 and A-2 may be used instead of the formulas 9-1 and 9-2.

N_DI_Xt(x,y) = ( αsd / SD(It(x,y)) ) * DI_Xt(x,y) [式A−1]
N_DI_Yt(x,y) = ( αsd / SD(It(x,y)) ) * DI_Yt(x,y) [式A−2]
なお、上記式式A−1、式A−2に記載のSD(It(x,y)) は、sqrt( It(x,y) )の近似であり、具体的には、次のように実現する。
N_DI_Xt (x, y) = (αsd / SD (It (x, y))) * DI_Xt (x, y) [Formula A-1]
N_DI_Yt (x, y) = (αsd / SD (It (x, y))) * DI_Yt (x, y) [Formula A-2]
Note that SD (It (x, y)) described in the above formulas A-1 and A-2 is an approximation of sqrt (It (x, y)), and specifically, as follows: Realize.

SD(I) の計算例 1
高階調入力画像の階調数2m の要素数を持つ、SD_ARRAY(I) ( I = 0, 1, 2, .., 2m − 1) を用意し、SD_ARRAY(I) = sqrt(I) ( I = 0, 1, 2, .., 2m − 1) となるように、SD_ARRAY(I) に値を保持する。
SD (I) calculation example 1
Prepare SD_ARRAY (I) (I = 0, 1, 2, .., 2 m − 1) with the number of elements of 2 m gradation of the high gradation input image, and SD_ARRAY (I) = sqrt (I) Hold the value in SD_ARRAY (I) so that (I = 0, 1, 2, .., 2 m − 1).

例えば、m=12, n=8 のときには、下記のようになる。   For example, when m = 12, n = 8:

SD_ARRAY(0) = 0
SD_ARRRY(1) = 1
SD_ARRRY(2) = 1.14
SD_ARRRY(3) = 1.73
SD_ARRRY(4) = 2
….
SD_ARRAY(4095) =63.99
式A−1、式A−2においては、下記式Bにより計算する。
SD_ARRAY (0) = 0
SD_ARRRY (1) = 1
SD_ARRRY (2) = 1.14
SD_ARRRY (3) = 1.73
SD_ARRRY (4) = 2
….
SD_ARRAY (4095) = 63.99
In Formula A-1 and Formula A-2, calculation is performed according to the following Formula B.

SD(It(x,y)) = SD_ARRAY(It(x,y) ) [式B−1]
SD(I) の計算例 2
SD(I) として、区分直線近似を行い計算する。具体的には、図18の点線(区分直線)で近似する。図18は、m=12 の場合の例である。図18の実線は、sqrt(I)である。この曲線を図18中の点A、B、C、Dで区切り、これらを順に結んだ点線で示される直線により近似する。計算の精度がそれほど必要でない状況においては、例えば、A、B、Dを結んだ直線のように、区分直線を作る際に、用いる点の数を減らしてもよい。
SD (It (x, y)) = SD_ARRAY (It (x, y)) [Formula B-1]
SD (I) calculation example 2
Calculate as piecewise linear approximation as SD (I). Specifically, it is approximated by a dotted line (partial line) in FIG. FIG. 18 shows an example in the case of m = 12. The solid line in FIG. 18 is sqrt (I). This curve is divided by points A, B, C and D in FIG. 18 and approximated by a straight line indicated by a dotted line connecting them in order. In a situation where the accuracy of calculation is not so necessary, the number of points used may be reduced when creating a piecewise straight line such as a straight line connecting A, B, and D, for example.

次に、下記式10−1、式10−2に示すように、補正処理後の画像N_DI_X(x,y)、N_DI_Y(x,y)を、あらかじめ定められた所定の閾値TH_SDと比較することにより、それぞれ、正規化増分符号画像N_DS_X(x,y)とN_DS_Y(x,y)を取得する。

Figure 2008234619
Next, as shown in the following formulas 10-1 and 10-2, the corrected images N_DI_X t (x, y) and N_DI_Y t (x, y) are compared with a predetermined threshold TH_SD. As a result, the normalized incremental code images N_DS_X t (x, y) and N_DS_Y t (x, y) are acquired, respectively.
Figure 2008234619

また、時刻t−1の高階調入力画像I(x,y)に対するN_DS_Xt−1(x,y)とN_DS_Yt−1も同様に計算する。 Further, N_DS_X t-1 (x, y) and N_DS_Y t-1 for the high gradation input image I t (x, y) at time t−1 are calculated in the same manner.

次に、下記式11−1、式11−2により、変化画像N_DIFF_S_Xt−1(x,y)、N_DIFF_S_Yt−1(x,y)を計算する。

Figure 2008234619
Next, change images N_DIFF_S_X t-1 (x, y) and N_DIFF_S_Y t-1 (x, y) are calculated by the following formulas 11-1 and 11-2.
Figure 2008234619

最後に、正規化増分符号フレーム間差分画像N_DIFF_S(x,y)を下記式12により計算する。

Figure 2008234619
Finally, a normalized increment code inter-frame difference image N_DIFF_S t (x, y) is calculated by the following equation 12.
Figure 2008234619

次に、ステップS5の顔輝度変換処理について説明する。
顔輝度変換処理は、頭部候補領域について高階調入力画像から低階調入力画像を生成する。すなわち、頭部候補領域の中心の領域について、高階調入力画像の輝度ヒストグラムを計算する。得られた輝度ヒストグラムが例えば図4Aに示すものだとすると、輝度ヒストグラムの輝度の最大値、最小値をそれぞれ、I_max、I_minとして求め、I_max、I_minが、図4Bに示すように、変換後の低階調入力画像において階調値の最小値「0」、階調の最大値「2−1」となるように輝度変換を行なう。
Next, the face luminance conversion process in step S5 will be described.
The face luminance conversion process generates a low gradation input image from a high gradation input image for the head candidate region. That is, the brightness histogram of the high gradation input image is calculated for the central region of the head candidate region. If the obtained luminance histogram is as shown in FIG. 4A, for example, the maximum and minimum luminance values of the luminance histogram are obtained as I_max and I_min, respectively. In the tone input image, the luminance conversion is performed so that the minimum gradation value “0” and the maximum gradation value “2 n −1” are obtained.

この輝度変換は、頭部候補領域についてだけ下記数12のような輝度変換を行なう。ここで、下記式13におけるIinは、高階調入力画像の輝度値、1outは、低階調入力画像の輝度値とする。

Figure 2008234619
In this luminance conversion, luminance conversion as shown in the following Expression 12 is performed only for the head candidate region. Here, I in in the following equation 13 is the luminance value of the high gradation input image, and 1 out is the luminance value of the low gradation input image.
Figure 2008234619

輝度変換の例を図5に示す。頭部候補領域の中心領域についての高階調入力画像の輝度ヒストグラムが図5の(b)の場合に、顔輝度変換の結果、得られる低階調入力画像の頭部候補領域の中心領域についての輝度ヒストグラムは図5の(c)に示すようになる。図5の(a)は、カメラ11のアナログ出力信号および顔領域についてのアナログ出力レベルヒストグラムである。   An example of luminance conversion is shown in FIG. When the luminance histogram of the high gradation input image for the central region of the head candidate region is (b) in FIG. 5, as a result of the face luminance conversion, the central region of the head candidate region of the low gradation input image obtained as a result of the face luminance conversion is obtained. The luminance histogram is as shown in FIG. FIG. 5A is an analog output level histogram for the analog output signal of the camera 11 and the face area.

次に、ステップS6の顔パターン検出処理について説明する。
顔輝度変換処理により得られた頭部候補領域の低階調入力画像について顔パターン検出を行なう。顔パターン検出の手法としては、たとえば、文献(三田,金子,堀,“微小な差異を含む画像の認証に適した空間差分確率テンプレートの提案”,第9会画像センシングシンポジウム講演論文集,SSII03,2003)に記載された手法を用いることができる。これは、事前に顔の学習パターンから顔検出辞書パターンを作成しておき、顔検出辞書パターンと高い類似度を持つ領域を入力画像中から探す手法である。
Next, the face pattern detection process in step S6 will be described.
Face pattern detection is performed on the low gradation input image of the head candidate area obtained by the face luminance conversion process. Examples of face pattern detection methods include literature (Mita, Kaneko, Hori, “Proposal of Spatial Difference Probability Template Suitable for Authentication of Images Containing Minute Differences”, Proceedings of the 9th Meeting of Image Sensing Symposium, SSII03, The technique described in 2003) can be used. This is a technique in which a face detection dictionary pattern is created in advance from a face learning pattern, and an area having a high similarity with the face detection dictionary pattern is searched from an input image.

顔検出辞書パターンは、たとえば、大量の正面向きの顔画像から作成する。このように作成した顔検出辞書パターンを顔検出辞書18に格納しておき、顔パターン検出の際に用いることで、ほぼ正面向きの顔候補領域が検出される。検出された顔候補領域は、図6に示すように正方形の顔候補矩形FEとして表す。   For example, the face detection dictionary pattern is created from a large number of face images facing the front. The face detection dictionary pattern created in this way is stored in the face detection dictionary 18 and used in the face pattern detection, whereby a face candidate region that is substantially front-facing is detected. The detected face candidate area is represented as a square face candidate rectangle FE as shown in FIG.

次に、ステップS7の顔追跡処理について説明する。
顔追跡処理は、前フレームの顔候補領域から現フレームでの顔候補領域を得るもので、図7に顔追跡処理の流れを示す。ここで、前フレームとは時刻t−1の入力画像とし、現フレームとは時刻tの入力画像とする。
Next, the face tracking process in step S7 will be described.
In the face tracking process, the face candidate area in the current frame is obtained from the face candidate area in the previous frame. FIG. 7 shows the flow of the face tracking process. Here, the previous frame is an input image at time t−1, and the current frame is an input image at time t.

まず、前フレームの顔候補領域について、オプティカルフローを抽出する(ステップS21)。具体的には、前フレームの顔候補領域を小ブロックに分割し、各ブロックが現フレームでどの位置にあるかを、テンプレートマッチング等を用いて計算する。図8に顔候補領域FEのオプティカルフローの例を示す。   First, an optical flow is extracted for the face candidate area of the previous frame (step S21). Specifically, the face candidate area of the previous frame is divided into small blocks, and the position of each block in the current frame is calculated using template matching or the like. FIG. 8 shows an example of the optical flow of the face candidate area FE.

オプティカルフローを抽出する小ブロックWは、x方向とy方向のエッジを共に持つことが望ましい。これは、エッジのない平坦な領域からオプティカルフローを抽出すると、誤ったオプティカルフローを抽出してしまうためである。具体的には、下記式14を満たす小ブロックWからオプティカルフローを抽出する。

Figure 2008234619
The small block W from which the optical flow is extracted preferably has both edges in the x direction and the y direction. This is because if an optical flow is extracted from a flat region having no edge, an erroneous optical flow is extracted. Specifically, an optical flow is extracted from a small block W that satisfies the following expression (14).
Figure 2008234619

ここで、T(W)、T(W)は、それぞれ小ブロックWのxについての微分の絶対値の平均、yについての微分の絶対値の平均である。また、V(W)は、小ブロックWの輝度平均であり、TH_TEXTUREは閾値である。 Here, T x (W) and T y (W) are the average of the absolute value of the differentiation for x of the small block W and the average of the absolute value of the differentiation for y, respectively. V (W) is the average luminance of the small block W, and TH_TEXTURE is a threshold value.

なお、Etexture(W)の計算において、微分の絶対値の平均を小ブロックWの輝度平均の平方根で割算しているのは、明るい小ブロックにおいて、光ショットノイズにより微分の絶対値の平均が大きくなり、エッジを含まない平坦な領域についてオプティカルフローを計算するのを防ぐためである。 In the calculation of E texture (W), the average of the absolute value of the differentiation is divided by the square root of the luminance average of the small block W because the average value of the absolute value of the differentiation due to the light shot noise in the bright small block. This is to prevent the optical flow from being calculated for a flat region not including an edge.

(W)、T(W)、V(W)は次のように表される。ここで、下記式15−1、式15−2、式15−3におけるAwは小ブロックWの面積とする。

Figure 2008234619
T x (W), T y (W), and V (W) are expressed as follows. Here, Aw in the following formulas 15-1, 15-2, and 15-3 is the area of the small block W.
Figure 2008234619

なお、上記式14を下記式Cに置き換えてもよい。 In addition, you may replace the said Formula 14 with the following formula C.

Etexuture(W) = min( Tx(W), Ty(W) ) / SD( V(W) ) > TH_TEXTURE [式C]
SD(V(W)) は、sqrt(V(W))の近似である。前述のSD(I)の計算方法の具体例で説明したのと同様の方法により、計算する。
Etexuture (W) = min (Tx (W), Ty (W)) / SD (V (W))> TH_TEXTURE [Formula C]
SD (V (W)) is an approximation of sqrt (V (W)). The calculation is performed by the same method as described in the specific example of the SD (I) calculation method described above.

ここで、前フレームの顔候補領域の小ブロックの中心点、及び中心点に対応する現フレームの点を下記の通り定義する。

Figure 2008234619
Here, the center point of the small block of the face candidate area of the previous frame and the point of the current frame corresponding to the center point are defined as follows.
Figure 2008234619

前フレームの顔候補領域の小ブロックの中心点は、下記式17に示す通りである。

Figure 2008234619
The center point of the small block in the face candidate area of the previous frame is as shown in Equation 17 below.
Figure 2008234619

また、中心点に対応する現フレームの点は、下記式18に示す通りである。

Figure 2008234619
The point of the current frame corresponding to the center point is as shown in the following equation (18).
Figure 2008234619

次に、顔変形パラメータ計算を行なう(ステップS22)。つまり、下記に示す変換式を計算する。

Figure 2008234619
Next, face deformation parameter calculation is performed (step S22). That is, the following conversion formula is calculated.
Figure 2008234619

たとえば、変換式として、下記式20−1、式20−2を用いる。

Figure 2008234619
For example, the following equations 20-1 and 20-2 are used as conversion equations.
Figure 2008234619

これは、x軸とy軸それぞれのスケーリングと平行移動の変換式である。   This is a conversion formula for scaling and translation of the x-axis and y-axis, respectively.

次に、回帰分析を用いて、A,B,A,Bを予測し、得られた値をA′,B′,A′,B′とし、下記式21−1、式21−2の演算を行なう。

Figure 2008234619
Next, A x , B x , A y , B y are predicted using regression analysis, and the obtained values are set as A ′ x , B ′ x , A ′ y , B ′ y , and the following equation 21− 1. The calculation of Expression 21-2 is performed.
Figure 2008234619

式21−1、式21−2で求められた各値が共にあらかじめ定められた閾値よりも小さな場合には、顔変形パラメータの計算が得られたとして(ステップS23)、前フレームの顔候補領域の外接矩形Rt−1から現フレームの顔候補領域の外接矩形Rを計算して、現フレームの顔候補領域の位置とし(ステップS24)、処理を終了する。 When the values obtained by Expression 21-1 and Expression 21-2 are both smaller than a predetermined threshold, it is determined that face deformation parameters have been calculated (step S23), and the face candidate area of the previous frame enclosing rectangle R t-1 after calculating a circumscribed rectangle R t of the face candidate region of the current frame, the position of the face candidate region of the current frame (step S24), and ends the process.

t−1の左上と右下の点の座標をそれぞれ、(LEFTt−1,TOPt−1)、(RIGHTt−1,BOTTOMt−1とし、Rの左上と右下の点の座標をそれぞれ、(LEFT,TOP)、(RIGHT,BOTTOM)とすると、Rの左上と右下の点の座標は、下記式22−1、式22−2、式22−3、式22−4に示すように変換される。

Figure 2008234619
R t-1 of the upper left and the coordinates of the points of the lower right, respectively, (LEFT t-1, TOP t-1), (RIGHT t-1, and BOTTOM t-1, of the upper left point and the lower right of the R t Assuming that the coordinates are (LEFT t , TOP t ) and (RIGHT t , BOTTOM t ), the coordinates of the upper left and lower right points of R t are the following expressions 22-1, 22-2, and 22-3. , Converted as shown in Equation 22-4.
Figure 2008234619

変形パラメータの計算に失敗した場合(ステップS23)、つまり、式21で求められた各値が共にあらかじめ定められた閾値以上の場合には、前フレームの顔候補領域を一定サイズ拡張した領域について顔パターン検出を行なう(ステップS25)。顔パターンにより顔候補領域が検出されれば(ステップS26)、それを現フレームでの顔候補領域とし(ステップS27)、処理を終了する。顔パターンにより顔候補領域が検出されなければ(ステップS26)、前フレームの顔候補領域を現フレームの顔候補領域とする(ステップS28)。   If the calculation of the deformation parameter fails (step S23), that is, if the values obtained by Expression 21 are both equal to or larger than a predetermined threshold, the face candidate region of the previous frame is expanded by a certain size. Pattern detection is performed (step S25). If a face candidate area is detected from the face pattern (step S26), it is set as a face candidate area in the current frame (step S27), and the process is terminated. If the face candidate area is not detected by the face pattern (step S26), the face candidate area of the previous frame is set as the face candidate area of the current frame (step S28).

次に、連続で前フレームの顔候補領域を現フレームの顔候補領域としたフレーム数が所定の閾値T_NOT_DETECTED以上か否かをチェックし(ステップS29)、閾値T_NOT_DETECTED以上でない場合は処理を終了し、閾値T_NOT_DETECTED以上の場合には、人物Mがカメラ11の視野からいなくなったとみなして、顔の追跡を中止し(ステップS30)、処理を終了する。   Next, it is checked whether or not the number of frames in which the face candidate area of the previous frame is continuously the face candidate area of the current frame is greater than or equal to a predetermined threshold T_NOT_DETECTED (step S29). If it is equal to or greater than the threshold value T_NOT_DETECTED, it is assumed that the person M has disappeared from the field of view of the camera 11, and the face tracking is stopped (step S30), and the process is terminated.

次に、ステップS9の顔認証処理について説明する。
顔認証処理は、顔追跡処理で得られた顔画像について、顔認証辞書21にあらかじめ登録された人物か否かの判定を行なう。具体的には、たとえば、特開2001−266152号公報に記載されているように、あらかじめ登録者(歩行者)の顔画像を用意し、その顔画像から抽出した顔の固有の特徴情報を辞書情報として顔認識辞書21に記憶(登録)しておく。そして、顔追跡処理で得られた顔領域の画像(特徴情報)と顔認識辞書21にあらかじめ登録された辞書情報とを照合して両者の類似度を求め、求めた類似度があらかじめ設定された閾値以上である場合、当該人物(歩行者)Mはあらかじめ登録された人物であると判定し、求めた類似度が閾値以上でない場合、当該人物Mはあらかじめ登録された人物でないと判定する。
Next, the face authentication process in step S9 will be described.
In the face authentication process, it is determined whether or not the face image obtained by the face tracking process is a person registered in the face authentication dictionary 21 in advance. Specifically, for example, as described in Japanese Patent Laid-Open No. 2001-266152, a facial image of a registrant (pedestrian) is prepared in advance, and unique feature information of the face extracted from the facial image is stored in a dictionary. It is stored (registered) in the face recognition dictionary 21 as information. Then, the face area image (feature information) obtained by the face tracking process and the dictionary information registered in advance in the face recognition dictionary 21 are collated to obtain the similarity between them, and the obtained similarity is set in advance. If it is greater than or equal to the threshold, it is determined that the person (pedestrian) M is a person registered in advance, and if the obtained similarity is not greater than or equal to the threshold, the person M is determined not to be a person registered in advance.

以上説明したように第1の実施の形態によれば、高階調入力画像について変化検出と頭部候補検出を行ない、次に、頭部候補領域について顔輝度変換を行ない、さらに、得られた低階調入力画像について顔パターン検出を行なうことにより、ゲイン値を切換えずに、高階調入力画像を処理するため、移動する人物に対して顔の輝度制御が容易にできるようになる。これに対し、前述したように、複数のゲイン値を切換えながら画像を取得することを前提とすると、移動する人物に対しての輝度制御が困難となる。   As described above, according to the first embodiment, change detection and head candidate detection are performed for a high gradation input image, then face luminance conversion is performed for the head candidate region, and the obtained low By performing face pattern detection on the gradation input image, the high gradation input image is processed without switching the gain value, so that it is possible to easily control the brightness of the face for a moving person. On the other hand, as described above, if it is assumed that an image is acquired while switching a plurality of gain values, it is difficult to perform luminance control for a moving person.

また、図13に示したような、複数の人物が存在し、各人物についての顔の照度が大きく異なる場合でも個々の人物の顔について適切に輝度制御が行なわれることがある。ゲイン値切換えの手法を図13の場合に適用して得られる顔の画像では、図14Aまたは図14Bのような、一方の人物についてのみしか適切な輝度制御が行なわれていない。これに対して、第1の実施の形態では、各顔の別々に輝度制御が行なわれるので、図9に示すような、適切な輝度制御が行なわれた結果が得られる。   In addition, even when there are a plurality of persons as shown in FIG. 13 and the illuminances of the faces of the persons differ greatly, the brightness control may be appropriately performed on the faces of the individual persons. In the face image obtained by applying the gain value switching method in the case of FIG. 13, appropriate brightness control is performed only for one person as shown in FIG. 14A or FIG. 14B. On the other hand, in the first embodiment, since brightness control is performed on each face separately, a result of appropriate brightness control as shown in FIG. 9 is obtained.

さらに、変化検出を行なう増分符号フレーム間差分の計算において、微分画像を入力画像の輝度の平方根で割り、光ショットノイズに影響を受けにくくした正規化増分符号フレーム間差分を用いることにより、図10Aの状況から得られた図10B、さらに図10Bから得られた図10Cに示すDI_X(x,y)は、図10Dに示すN_DI_S(x,y)に変換され、明るい壁の領域E1のノイズ成分が低減される。なお、図10A〜図10Cは、図16A〜図16Cに対応するので、図10A〜図10Cの詳細な説明は省略する。
その結果、差分画像N_DIFF_S(x,y)は図11に示すようになり、光ショットノイズを変化として検出しなくなる。これにより、その後段の処理での性能が向上し、結果として顔認証としての認証性能が向上する。
Further, in the calculation of the difference between the incremental code frames for detecting the change, the differential image is divided by the square root of the luminance of the input image, and the normalized incremental code interframe difference which is less affected by the light shot noise is used. 10B obtained from the situation of FIG. 10B, and DI_X t (x, y) shown in FIG. 10C obtained from FIG. 10B are converted into N_DI_S t (x, y) shown in FIG. Noise component is reduced. Note that FIGS. 10A to 10C correspond to FIGS. 16A to 16C, and thus detailed descriptions of FIGS. 10A to 10C are omitted.
As a result, the difference image N_DIFF_S t (x, y) is as shown in FIG. 11, and the light shot noise is not detected as a change. Thereby, the performance in the subsequent processing is improved, and as a result, the authentication performance as face authentication is improved.

次に、第2の実施の形態について説明する。
第2の実施の形態の装置構成および処理の流れは、基本的には前述した第1の実施の形態と同様であるので説明は省略し、第1の実施の形態と異なる部分についだけ説明する。第2の実施の形態では、ステップS3の変化検出処理において、時間差分正規化輝度フレーム間差分を用い変化領域の検出を行なうものである。時間差分正規化輝度フレーム間差分とは、前述した輝度フレーム間差分を、光ショットノイズの影響を受けにくくするように改良したものであり、以下、時間差分正規化輝度フレーム間差分の計算について説明する。
Next, a second embodiment will be described.
The apparatus configuration and the process flow of the second embodiment are basically the same as those of the first embodiment described above, and therefore the description thereof will be omitted. Only the parts different from the first embodiment will be described. . In the second embodiment, in the change detection process in step S3, the change area is detected using the time difference normalized luminance inter-frame difference. The time difference normalized luminance inter-frame difference is an improvement of the above-described luminance inter-frame difference so as not to be affected by light shot noise. Hereinafter, calculation of time difference normalized luminance inter-frame difference will be described. To do.

まず、時刻tの入力画像I(x,y)と時刻t−1の入力画像It−1(x,y)から、下記式23に示す差分画像DI(x,y)を計算する。

Figure 2008234619
First, from the input image I t (x, y) at time t and the input image I t-1 (x, y) at time t−1, a difference image DI t (x, y) shown in the following Expression 23 is calculated. .
Figure 2008234619

次に、計算した差分画像DI(x,y)を、下記式24により正規化する。ここで、下記式24におけるαは定数とする。

Figure 2008234619
Next, the calculated difference image DI t (x, y) is normalized by the following equation 24. Here, α d in the following equation 24 is a constant.
Figure 2008234619

次に、下記式25に示すように、正規化した差分画像N_DI(x,y)と閾値TH_FDとを比較し、変化画像N_DIFF(x,y)を求める。

Figure 2008234619
Next, as shown in the following equation 25, the normalized difference image N_DI t (x, y) is compared with the threshold value TH_FD to obtain a change image N_DIFF t (x, y).
Figure 2008234619

N_DIFF(x,y)=1は、画素(x,y)において変化が検出されたことを表す。また、N_DIFF(x,y)=0は、画素(x,y)において変化が検出されなかったことを表す。 N_DIFF t (x, y) = 1 indicates that a change is detected in the pixel (x, y). N_DIFF t (x, y) = 0 represents that no change was detected in the pixel (x, y).

以上説明したように第2の実施の形態によれば、変化検出を行なう輝度フレーム間差分において、輝度の時間差分を入力画像の輝度の平方根で割り、光ショットノイズに影響を受けにくくした時間差分正規化輝度フレーム間差分を用いることにより、輝度フレーム間差分に比較して、光ショットノイズの影響を受けにくくなり、変化検出の性能が向上する。これにより、その後段の処理での性能が向上し、結果として顔認証としての認証性能が向上する。   As described above, according to the second embodiment, in the difference between luminance frames in which change is detected, the time difference in which the luminance time difference is divided by the square root of the luminance of the input image and is less susceptible to light shot noise. By using the normalized luminance inter-frame difference, compared to the luminance inter-frame difference, it becomes less susceptible to light shot noise, and the change detection performance is improved. Thereby, the performance in the subsequent processing is improved, and as a result, the authentication performance as face authentication is improved.

本発明の第1の実施の形態に係る顔認証装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing the configuration of a face authentication device according to a first embodiment of the present invention. カメラの設置状態を説明する模式図。The schematic diagram explaining the installation state of a camera. 全体的な処理の流れを概略的に示すフローチャート。The flowchart which shows the flow of the whole process roughly. 高階調入力画像の輝度ヒストグラムを示す図。The figure which shows the brightness | luminance histogram of a high gradation input image. 高階調入力画像から変換された低階調入力画像の輝度ヒストグラムを示す図。The figure which shows the brightness | luminance histogram of the low gradation input image converted from the high gradation input image. 顔輝度制御を説明する図。The figure explaining face brightness control. 顔候補領域を説明する図。The figure explaining a face candidate area | region. 顔追跡処理の流れを示すフローチャート。The flowchart which shows the flow of a face tracking process. 顔候補領域についてのオプティカルフローを説明する図。The figure explaining the optical flow about a face candidate area | region. 顔輝度制御の結果を説明する図。The figure explaining the result of face luminance control. エッジ画像の正規化を説明する図。The figure explaining normalization of an edge image. エッジ画像の正規化を説明する図。The figure explaining normalization of an edge image. エッジ画像の正規化を説明する図。The figure explaining normalization of an edge image. エッジ画像の正規化を説明する図。The figure explaining normalization of an edge image. 正規化増分符号フレーム間差分の処理を説明する図。The figure explaining the process of the difference between normalized increment code frames. ゲイン値によるA/D変換の例を説明する図。The figure explaining the example of A / D conversion by a gain value. 顔の輝度制御が難しい例を説明する図。The figure explaining the example where brightness control of a face is difficult. 顔の輝度制御が難しい例を説明する図。The figure explaining the example where brightness control of a face is difficult. 顔輝度制御の結果を説明する図。The figure explaining the result of face luminance control. 顔輝度制御の結果を説明する図。The figure explaining the result of face luminance control. 光ショットノイズを説明する図。The figure explaining optical shot noise. 光ショットノイズを説明する図。The figure explaining optical shot noise. 光ショットノイズを説明する図。The figure explaining optical shot noise. 1次微分の光ショットノイズによる影響を説明する図。The figure explaining the influence by the optical shot noise of a 1st derivative. 1次微分の光ショットノイズによる影響を説明する図。The figure explaining the influence by the optical shot noise of a 1st derivative. 1次微分の光ショットノイズによる影響を説明する図。The figure explaining the influence by the optical shot noise of a 1st derivative. 増分符号フレーム間差分の処理を説明する図。The figure explaining the process of the difference between incremental code frames. SD(I)の計算を説明するための図。The figure for demonstrating the calculation of SD (I).

符号の説明Explanation of symbols

M,M1,M2…歩行者(移動する人物)、11…カメラ(画像取得手段)、12…A/D変換部(A/D変換手段、画像取得手段)、13…高階調入力画像バッファ、14…変化検出部(変化検出手段)、15…頭部候補領域検出部(頭部候補検出手段)、16…顔輝度変換部(輝度変換手段)、17…低階調入力画像バッファ、18…顔検出辞書(メモリ)、19…顔パターン検出部(顔検出手段)、20…顔追跡部(顔追跡手段)、21…顔認証辞書(メモリ、辞書記憶手段)、22…顔認証部(顔認証手段)。   M, M1, M2 ... Pedestrian (moving person), 11 ... Camera (image acquisition means), 12 ... A / D converter (A / D conversion means, image acquisition means), 13 ... High gradation input image buffer, DESCRIPTION OF SYMBOLS 14 ... Change detection part (change detection means), 15 ... Head candidate area | region detection part (head candidate detection means), 16 ... Face luminance conversion part (luminance conversion means), 17 ... Low gradation input image buffer, 18 ... Face detection dictionary (memory), 19 ... Face pattern detection unit (face detection means), 20 ... Face tracking unit (face tracking means), 21 ... Face authentication dictionary (memory, dictionary storage means), 22 ... Face authentication unit (face) Authentication means).

Claims (20)

移動する人物の少なくとも顔を含む画像を高階調入力画像として取得する画像取得手段と、
この画像取得手段から一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出手段と、
この変化検出手段により検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出手段と、
この頭部候補検出手段により検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換手段と、
この輝度変換手段により生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出手段と、
この顔検出手段により検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証手段と、
を具備したことを特徴とする顔認証装置。
Image acquisition means for acquiring an image including at least a face of a moving person as a high gradation input image;
A change detecting means for detecting a moving object area as a change area from a high gradation input image obtained at regular intervals from the image acquisition means;
Head candidate detection means for detecting a human head candidate area from the image of the change area detected by the change detection means;
Luminance conversion means for generating a low gradation input image from a high gradation input image by performing luminance conversion on the image of the head candidate area detected by the head candidate detection means;
Face detection means for detecting a human face candidate area with respect to the head candidate area of the low gradation input image generated by the luminance conversion means;
Face authentication means for determining whether or not the person is a pre-registered person by collating the image of the face candidate area detected by the face detection means with pre-registered dictionary information;
A face authentication apparatus comprising:
前記変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像から水平微分画像および垂直微分画像を取得し、この取得した水平微分画像および垂直微分画像を用いて増分符合フレーム間差分の計算を行なうことにより変化領域を検出するもので、その増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする請求項1記載の顔認証装置。   The change detection means acquires a horizontal differential image and a vertical differential image from a high gradation input image obtained at regular intervals from the image acquisition means, and uses the acquired horizontal differential image and vertical differential image to increment code frames. A change area is detected by calculating a difference. In calculating the difference between the incremental sign frames, the obtained horizontal differential image and vertical differential image are divided by the square root of the luminance of the high gradation input image. The face authentication apparatus according to claim 1, wherein correction processing for removing the influence of light shot noise generated by the image acquisition unit is performed. 前記変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像に対して輝度フレーム間差分の計算を行なうことにより変化領域を検出するもので、その輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする請求項1記載の顔認証装置。   The change detection means detects a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals from the image acquisition means. A correction process for removing the influence of light shot noise generated by the image acquisition means is performed by performing a calculation of dividing the time difference of luminance by the square root of the luminance of the high gradation input image. Item 2. The face authentication device according to Item 1. 一定時間ごとに得られる高階調入力画像から水平微分画像および垂直微分画像を取得し、この取得した水平微分画像および垂直微分画像を用いて増分符合フレーム間差分の計算を行なうことにより変化領域を検出する画像処理装置であって、
前記増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理装置。
A horizontal differential image and a vertical differential image are acquired from a high-gradation input image obtained at regular intervals, and a change area is detected by calculating an incremental code interframe difference using the acquired horizontal differential image and vertical differential image. An image processing apparatus that
In the calculation of the difference between the incremental code frames, the influence of light shot noise generated at the time of image acquisition is eliminated by performing the calculation by dividing the acquired horizontal differential image and vertical differential image by the square root of the luminance of the high gradation input image. An image processing apparatus characterized by performing a correction process for the purpose.
一定時間ごとに得られる高階調入力画像に対して輝度フレーム間差分の計算を行なうことにより変化領域を検出する画像処理装置であって、
前記輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理装置。
An image processing apparatus for detecting a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals,
In the calculation of the difference between luminance frames, a correction process is performed to eliminate the influence of light shot noise that occurs at the time of image acquisition by calculating the time difference of luminance by the square root of the luminance of the high gradation input image. An image processing apparatus.
移動する人物の少なくとも顔を含む画像を高階調入力画像として取得する画像取得ステップと、
この画像取得ステップから一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出ステップと、
この変化検出ステップにより検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出ステップと、
この頭部候補検出ステップにより検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換ステップと、
この輝度変換ステップにより生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出ステップと、
この顔検出ステップにより検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証ステップと、
を具備したことを特徴とする顔認証方法。
An image acquisition step of acquiring an image including at least a face of a moving person as a high gradation input image;
A change detection step for detecting a moving object region as a change region from a high gradation input image obtained at regular intervals from this image acquisition step;
A head candidate detection step for detecting a human head candidate region from the image of the change region detected by the change detection step;
A luminance conversion step of generating a low gradation input image from the high gradation input image by performing luminance conversion on the image of the head candidate region detected by the head candidate detection step;
A face detection step of detecting a human face candidate region with respect to the head candidate region of the low gradation input image generated by the luminance conversion step;
A face authentication step for determining whether or not the person is a pre-registered person by comparing the image of the face candidate area detected by the face detection step with pre-registered dictionary information;
A face authentication method comprising:
一定時間ごとに得られる高階調入力画像から水平微分画像および垂直微分画像を取得し、この取得した水平微分画像および垂直微分画像を用いて増分符合フレーム間差分の計算を行なうことにより変化領域を検出する画像処理方法であって、
前記増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理方法。
A horizontal differential image and a vertical differential image are acquired from a high-gradation input image obtained at regular intervals, and a change area is detected by calculating an incremental code interframe difference using the acquired horizontal differential image and vertical differential image. An image processing method for
In the calculation of the difference between the incremental code frames, the influence of light shot noise generated at the time of image acquisition is eliminated by performing the calculation by dividing the acquired horizontal differential image and vertical differential image by the square root of the luminance of the high gradation input image. An image processing method characterized by performing a correction process for the purpose.
一定時間ごとに得られる高階調入力画像に対して輝度フレーム間差分の計算を行なうことにより変化領域を検出する画像処理方法であって、
前記輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理方法。
An image processing method for detecting a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals,
In the calculation of the difference between luminance frames, a correction process is performed to eliminate the influence of light shot noise that occurs at the time of image acquisition by calculating the time difference of luminance by the square root of the luminance of the high gradation input image. An image processing method.
第1階調度の入力画像を構成する複数フレーム間から変化領域を検出し、前記変化領域から頭部候補領域を検出する検出手段と、
前記頭部候補領域の輝度を変換し、前記第1階調度の入力動画像から前記第1階調度より低い第2階調度の入力画像を生成する変換手段と、
前記第2階調度の入力画像から顔パターンを検出する顔パターン検出手段と、
を備えたことを特徴とする画像処理装置。
Detecting means for detecting a change area between a plurality of frames constituting the input image of the first gradation, and detecting a head candidate area from the change area;
Conversion means for converting the luminance of the head candidate region and generating an input image having a second gradation lower than the first gradation from the input moving image having the first gradation;
Face pattern detection means for detecting a face pattern from the input image of the second gradation,
An image processing apparatus comprising:
前記検出手段は、前記入力画像の微分値から計算される特徴量に対して、前記入力画像の輝度値もしくは輝度値の平均値による補正処理を行い、フレーム間差分を計算し、前記変化領域を検出することを特徴とする請求項9に記載の画像処理装置。   The detection means performs a correction process based on a luminance value of the input image or an average value of the luminance on the feature amount calculated from the differential value of the input image, calculates a difference between frames, and calculates the change area. The image processing apparatus according to claim 9, wherein the image processing apparatus is detected. フレーム間差分を計算する画像処理装置であって、
入力画像の微分値から計算される特徴量に対して、前記入力画像の輝度値もしくは輝度値の平均値による補正処理を行い、フレーム間差分を計算することを特徴とする画像処理装置。
An image processing apparatus for calculating a difference between frames,
An image processing apparatus, wherein a feature value calculated from a differential value of an input image is subjected to correction processing based on a luminance value of the input image or an average value of the luminance values, and an inter-frame difference is calculated.
前記入力画像から空間微分画像を取得し、この空間微分画像を前記入力画像の輝度から計算される値で割り、正規化増分符号フレーム間差分を計算することを特徴とする請求項11に記載の画像処理装置。   The spatial differential image is obtained from the input image, the spatial differential image is divided by a value calculated from the luminance of the input image, and a normalized incremental code interframe difference is calculated. Image processing device. 前記入力画像の輝度から計算される値は、入力輝度平均値が大きくなるに従い、大きな値を出力する関数によって計算される値であることを特徴とする請求項12に記載の画像処理装置。   13. The image processing apparatus according to claim 12, wherein the value calculated from the luminance of the input image is a value calculated by a function that outputs a larger value as the average input luminance value increases. 前記入力画像から空間微分画像を取得し、この空間微分画像を前記入力画像の輝度の平方根で割り、前記正規化増分符号フレーム間差分を計算することを特徴とする請求項11に記載の画像処理装置。   12. The image processing according to claim 11, wherein a spatial differential image is obtained from the input image, the spatial differential image is divided by a square root of the luminance of the input image, and the normalized incremental code interframe difference is calculated. apparatus. 前記入力画像の輝度の時間差分を前記入力画像の輝度から計算される値で割り、時間差分正規化輝度フレーム間差分を計算することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein the time difference in luminance of the input image is divided by a value calculated from the luminance of the input image to calculate a time difference normalized luminance inter-frame difference. 前記入力画像の輝度から計算される値とは、入力輝度平均値が大きくなるに従い、大きな値を出力する関数によって計算される値であることを特徴とする請求項15に記載の画像処理装置。   The image processing apparatus according to claim 15, wherein the value calculated from the luminance of the input image is a value calculated by a function that outputs a larger value as the average input luminance value increases. 前記入力画像の輝度の時間差分を前記入力画像の輝度の平方根で割り、時間差分正規化輝度フレーム間差分を計算することを特徴とする請求項11に記載の画像処理装置。   The image processing apparatus according to claim 11, wherein a time difference in luminance of the input image is divided by a square root of the luminance of the input image to calculate a time difference normalized luminance inter-frame difference. 前記入力画像に含まれる小領域Wの微分値の平均値を、前記入力画像の輝度の平均値から計算される値で割り、オプティカルフローを抽出するか否かを判定し、オプティカルフローを抽出する小領域を決定することを特徴とする請求項11に記載の画像処理装置。   The average value of the differential value of the small area W included in the input image is divided by the value calculated from the average value of the luminance of the input image, whether or not the optical flow is extracted is determined, and the optical flow is extracted. The image processing apparatus according to claim 11, wherein a small area is determined. 前記入力画像の輝度の平均値から計算される値とは、入力輝度平均値が大きくなるに従い、大きな値を出力する関数によって計算される値であることを特徴とする請求項18に記載の画像処理装置。   19. The image according to claim 18, wherein the value calculated from the average luminance value of the input image is a value calculated by a function that outputs a larger value as the average input luminance value increases. Processing equipment. 前記入力画像に含まれる小領域Wの微分値の平均値を、前記入力画像の輝度の平均値の平方根で割り、オプティカルフローを抽出するか否かを判定し、オプティカルフローを抽出する小領域を決定することを特徴とする請求項11に記載の画像処理装置。   The average value of the differential value of the small area W included in the input image is divided by the square root of the average value of the luminance of the input image to determine whether or not to extract the optical flow, and the small area from which the optical flow is extracted is determined. The image processing apparatus according to claim 11, wherein the determination is performed.
JP2007251757A 2007-02-20 2007-09-27 Face authenticating device and face authenticating method Pending JP2008234619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007251757A JP2008234619A (en) 2007-02-20 2007-09-27 Face authenticating device and face authenticating method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007039959 2007-02-20
JP2007251757A JP2008234619A (en) 2007-02-20 2007-09-27 Face authenticating device and face authenticating method

Publications (1)

Publication Number Publication Date
JP2008234619A true JP2008234619A (en) 2008-10-02

Family

ID=39709756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007251757A Pending JP2008234619A (en) 2007-02-20 2007-09-27 Face authenticating device and face authenticating method

Country Status (2)

Country Link
JP (1) JP2008234619A (en)
WO (1) WO2008102473A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046141A (en) * 2017-09-01 2019-03-22 アルパイン株式会社 Device to monitor drivers, method to monitor drivers, and program
WO2023181108A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Camera control device, control method, and non-transitory computer-readable medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6511283B2 (en) * 2015-02-12 2019-05-15 日立オートモティブシステムズ株式会社 Object detection device
JP7174565B2 (en) * 2018-08-09 2022-11-17 美和ロック株式会社 Management device, management system, management method and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2902656B2 (en) * 1988-11-30 1999-06-07 オリンパス光学工業株式会社 Electronic imaging device
JPH02172369A (en) * 1988-12-26 1990-07-03 Matsushita Electric Ind Co Ltd Automatic focus adjusting device
JP2863381B2 (en) * 1992-09-25 1999-03-03 矢崎総業株式会社 Vehicle monitoring method
JP3133517B2 (en) * 1992-10-15 2001-02-13 シャープ株式会社 Image region detecting device, image encoding device using the image detecting device
JP2992178B2 (en) * 1993-06-24 1999-12-20 シャープ株式会社 Image processing device
JP3684606B2 (en) * 1995-03-11 2005-08-17 日産自動車株式会社 Pattern recognition method
JP2000134630A (en) * 1998-10-23 2000-05-12 Canon Inc Device and method for image encoding, image input device and computer readable storage medium
JP2000261828A (en) * 1999-03-04 2000-09-22 Toshiba Corp Stereoscopic video image generating method
JP2000331167A (en) * 1999-05-25 2000-11-30 Medeikku Engineering:Kk Method and device for collating facial image
JP2005071344A (en) * 2003-08-07 2005-03-17 Matsushita Electric Ind Co Ltd Image processing method, image processor and recording medium recording image processing program
JP4158750B2 (en) * 2003-08-26 2008-10-01 ソニー株式会社 Autofocus control method, autofocus control device, and image processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019046141A (en) * 2017-09-01 2019-03-22 アルパイン株式会社 Device to monitor drivers, method to monitor drivers, and program
WO2023181108A1 (en) * 2022-03-22 2023-09-28 日本電気株式会社 Camera control device, control method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
WO2008102473A1 (en) 2008-08-28

Similar Documents

Publication Publication Date Title
JP5567853B2 (en) Image recognition apparatus and method
JP2009087232A (en) Person authentication apparatus and person authentication method
KR101179497B1 (en) Apparatus and method for detecting face image
JP5072655B2 (en) Image processing apparatus, image processing method, program, and storage medium
EP2309454B1 (en) Apparatus and method for detecting motion
US20110222743A1 (en) Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method
JP2003178306A (en) Personal identification device and personal identification method
JP2007148988A (en) Face authentication unit, face authentication method, and entrance/exit management device
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
JP2006146626A (en) Pattern recognition method and device
JP6025557B2 (en) Image recognition apparatus, control method thereof, and program
JP5279517B2 (en) Object detection apparatus and object detection method
JP5766096B2 (en) Face image authentication device
US8780197B2 (en) Apparatus and method for detecting face
JP2008234619A (en) Face authenticating device and face authenticating method
JP2005084824A (en) Face image collation apparatus and face image collation method and passage controller
JP2009044526A (en) Photographing device, photographing method, and apparatus and method for recognizing person
KR101146417B1 (en) Apparatus and method for tracking salient human face in robot surveillance
KR20110092848A (en) Method for recognizing and registering face
JP2023518284A (en) Method and system for hand-gesture-based control of devices
JP6866182B2 (en) Bed positioning device
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
JP7562999B2 (en) MOTION DETECTION DEVICE AND MOTION DETECTION METHOD
KR101621157B1 (en) Apparatus for recongnizing face using mct and method thereof
JP2009134593A (en) Face authentication device and face authentication method