JP2008234619A - Face authenticating device and face authenticating method - Google Patents
Face authenticating device and face authenticating method Download PDFInfo
- Publication number
- JP2008234619A JP2008234619A JP2007251757A JP2007251757A JP2008234619A JP 2008234619 A JP2008234619 A JP 2008234619A JP 2007251757 A JP2007251757 A JP 2007251757A JP 2007251757 A JP2007251757 A JP 2007251757A JP 2008234619 A JP2008234619 A JP 2008234619A
- Authority
- JP
- Japan
- Prior art keywords
- image
- luminance
- input image
- face
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
本発明は、たとえば、歩行者を認証対象とし、当該歩行者から取得した顔画像をあらかじめ登録された辞書情報と照合することにより当該歩行者はあらかじめ登録された人物であるかを判定する顔認証装置および顔認証方法に関する。 The present invention, for example, uses a pedestrian as an authentication target, and compares the face image acquired from the pedestrian with pre-registered dictionary information to determine whether the pedestrian is a pre-registered person. The present invention relates to an apparatus and a face authentication method.
一般に、この種の顔認証装置は、あらかじめ認証対象となる人物の顔画像をカメラやセンサなどを用いて取得し、この取得した顔画像から得られる顔の特徴情報を辞書情報として辞書記憶手段に記憶しておく。
そして、照合時(認証識時)には、認証対象となる人物の顔画像をカメラやセンサなどを用いて再度取得し、この取得した顔画像から得られる顔の特徴情報が辞書記憶手段にあらかじめ記憶されている辞書情報と類似しているかどうかを評価し、類似性が高い場合には当該人物は登録者(本人)であると判定し、類似性が低い場合には未登録者(本人ではない)と判定するようになっている。
In general, this type of face authentication apparatus acquires a face image of a person to be authenticated in advance using a camera, a sensor, or the like, and stores facial feature information obtained from the acquired face image as dictionary information in a dictionary storage unit. Remember.
At the time of verification (at the time of authentication recognition), the face image of the person to be authenticated is acquired again using a camera, a sensor, or the like, and the facial feature information obtained from the acquired face image is stored in the dictionary storage means in advance. Evaluate whether it is similar to the stored dictionary information, and if the similarity is high, determine that the person is a registered person (person), and if the similarity is low, No).
このような顔認証装置で利用される画像取得手段であるカメラやセンサは、入力された画像全体の明るさや色あいからゲイン、シャッタ速度、アイリス、ホワイトバランスといった制御パラメータを自動的に最適なものに調整する技術が搭載されているものが多い。 Cameras and sensors that are image acquisition means used in such face authentication devices automatically optimize control parameters such as gain, shutter speed, iris, and white balance based on the brightness and hue of the entire input image. Many are equipped with technology to adjust.
顔を対象にしてゲイン制御を行なう方法としては、カメラで人物の顔を撮影し、撮影した顔が予め登録された人物か否かを判定する顔認証装置において、カメラの出力をA/D変換する際のゲイン値を、顔認証にとって適した値となるように制御する技術が知られている(たとえば、特許文献1参照)。
しかし、認証対象とする人物は、カメラの前に立ち止まることなく、移動する人物(通行者)である。このため、ゲイン値を徐々に変化させながら、顔認証に適したゲイン値を得ようとする間に、人物がカメラの視野から外れしまう場合がある。 However, the person to be authenticated is a person (passerby) who moves without stopping in front of the camera. For this reason, there is a case where a person moves out of the field of view of the camera while trying to obtain a gain value suitable for face authentication while gradually changing the gain value.
そこで、本発明は、顔認証に適した顔画像を得ることに優れた顔認証装置および顔認証方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide a face authentication apparatus and a face authentication method that are excellent in obtaining a face image suitable for face authentication.
本発明の一実施形態に係る顔認証装置は、移動する人物の少なくとも顔を含む画像を高階調入力画像として取得する画像取得手段と、この画像取得手段から一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出手段と、この変化検出手段により検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出手段と、この頭部候補検出手段により検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換手段と、この輝度変換手段により生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出手段と、この顔検出手段により検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証手段とを具備している。 A face authentication apparatus according to an embodiment of the present invention includes an image acquisition unit that acquires an image including at least a face of a moving person as a high gradation input image, and a high gradation input image obtained at regular intervals from the image acquisition unit. Change detection means for detecting a moving object area as a change area, head candidate detection means for detecting a human head candidate area from an image of the change area detected by the change detection means, and this head candidate detection Luminance conversion means for generating a low gradation input image from a high gradation input image by performing luminance conversion on the image of the head candidate area detected by the means, and a low gradation input generated by the luminance conversion means Face detection means for detecting a human face candidate area with respect to the head candidate area of the image, and an image of the face candidate area detected by the face detection means is compared with previously registered dictionary information. The person has and a determining face authentication means whether a pre-registered person by.
また、本発明の一実施形態に係る顔認証装置は、変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像から水平微分画像および垂直微分画像を取得し、この取得した水平微分画像および垂直微分画像を用いて増分符合フレーム間差分の計算を行なうことにより変化領域を検出するもので、その増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする。 Further, in the face authentication device according to an embodiment of the present invention, the change detection unit acquires a horizontal differential image and a vertical differential image from the high gradation input image obtained at regular intervals from the image acquisition unit, and acquires the acquired A change region is detected by calculating a difference between incremental code frames using a horizontal differential image and a vertical differential image. In the calculation of the difference between incremental code frames, the obtained horizontal differential image and vertical differential image are A correction process for removing the influence of light shot noise generated by the image acquisition means is performed by performing a calculation by dividing by the square root of the luminance of the high gradation input image.
また、本発明の顔認証装置は、変化検出手段は、前記画像取得手段から一定時間ごとに得られる高階調入力画像に対して輝度フレーム間差分の計算を行なうことにより変化領域を検出するもので、その輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、前記画像取得手段で発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする。 In the face authentication apparatus of the present invention, the change detection means detects a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals from the image acquisition means. In the calculation of the difference between the luminance frames, a correction for removing the influence of the light shot noise generated in the image acquisition unit by performing the calculation of dividing the luminance time difference by the square root of the luminance of the high gradation input image. Processing is performed.
本発明によれば、ゲイン値を切り換えずに高階調入力画像を処理するため、移動する人物に対して顔の輝度制御が容易にでき、よって顔認証に適した顔画像が得られ、結果として顔の認証性能が向上する顔認証装置および顔認証方法を提供できる。 According to the present invention, since the high gradation input image is processed without switching the gain value, the brightness of the face can be easily controlled for the moving person, and thus a face image suitable for face authentication can be obtained. It is possible to provide a face authentication device and a face authentication method that improve face authentication performance.
また、本発明によれば、光ショットノイズを変化として検出しなくなり、変化検出の性能が向上するので、その後段の処理での性能が向上し、結果として顔の認証性能が向上する顔認証装置および顔認証方法を提供できる。 Further, according to the present invention, since the light shot noise is not detected as a change and the performance of the change detection is improved, the performance in the subsequent processing is improved, and as a result, the face authentication performance is improved. And a face authentication method.
以下、本発明の実施の形態について図面を参照して説明する。
図12に、カメラからの出力をA/D変換する例を示す。図12の(a)は、カメラのアナログ出力信号および顔領域についてのアナログ出力レベルヒストグラムである。A/D変換器に対して、ゲイン値g1、g2、g3(g3>g2>g1)を与え、図12の(a)から得られる入力画像および顔領域についての輝度ヒストグラムは、それぞれ、図12の(b)、(c)、(d)となるとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 12 shows an example in which the output from the camera is A / D converted. FIG. 12A is an analog output level histogram for the analog output signal of the camera and the face area. The gain values g1, g2, and g3 (g3>g2> g1) are given to the A / D converter, and the luminance histograms for the input image and the face area obtained from FIG. (B), (c), and (d).
図12の例では、図12の(b)のように、顔領域の輝度が全ての画素について階調の最小値となるようなゲイン値g1や、図12の(d)のように、顔領域の輝度が全ての画素について階調の最大値となるようなゲイン値g3は望ましくなく、図12の(c)のように、入力画像の階調の中に納まるようなゲイン値g2に設定することが望ましい。 In the example of FIG. 12, as shown in FIG. 12 (b), the face region has a gain value g1 that makes the luminance of the minimum gradation value for all pixels, or the face value as shown in FIG. 12 (d). The gain value g3 in which the luminance of the region is the maximum gradation value for all pixels is not desirable, and is set to a gain value g2 that fits in the gradation of the input image as shown in FIG. It is desirable to do.
具体的には、ゲイン値を段階的に変えて、入力画像からの顔パターンの検出および検出した顔候補領域の輝度ヒストグラムから評価値の計算を行ない、評価値が最大となるゲイン値を選択する。 Specifically, the gain value is changed in stages, the face pattern is detected from the input image, the evaluation value is calculated from the luminance histogram of the detected face candidate region, and the gain value that maximizes the evaluation value is selected. .
評価値としては、白とび率、黒つぶれ率を考慮した次のような値が考えられる。 As the evaluation value, the following values are considered in consideration of the whiteout ratio and the blackout ratio.
−max(白とび率、黒つぶれ率)
白とび率とは、所定の領域(上記の場合は顔の領域)で、輝度が飽和している(輝度値が入力画像の階調の最大値となっている)画素数の割合である。黒つぶれ率とは、所定の領域で、輝度値が入力画像の階調の最小値である画素の割合である。
-Max (white skip rate, black crush rate)
The whiteout ratio is a ratio of the number of pixels in which brightness is saturated (a brightness value is the maximum value of the gradation of the input image) in a predetermined area (in the above case, a face area). The blackout ratio is a ratio of pixels in a predetermined area whose luminance value is the minimum gradation value of the input image.
また、カメラから一定時間ごとに得られる入力画像系列から、動きのある領域(変化領域)を検出する変化検出方法としては、輝度フレーム間差分の計算を用いる方法や増分符号フレーム間差分の計算を用いる方法が知られている。 In addition, as a change detection method for detecting a moving region (change region) from an input image sequence obtained every fixed time from the camera, a method using a luminance interframe difference calculation or an incremental code interframe difference calculation is used. The method used is known.
輝度フレーム間差分とは、時刻tの入力画像It(x,y)と時刻t−1の入力画像It−1(x,y)から、以下のように変化画像DIFFt(x,y)を計算する方法である。 The difference between luminance frames is the change image DIFF t (x, y) as follows from the input image I t (x, y) at time t and the input image I t-1 (x, y) at time t−1. ).
まず、入力画像から、下記式1に示す差分画像DIt(x,y)を計算する。
次に、計算した差分画像DIt(x,y)と閾値TH_FDとを比較し、下記式2に示す比較結果を得る。
DIFFt(x,y)=1は、画素(x,y)において変化が検出されたことを表す。また、DIFFt(x,y)=0は、画素(x,y)において変化が検出されなかったことを表す。 DIFF t (x, y) = 1 indicates that a change is detected in the pixel (x, y). DIFF t (x, y) = 0 indicates that no change is detected in the pixel (x, y).
このような輝度フレーム間差分は、入力画像It(x,y)の輝度を直接用いているため、フリッカや照明のオン/オフなどに影響を受けやすく、および、対象物(人物等の認証対象)と背景物の輝度差が小さい場合に、対象物が検出されにくい。 Since such luminance inter-frame difference directly uses the luminance of the input image It (x, y), it is easily affected by flicker, lighting on / off, and the like, and an object (a person to be authenticated) ) And a background object have a small luminance difference, it is difficult to detect the object.
これに対して、入力画像It(x,y)について直接時間差分を計算するのではなく、It(x,y)から計算される増分符号画像の時間差分を用いることが考えられる。
増分符号とは、たとえば、文献(佐藤雄隆,金子俊一,五十嵐悟,“周辺増分符号相関画像に基づくロバスト物体検出及び分離”,信学論,vol.J84−D−II,No.12)にあるように、注目画素と周囲の画素との輝度の大小関係を符号化したものである。
On the other hand, it is conceivable to use the time difference of the incremental code image calculated from It (x, y) instead of directly calculating the time difference for the input image It (x, y).
Incremental codes are, for example, literature (Yutaka Sato, Shunichi Kaneko, Satoru Igarashi, “Robust Object Detection and Separation Based on Peripheral Incremental Sign Correlation Images,” IEICE, vol. J84-D-II, No. 12). As shown in FIG. 6, the magnitude relationship between the luminance of the pixel of interest and the surrounding pixels is encoded.
増分符号としては、たとえば、着目画素の水平方向に隣接する画素との差を符号化して得られるDS_Xt(x,y)、および、着目画素の垂直方向に隣接する画素との差を符号化したDS_Yt(x,y)を用いる。 As the incremental code, for example, DS_X t (x, y) obtained by encoding the difference between the pixel of interest in the horizontal direction and the difference between the pixel of interest in the vertical direction is encoded. DS_Y t (x, y) is used.
DS_Xt(x,y)、DS_Yt(x,y)は、下記式3−1、式3−2、式4−1、式4−2に示す計算により得られる。
増分符号フレーム間差分画像DIFF_St(x,y)は、下記式5−1、式5−2、式5−3のように計算する。
増分符号フレーム間差分は、周辺画素との大小関係に基づくため照明変動に対してロバストであり、かつ、背景と対象物との輝度差が小さい場合でも、対象物の検出の性能が高いという利点がある。 Incremental code frame difference is based on the magnitude relationship with surrounding pixels, so it is robust against illumination fluctuations, and even when the brightness difference between the background and the object is small, the advantage of high object detection performance There is.
顔を対象にしたゲイン制御により、以下が起こり得る。
(1)人物が移動する場合に、顔認証に適したゲイン値および顔画像が得られないことがある。
With gain control for the face, the following can occur:
(1) When a person moves, gain values and face images suitable for face authentication may not be obtained.
(2)カメラの視野内に同時に複数の人物が存在し、かつ、顔に対しての照度が大きく異なる場合に、一方の人物の顔領域に対してゲイン制御を行うと、他の人物の顔領域に対して、顔認証に適した入力画像が得られない。 (2) When there are a plurality of persons at the same time in the field of view of the camera and the illuminance on the face differs greatly, if gain control is performed on the face area of one person, the face of the other person An input image suitable for face authentication cannot be obtained for the area.
上記(1)について説明すると、人物はカメラの前に立ち止まり、認証処理が終了するまで待つことを想定している。このため、顔認証に適した顔画像が得られるまで、ゲイン値を徐々に変化させながら、顔を撮影することができる。 The above (1) will be described. It is assumed that the person stops in front of the camera and waits until the authentication process is completed. Therefore, the face can be photographed while gradually changing the gain value until a face image suitable for face authentication is obtained.
しかし、本発明で対象とする人物は、カメラの前に立ち止まることなく、移動する人物(通行者)である。このため、ゲイン値を徐々に変化させながら、顔認証に適したゲイン値を得ようとする間に、人物がカメラの視野から外れしまう場合がある。 However, the person targeted by the present invention is a person (passerby) who moves without stopping in front of the camera. For this reason, there is a case where a person moves out of the field of view of the camera while trying to obtain a gain value suitable for face authentication while gradually changing the gain value.
上記(2)について説明する。たとえば、図13A及び図13Bに示すような状況を考える。図13Aでは、複数のスポット光照明装置L1,L2が一定間隔で配設された環境を、複数の人物M1,M2が図示矢印方向に移動している状況を表している。 The above (2) will be described. For example, consider the situation shown in FIGS. 13A and 13B. FIG. 13A shows a situation where a plurality of persons M1 and M2 are moving in the direction of the arrow in an environment in which a plurality of spot light illuminators L1 and L2 are arranged at regular intervals.
この場合に、カメラCAのアナログ映像出力は、図13Bに示すようになり、人物M1と人物M2の顔の明るさが大きく異なっている。このような場合、人物M1の顔領域についてゲイン制御を行なえば、人物M2の顔領域において多く白とびが発生し、人物M2については、顔認証に適した入力画像が得られない。一方、人物M2の顔領域についてゲイン制御を行なえば、人物M1の顔領域について多く黒つぶれが発生し、人物M1については、顔認証に適した入力画像が得られない。 In this case, the analog video output of the camera CA is as shown in FIG. 13B, and the brightness of the faces of the persons M1 and M2 are greatly different. In such a case, if gain control is performed on the face area of the person M1, many white jumps occur in the face area of the person M2, and an input image suitable for face authentication cannot be obtained for the person M2. On the other hand, if gain control is performed on the face area of the person M2, a large amount of blackening occurs in the face area of the person M1, and an input image suitable for face authentication cannot be obtained for the person M1.
図13A及び図13Bの人物M1と人物M2の顔領域について輝度調整を行なった場合の具体例を図14A及び図14Bに示す。図14Aは、人物M1の顔領域に対してゲイン制御を行なった結果である。この場合、人物M2の顔領域において多く白とびが発生しており、顔認証に適した入力画像が得られていない。図14Bは、人物M2の顔領域に対してゲイン制御を行なった結果である。この場合、人物M1の顔領域において多く黒つぶれが発生しており、顔認証に適した入力画像が得られていない。 14A and 14B show specific examples when the brightness adjustment is performed on the face areas of the persons M1 and M2 in FIGS. 13A and 13B. FIG. 14A shows the result of gain control performed on the face area of the person M1. In this case, many whiteouts occur in the face area of the person M2, and an input image suitable for face authentication is not obtained. FIG. 14B shows the result of gain control performed on the face area of the person M2. In this case, many black areas are generated in the face area of the person M1, and an input image suitable for face authentication is not obtained.
また、増分符号フレーム間差分による変化領域の検出方法によると、光ショットノイズの影響により、テクスチャがなく、かつ、動きのない領域を変化領域として誤って検出してしまうことがある。 In addition, according to the method for detecting a change area based on the difference between incremental code frames, an area having no texture and no motion may be erroneously detected as a change area due to the influence of light shot noise.
ここに、光ショットノイズとは、周知のように、カメラに用いられるイメージセンサで発生するノイズである。一般に、イメージセンサに一定照度で一定時間の光を当てた場合でも、イメージセンサの出力にばらつきが発生する。光ショットノイズは、このばらつきとして観測される。 Here, light shot noise is noise generated in an image sensor used in a camera, as is well known. In general, even when light is applied to an image sensor at a constant illuminance for a certain period of time, the output of the image sensor varies. Optical shot noise is observed as this variation.
図15Aに示すように、イメージセンサに一定照度で一定時間の光を当てたときの出力Sを時刻tについてプロットすると、図15Bに示すようになる。これは、平均値S_meanを中心とした標準偏差ノイズ成分を含んだ信号である。なお、標準偏差は下記式6により示される。
図15BをSの値についてヒストグラムを生成すると、図15Cに示すように、平均値S_mean、標準偏差の正規分布となる。 When a histogram is generated for the value S in FIG. 15B, a normal distribution with an average value S_mean and a standard deviation is obtained as shown in FIG. 15C.
イメージセンサの出力をA/D変換して得られる入力画像中では、光ショットノイズの標準偏差σt(x,y)は、下記式7に示すように、輝度の平方根に比例する。ここで、It(x,y)は、入力画像の輝度とする。
図16Aの入力画像の直線y=yoでの輝度値It(x,y0)を垂直軸とし、入力画像のx軸を水平軸としたグラフは、図16Bのようになる。It(x,y0)をx方向に微分した画像DI_Xt(x,y0)を垂直軸に、入力画像のx軸を水平軸としたグラフは、図16Cのようになる。図16Aにおいて、Mは人物を示している。 Brightness value I t (x, y 0) of a straight line y = y o of the input image of FIG. 16A to the vertical axis, graph the horizontal axis in the x-axis of the input image is as shown in Figure 16B. I t (x, y 0) images obtained by differentiating in x DI_X t (x, y 0) in the vertical axis, graph the horizontal axis in the x-axis of the input image is as shown in Figure 16C. In FIG. 16A, M indicates a person.
図16A、図16B、図16Cから明らかなように、明るい壁の領域E1において、ノイズにより閾値TH_SDよりも値が大きくなる、あるいは、閾値−TH_SDよりも値が小さくなる画素が多く存在する。このような明るい壁の領域での増分符号DS_Xt(x,y)およびDS_Yt(x,y)は、時間的に頻繁に変動する。 As is apparent from FIGS. 16A, 16B, and 16C, in the bright wall region E1, there are many pixels whose values are larger than the threshold value TH_SD or smaller than the threshold value -TH_SD due to noise. Incremental codes DS_X t (x, y) and DS_Y t (x, y) in such a bright wall region frequently change over time.
そのため、図17に示すように、輝度の高い領域において、ノイズの影響を受け、たとえば、壁の領域E1と天井の領域E2を変化領域として誤って検出してしまう。図17の差分画像DIFF_St(x,y)では、変化の検出された画素は黒と斜線で、変化の検出されなかった画素は白で表されている。 For this reason, as shown in FIG. 17, in the high luminance region, it is affected by noise, and for example, the wall region E1 and the ceiling region E2 are erroneously detected as change regions. In the difference image DIFF_S t (x, y) in FIG. 17, pixels in which a change is detected are represented by black and diagonal lines, and pixels in which no change is detected are represented by white.
光ショットノイズの影響を受けないように、閾値TH_SDの値を大きくすることが考えられる。しかし、図16の例では人物の輪郭部分がエッジのない平坦とみなされてしまい、つまり、増分符号DS_Xt(x,y)およびDS_Yt(x,y)において、人物の輪郭部分が「0」となってしまい、人物の移動を変化として検出できなくなる。 It is conceivable to increase the threshold value TH_SD so as not to be affected by light shot noise. However, in the example of FIG. 16, the contour portion of the person is regarded as flat without an edge, that is, the contour portion of the person is “0” in the incremental codes DS_X t (x, y) and DS_Y t (x, y). It becomes impossible to detect the movement of the person as a change.
入力画像での光ショットノイズは、入力画像の輝度値に比例するため、入力画像の1画素当たりのビット数nが大きいほど、入力画像の輝度値の最大値が大きくなり、その結果、増分符号フレーム間差分は、光ショットノイズの影響を受けやすくなる。 Since the light shot noise in the input image is proportional to the luminance value of the input image, the maximum value of the luminance value of the input image increases as the number of bits n per pixel of the input image increases. The inter-frame difference is easily affected by light shot noise.
そこで、本実施形態で説明する顔認証装置及び顔認証方法によれば、顔認証に適した顔画像が得られ、結果として顔の認証性能が向上する。また、本実施形態で説明する顔認証装置及び顔認証方法によれば、光ショットノイズを変化として検出しなくなり、変化検出の性能が向上し、結果として顔の認証性能が向上する。 Therefore, according to the face authentication apparatus and the face authentication method described in the present embodiment, a face image suitable for face authentication is obtained, and as a result, face authentication performance is improved. Further, according to the face authentication device and the face authentication method described in the present embodiment, the light shot noise is not detected as a change, the change detection performance is improved, and as a result, the face authentication performance is improved.
以下、本実施形態の概要について簡単に説明する。本実施形態では、たとえば、図2に示すように、人物(歩行者)Mが図示矢印方向に移動する通路1などの壁面2にカメラ11を配設し、一定時間ごとに人物Mの少なくとも顔を含む画像を取得する。得られる画像系列から人物Mの顔領域を検出し、追跡する。得られた顔画像から、移動する人物Mがあらかじめ登録された人物が否かを判定する。
The outline of the present embodiment will be briefly described below. In the present embodiment, for example, as shown in FIG. 2, a
本発明が適用される対象としては、たとえば、入室の制限を行ないたい部屋の入口付近に設置し、あらかじめ入室を許可する人物であると判定した場合に、部屋の鍵を開錠する等に用いることが考えられる。
または、店舗等に設置し、あらかじめ要注意人物を登録しておき、通行する人物が要注意人物であると判定した場合には、警報を発する等に用いることも考えられる。
As an object to which the present invention is applied, for example, it is installed near the entrance of a room where entry restriction is to be performed, and when it is determined that the person is allowed to enter the room in advance, it is used for unlocking the room key, etc. It is possible.
Alternatively, it may be installed in a store or the like, registered with a person requiring attention in advance, and used to issue an alarm when it is determined that the passing person is a person requiring attention.
以下、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る顔認証装置の構成を概略的に示すものである。この顔認証装置は、ビデオカメラ(以降、単にカメラと略称する)11、A/D変換部12、高階調入力画像バッファ13、変化検出部14、頭部候補領域検出部15、顔輝度変換部16、低階調入力画像バッファ17、顔検出辞書(メモリ)18、顔パターン検出部19、顔追跡部20、顔認証辞書(メモリ)21、及び顔認証部22を備えている。
Hereinafter, the first embodiment will be described.
FIG. 1 schematically shows a configuration of a face authentication apparatus according to the first embodiment. This face authentication apparatus includes a video camera (hereinafter simply referred to as a camera) 11, an A /
ビデオカメラ11は、歩行者Mの少なくとも顔を含む画像を取得する。A/D変換部12は、カメラ11から得られるアナログ映像信号をデジタル高階調入力画像(第1階調度の入力画像)に変換する。高階調入力画像バッファ13は、A/D変換部12から得られる高階調入力画像を一時格納する。
The
変化検出部14は、高階調入力画像バッファ13に格納された高階調入力画像から移動物体の領域を変化領域として検出する。つまり、変化検出部14は、高階調入力画像を構成する複数フレーム間から変化領域を検出する。頭部候補領域検出部15は、変化検出部14により検出された変化領域の画像から人物の頭部候補領域を検出する。顔輝度変換部16は、頭部候補領域検出部15により検出された頭部候補領域の画像に対して輝度変換を行なうことにより、高階調入力画像から低階調入力画像(第2階調度の入力画像)を生成する。
The
低階調入力画像バッファ17は、顔輝度変換部16により生成された低階調入力画像を一時格納する。顔検出辞書18は、顔候補領域の検出に用いる顔検出辞書パターンを格納する。顔パターン検出部19、低階調入力画像バッファ17に格納された低階調入力画像の頭部候補領域から人物の顔候補領域を検出する。顔追跡部20は、顔パターン検出部19により検出された顔候補領域を追跡する。顔認証辞書21は、複数の辞書情報をあらかじめ登録(記憶)する。顔認証部22は、顔追跡部20で得られた顔領域の画像(顔画像)と顔認証辞書21にあらかじめ登録された辞書情報とを照合し、当該人物Mはあらかじめ登録された人物であるかを判定する。
The low gradation
以下、各構成要素について詳細に説明する。
カメラ11は、たとえば、図2に示すように、人物(歩行者)Mが図示矢印方向に移動する通路1などの壁面2に設置されていて、移動する人物Mの正面方向から少なくとも顔を含む画像を一定時間ごとに撮像するもので、イメージセンサを主体に構成されている。
Hereinafter, each component will be described in detail.
For example, as shown in FIG. 2, the
A/D変換部12、カメラ11からのアナログ映像信号を1画素当たりmビットの高階調入力画像に変換し、高階調入力画像バッファ13に格納する。ここに、mとしては、たとえば、「14」を用いるものとする。
The analog video signal from the A /
変化検出部14は、高階調入力画像バッファ13内の高階調入力画像から移動物体の領域を変化領域として検出するもので、その検出結果は、画素値「1」が変化あり、画素値「0」が変化なしとなるような変化画像として出力する。
The
頭部候補領域検出部15は、変化検出部14により検出された変化画像から、人物の頭部らしい領域を検出する。具体的には、たとえば、変化領域に対して輪郭抽出を行ない、抽出した輪郭の曲率から頭部候補を検出する。
The head candidate
顔輝度変換部16は、頭部候補領域検出部15からの頭部候補領域について、高階調入力画像から低階調入力画像を生成し、低階調入力画像バッファ17に格納する。ここに、低階調入力画像とは、1画素当たりn(<m)ビットの画像であり、nとしては、たとえば、「8」を用いるものとする。
The face
なお、高階調入力画像から低階調入力画像への変換は、顔パターン検出および顔認証にとって適切な変換となるようにする。具体的には、たとえば、低階調入力画像において、顔領域の白とびや黒つぶれが発生しないような変換を行なう。 Note that the conversion from a high gradation input image to a low gradation input image is made suitable for face pattern detection and face authentication. Specifically, for example, in the low gradation input image, conversion is performed so as not to cause overexposure or underexposure in the face area.
顔パターン検出部19は、顔輝度変換部16により生成された低階調入力画像の頭部候補領域を対象として、顔検出辞書18内の顔検出辞書パターンとのパターンマッチングを行なうことで、顔らしい領域を顔候補領域として検出する。
The face pattern detection unit 19 performs pattern matching with the face detection dictionary pattern in the
顔追跡部20は、顔パターン検出部19により検出された顔候補領域を時間的に追跡する。
顔認証処理22は、顔追跡部20から得られた顔画像を顔認証辞書21内の辞書情報とを照合することにより当該人物Mはあらかじめ登録された人物であるかを判定する。
The
The
図3は、全体的な処理の流れを概略的に示しており、以下、それについて説明する。
まず、ステップS1の画像入力処理では、カメラ11からのアナログ映像信号を入力する。次に、ステップS2のA/D変換処理は、A/D変換部12において、カメラ11からのアナログ映像信号を1画素当たりmビットの高階調入力画像に変換し、高階調入力画像バッファ13に格納する。
FIG. 3 schematically shows the overall processing flow, which will be described below.
First, in the image input process of step S1, an analog video signal from the
次に、ステップS3の変化検出処理は、変化検出部14において、高階調入力画像バッファ13内の高階調入力画像から移動物体の領域を変化領域として検出する。その検出結果は、画素値「1」が変化あり、画素値「0」が変化なしとなるような変化画像として出力する。
Next, in the change detection process in step S <b> 3, the
次に、ステップS4の頭部候補領域検出処理は、頭部候補領域検出部15において、変化検出部14により検出された変化画像から、人物の頭部らしい領域を検出する。具体的には、変化領域に対して輪郭抽出を行ない、抽出した輪郭の曲率から頭部候補を検出する。
Next, in the head candidate region detection process in step S4, the head candidate
次に、ステップS5の顔輝度変換処理は、顔輝度変換部16において、頭部候補領域検出部15からの頭部候補領域について、高階調入力画像から低階調入力画像を生成し、低階調入力画像バッファ17に格納する。
Next, in the face luminance conversion process in step S5, the face
なお、高階調入力画像から低階調入力画像への変換は、顔パターン検出および顔認証にとって適切な変換となるようにする。具体的には、低階調入力画像において、顔領域の白とびや黒つぶれが発生しないような変換を行なう。 Note that the conversion from a high gradation input image to a low gradation input image is made suitable for face pattern detection and face authentication. Specifically, in the low gradation input image, conversion is performed so as not to cause overexposure or underexposure in the face area.
次に、ステップS6の顔パターン検出処理は、顔パターン検出部19において、顔輝度変換部16により生成された低階調入力画像の頭部候補領域を対象として、顔検出辞書18内の顔検出辞書パターンとのパターンマッチングを行なうことで、顔らしい領域を顔候補領域として検出する。
Next, in the face pattern detection process of step S6, the face pattern detection unit 19 detects the face in the
次に、ステップS7の顔追跡処理は、顔追跡部20において、顔パターン検出部19により検出された顔候補領域を時間的に追跡する。そして、顔追跡部20により顔追跡中の人物について、顔の画像が一定枚数(N_IMG)以上得られた場合(ステップS8)、ステップS9の顔認証処理が行なわれる。
Next, in the face tracking process in step S7, the
ステップS9の顔認証処理は、顔認証処理22において、顔追跡部20から得られた顔画像を顔認証辞書21内の辞書情報とを照合することにより当該人物Mはあらかじめ登録された人物であるかを判定する。
In the face authentication process in step S9, the person M is a person registered in advance by collating the face image obtained from the
以下、ステップS3の変化検出処理、ステップS5の顔輝度変換処理、ステップS6の顔パターン検出処理、ステップS7の顔追跡処理、ステップS9の顔認証処理について詳細に説明する。 Hereinafter, the change detection process in step S3, the face luminance conversion process in step S5, the face pattern detection process in step S6, the face tracking process in step S7, and the face authentication process in step S9 will be described in detail.
まず、ステップS3の変化検出処理について説明する。
変化検出処理は、正規化増分符号フレーム間差分を用いて変化領域の検出を行なうものである。正規化増分符号フレーム間差分とは、前述した増分符号フレーム間差分を改良したものであり、以下、正規化増分符号フレーム間差分の計算について説明する。
First, the change detection process in step S3 will be described.
In the change detection process, a change region is detected using a normalized incremental code interframe difference. The normalized incremental code interframe difference is an improvement of the above-described incremental code interframe difference. Hereinafter, calculation of the normalized incremental code interframe difference will be described.
まず、時刻tの高階調入力画像It(x,y)から、下記式8−1、式8−2により、水平微分画像DI_Xt(x,y)および垂直微分画像DI_Yt(x,y)を取得する。
次に、光ショットノイズの影響を受けないようにするため、下記式9−1、式9−2に示す補正処理を実行する。
なお、上記式9−1、式9−2に記載のαsdは定数とする。 Note that α sd described in the above equations 9-1 and 9-2 is a constant.
なお、上記式9−1、式9−2の替わりに、下記式A−1、式A−2を用いても良い。 Note that the following formulas A-1 and A-2 may be used instead of the formulas 9-1 and 9-2.
N_DI_Xt(x,y) = ( αsd / SD(It(x,y)) ) * DI_Xt(x,y) [式A−1]
N_DI_Yt(x,y) = ( αsd / SD(It(x,y)) ) * DI_Yt(x,y) [式A−2]
なお、上記式式A−1、式A−2に記載のSD(It(x,y)) は、sqrt( It(x,y) )の近似であり、具体的には、次のように実現する。
N_DI_Xt (x, y) = (αsd / SD (It (x, y))) * DI_Xt (x, y) [Formula A-1]
N_DI_Yt (x, y) = (αsd / SD (It (x, y))) * DI_Yt (x, y) [Formula A-2]
Note that SD (It (x, y)) described in the above formulas A-1 and A-2 is an approximation of sqrt (It (x, y)), and specifically, as follows: Realize.
SD(I) の計算例 1
高階調入力画像の階調数2m の要素数を持つ、SD_ARRAY(I) ( I = 0, 1, 2, .., 2m − 1) を用意し、SD_ARRAY(I) = sqrt(I) ( I = 0, 1, 2, .., 2m − 1) となるように、SD_ARRAY(I) に値を保持する。
SD (I) calculation example 1
Prepare SD_ARRAY (I) (I = 0, 1, 2, .., 2 m − 1) with the number of elements of 2 m gradation of the high gradation input image, and SD_ARRAY (I) = sqrt (I) Hold the value in SD_ARRAY (I) so that (I = 0, 1, 2, .., 2 m − 1).
例えば、m=12, n=8 のときには、下記のようになる。 For example, when m = 12, n = 8:
SD_ARRAY(0) = 0
SD_ARRRY(1) = 1
SD_ARRRY(2) = 1.14
SD_ARRRY(3) = 1.73
SD_ARRRY(4) = 2
….
SD_ARRAY(4095) =63.99
式A−1、式A−2においては、下記式Bにより計算する。
SD_ARRAY (0) = 0
SD_ARRRY (1) = 1
SD_ARRRY (2) = 1.14
SD_ARRRY (3) = 1.73
SD_ARRRY (4) = 2
….
SD_ARRAY (4095) = 63.99
In Formula A-1 and Formula A-2, calculation is performed according to the following Formula B.
SD(It(x,y)) = SD_ARRAY(It(x,y) ) [式B−1]
SD(I) の計算例 2
SD(I) として、区分直線近似を行い計算する。具体的には、図18の点線(区分直線)で近似する。図18は、m=12 の場合の例である。図18の実線は、sqrt(I)である。この曲線を図18中の点A、B、C、Dで区切り、これらを順に結んだ点線で示される直線により近似する。計算の精度がそれほど必要でない状況においては、例えば、A、B、Dを結んだ直線のように、区分直線を作る際に、用いる点の数を減らしてもよい。
SD (It (x, y)) = SD_ARRAY (It (x, y)) [Formula B-1]
SD (I) calculation example 2
Calculate as piecewise linear approximation as SD (I). Specifically, it is approximated by a dotted line (partial line) in FIG. FIG. 18 shows an example in the case of m = 12. The solid line in FIG. 18 is sqrt (I). This curve is divided by points A, B, C and D in FIG. 18 and approximated by a straight line indicated by a dotted line connecting them in order. In a situation where the accuracy of calculation is not so necessary, the number of points used may be reduced when creating a piecewise straight line such as a straight line connecting A, B, and D, for example.
次に、下記式10−1、式10−2に示すように、補正処理後の画像N_DI_Xt(x,y)、N_DI_Yt(x,y)を、あらかじめ定められた所定の閾値TH_SDと比較することにより、それぞれ、正規化増分符号画像N_DS_Xt(x,y)とN_DS_Yt(x,y)を取得する。
また、時刻t−1の高階調入力画像It(x,y)に対するN_DS_Xt−1(x,y)とN_DS_Yt−1も同様に計算する。 Further, N_DS_X t-1 (x, y) and N_DS_Y t-1 for the high gradation input image I t (x, y) at time t−1 are calculated in the same manner.
次に、下記式11−1、式11−2により、変化画像N_DIFF_S_Xt−1(x,y)、N_DIFF_S_Yt−1(x,y)を計算する。
最後に、正規化増分符号フレーム間差分画像N_DIFF_St(x,y)を下記式12により計算する。
次に、ステップS5の顔輝度変換処理について説明する。
顔輝度変換処理は、頭部候補領域について高階調入力画像から低階調入力画像を生成する。すなわち、頭部候補領域の中心の領域について、高階調入力画像の輝度ヒストグラムを計算する。得られた輝度ヒストグラムが例えば図4Aに示すものだとすると、輝度ヒストグラムの輝度の最大値、最小値をそれぞれ、I_max、I_minとして求め、I_max、I_minが、図4Bに示すように、変換後の低階調入力画像において階調値の最小値「0」、階調の最大値「2n−1」となるように輝度変換を行なう。
Next, the face luminance conversion process in step S5 will be described.
The face luminance conversion process generates a low gradation input image from a high gradation input image for the head candidate region. That is, the brightness histogram of the high gradation input image is calculated for the central region of the head candidate region. If the obtained luminance histogram is as shown in FIG. 4A, for example, the maximum and minimum luminance values of the luminance histogram are obtained as I_max and I_min, respectively. In the tone input image, the luminance conversion is performed so that the minimum gradation value “0” and the maximum gradation value “2 n −1” are obtained.
この輝度変換は、頭部候補領域についてだけ下記数12のような輝度変換を行なう。ここで、下記式13におけるIinは、高階調入力画像の輝度値、1outは、低階調入力画像の輝度値とする。
輝度変換の例を図5に示す。頭部候補領域の中心領域についての高階調入力画像の輝度ヒストグラムが図5の(b)の場合に、顔輝度変換の結果、得られる低階調入力画像の頭部候補領域の中心領域についての輝度ヒストグラムは図5の(c)に示すようになる。図5の(a)は、カメラ11のアナログ出力信号および顔領域についてのアナログ出力レベルヒストグラムである。
An example of luminance conversion is shown in FIG. When the luminance histogram of the high gradation input image for the central region of the head candidate region is (b) in FIG. 5, as a result of the face luminance conversion, the central region of the head candidate region of the low gradation input image obtained as a result of the face luminance conversion is obtained. The luminance histogram is as shown in FIG. FIG. 5A is an analog output level histogram for the analog output signal of the
次に、ステップS6の顔パターン検出処理について説明する。
顔輝度変換処理により得られた頭部候補領域の低階調入力画像について顔パターン検出を行なう。顔パターン検出の手法としては、たとえば、文献(三田,金子,堀,“微小な差異を含む画像の認証に適した空間差分確率テンプレートの提案”,第9会画像センシングシンポジウム講演論文集,SSII03,2003)に記載された手法を用いることができる。これは、事前に顔の学習パターンから顔検出辞書パターンを作成しておき、顔検出辞書パターンと高い類似度を持つ領域を入力画像中から探す手法である。
Next, the face pattern detection process in step S6 will be described.
Face pattern detection is performed on the low gradation input image of the head candidate area obtained by the face luminance conversion process. Examples of face pattern detection methods include literature (Mita, Kaneko, Hori, “Proposal of Spatial Difference Probability Template Suitable for Authentication of Images Containing Minute Differences”, Proceedings of the 9th Meeting of Image Sensing Symposium, SSII03, The technique described in 2003) can be used. This is a technique in which a face detection dictionary pattern is created in advance from a face learning pattern, and an area having a high similarity with the face detection dictionary pattern is searched from an input image.
顔検出辞書パターンは、たとえば、大量の正面向きの顔画像から作成する。このように作成した顔検出辞書パターンを顔検出辞書18に格納しておき、顔パターン検出の際に用いることで、ほぼ正面向きの顔候補領域が検出される。検出された顔候補領域は、図6に示すように正方形の顔候補矩形FEとして表す。
For example, the face detection dictionary pattern is created from a large number of face images facing the front. The face detection dictionary pattern created in this way is stored in the
次に、ステップS7の顔追跡処理について説明する。
顔追跡処理は、前フレームの顔候補領域から現フレームでの顔候補領域を得るもので、図7に顔追跡処理の流れを示す。ここで、前フレームとは時刻t−1の入力画像とし、現フレームとは時刻tの入力画像とする。
Next, the face tracking process in step S7 will be described.
In the face tracking process, the face candidate area in the current frame is obtained from the face candidate area in the previous frame. FIG. 7 shows the flow of the face tracking process. Here, the previous frame is an input image at time t−1, and the current frame is an input image at time t.
まず、前フレームの顔候補領域について、オプティカルフローを抽出する(ステップS21)。具体的には、前フレームの顔候補領域を小ブロックに分割し、各ブロックが現フレームでどの位置にあるかを、テンプレートマッチング等を用いて計算する。図8に顔候補領域FEのオプティカルフローの例を示す。 First, an optical flow is extracted for the face candidate area of the previous frame (step S21). Specifically, the face candidate area of the previous frame is divided into small blocks, and the position of each block in the current frame is calculated using template matching or the like. FIG. 8 shows an example of the optical flow of the face candidate area FE.
オプティカルフローを抽出する小ブロックWは、x方向とy方向のエッジを共に持つことが望ましい。これは、エッジのない平坦な領域からオプティカルフローを抽出すると、誤ったオプティカルフローを抽出してしまうためである。具体的には、下記式14を満たす小ブロックWからオプティカルフローを抽出する。
ここで、Tx(W)、Ty(W)は、それぞれ小ブロックWのxについての微分の絶対値の平均、yについての微分の絶対値の平均である。また、V(W)は、小ブロックWの輝度平均であり、TH_TEXTUREは閾値である。 Here, T x (W) and T y (W) are the average of the absolute value of the differentiation for x of the small block W and the average of the absolute value of the differentiation for y, respectively. V (W) is the average luminance of the small block W, and TH_TEXTURE is a threshold value.
なお、Etexture(W)の計算において、微分の絶対値の平均を小ブロックWの輝度平均の平方根で割算しているのは、明るい小ブロックにおいて、光ショットノイズにより微分の絶対値の平均が大きくなり、エッジを含まない平坦な領域についてオプティカルフローを計算するのを防ぐためである。 In the calculation of E texture (W), the average of the absolute value of the differentiation is divided by the square root of the luminance average of the small block W because the average value of the absolute value of the differentiation due to the light shot noise in the bright small block. This is to prevent the optical flow from being calculated for a flat region not including an edge.
Tx(W)、Ty(W)、V(W)は次のように表される。ここで、下記式15−1、式15−2、式15−3におけるAwは小ブロックWの面積とする。
なお、上記式14を下記式Cに置き換えてもよい。
In addition, you may replace the said
Etexuture(W) = min( Tx(W), Ty(W) ) / SD( V(W) ) > TH_TEXTURE [式C]
SD(V(W)) は、sqrt(V(W))の近似である。前述のSD(I)の計算方法の具体例で説明したのと同様の方法により、計算する。
Etexuture (W) = min (Tx (W), Ty (W)) / SD (V (W))> TH_TEXTURE [Formula C]
SD (V (W)) is an approximation of sqrt (V (W)). The calculation is performed by the same method as described in the specific example of the SD (I) calculation method described above.
ここで、前フレームの顔候補領域の小ブロックの中心点、及び中心点に対応する現フレームの点を下記の通り定義する。
前フレームの顔候補領域の小ブロックの中心点は、下記式17に示す通りである。
また、中心点に対応する現フレームの点は、下記式18に示す通りである。
次に、顔変形パラメータ計算を行なう(ステップS22)。つまり、下記に示す変換式を計算する。
たとえば、変換式として、下記式20−1、式20−2を用いる。
これは、x軸とy軸それぞれのスケーリングと平行移動の変換式である。 This is a conversion formula for scaling and translation of the x-axis and y-axis, respectively.
次に、回帰分析を用いて、Ax,Bx,Ay,Byを予測し、得られた値をA′x,B′x,A′y,B′yとし、下記式21−1、式21−2の演算を行なう。
式21−1、式21−2で求められた各値が共にあらかじめ定められた閾値よりも小さな場合には、顔変形パラメータの計算が得られたとして(ステップS23)、前フレームの顔候補領域の外接矩形Rt−1から現フレームの顔候補領域の外接矩形Rtを計算して、現フレームの顔候補領域の位置とし(ステップS24)、処理を終了する。 When the values obtained by Expression 21-1 and Expression 21-2 are both smaller than a predetermined threshold, it is determined that face deformation parameters have been calculated (step S23), and the face candidate area of the previous frame enclosing rectangle R t-1 after calculating a circumscribed rectangle R t of the face candidate region of the current frame, the position of the face candidate region of the current frame (step S24), and ends the process.
Rt−1の左上と右下の点の座標をそれぞれ、(LEFTt−1,TOPt−1)、(RIGHTt−1,BOTTOMt−1とし、Rtの左上と右下の点の座標をそれぞれ、(LEFTt,TOPt)、(RIGHTt,BOTTOMt)とすると、Rtの左上と右下の点の座標は、下記式22−1、式22−2、式22−3、式22−4に示すように変換される。
変形パラメータの計算に失敗した場合(ステップS23)、つまり、式21で求められた各値が共にあらかじめ定められた閾値以上の場合には、前フレームの顔候補領域を一定サイズ拡張した領域について顔パターン検出を行なう(ステップS25)。顔パターンにより顔候補領域が検出されれば(ステップS26)、それを現フレームでの顔候補領域とし(ステップS27)、処理を終了する。顔パターンにより顔候補領域が検出されなければ(ステップS26)、前フレームの顔候補領域を現フレームの顔候補領域とする(ステップS28)。
If the calculation of the deformation parameter fails (step S23), that is, if the values obtained by
次に、連続で前フレームの顔候補領域を現フレームの顔候補領域としたフレーム数が所定の閾値T_NOT_DETECTED以上か否かをチェックし(ステップS29)、閾値T_NOT_DETECTED以上でない場合は処理を終了し、閾値T_NOT_DETECTED以上の場合には、人物Mがカメラ11の視野からいなくなったとみなして、顔の追跡を中止し(ステップS30)、処理を終了する。
Next, it is checked whether or not the number of frames in which the face candidate area of the previous frame is continuously the face candidate area of the current frame is greater than or equal to a predetermined threshold T_NOT_DETECTED (step S29). If it is equal to or greater than the threshold value T_NOT_DETECTED, it is assumed that the person M has disappeared from the field of view of the
次に、ステップS9の顔認証処理について説明する。
顔認証処理は、顔追跡処理で得られた顔画像について、顔認証辞書21にあらかじめ登録された人物か否かの判定を行なう。具体的には、たとえば、特開2001−266152号公報に記載されているように、あらかじめ登録者(歩行者)の顔画像を用意し、その顔画像から抽出した顔の固有の特徴情報を辞書情報として顔認識辞書21に記憶(登録)しておく。そして、顔追跡処理で得られた顔領域の画像(特徴情報)と顔認識辞書21にあらかじめ登録された辞書情報とを照合して両者の類似度を求め、求めた類似度があらかじめ設定された閾値以上である場合、当該人物(歩行者)Mはあらかじめ登録された人物であると判定し、求めた類似度が閾値以上でない場合、当該人物Mはあらかじめ登録された人物でないと判定する。
Next, the face authentication process in step S9 will be described.
In the face authentication process, it is determined whether or not the face image obtained by the face tracking process is a person registered in the
以上説明したように第1の実施の形態によれば、高階調入力画像について変化検出と頭部候補検出を行ない、次に、頭部候補領域について顔輝度変換を行ない、さらに、得られた低階調入力画像について顔パターン検出を行なうことにより、ゲイン値を切換えずに、高階調入力画像を処理するため、移動する人物に対して顔の輝度制御が容易にできるようになる。これに対し、前述したように、複数のゲイン値を切換えながら画像を取得することを前提とすると、移動する人物に対しての輝度制御が困難となる。 As described above, according to the first embodiment, change detection and head candidate detection are performed for a high gradation input image, then face luminance conversion is performed for the head candidate region, and the obtained low By performing face pattern detection on the gradation input image, the high gradation input image is processed without switching the gain value, so that it is possible to easily control the brightness of the face for a moving person. On the other hand, as described above, if it is assumed that an image is acquired while switching a plurality of gain values, it is difficult to perform luminance control for a moving person.
また、図13に示したような、複数の人物が存在し、各人物についての顔の照度が大きく異なる場合でも個々の人物の顔について適切に輝度制御が行なわれることがある。ゲイン値切換えの手法を図13の場合に適用して得られる顔の画像では、図14Aまたは図14Bのような、一方の人物についてのみしか適切な輝度制御が行なわれていない。これに対して、第1の実施の形態では、各顔の別々に輝度制御が行なわれるので、図9に示すような、適切な輝度制御が行なわれた結果が得られる。 In addition, even when there are a plurality of persons as shown in FIG. 13 and the illuminances of the faces of the persons differ greatly, the brightness control may be appropriately performed on the faces of the individual persons. In the face image obtained by applying the gain value switching method in the case of FIG. 13, appropriate brightness control is performed only for one person as shown in FIG. 14A or FIG. 14B. On the other hand, in the first embodiment, since brightness control is performed on each face separately, a result of appropriate brightness control as shown in FIG. 9 is obtained.
さらに、変化検出を行なう増分符号フレーム間差分の計算において、微分画像を入力画像の輝度の平方根で割り、光ショットノイズに影響を受けにくくした正規化増分符号フレーム間差分を用いることにより、図10Aの状況から得られた図10B、さらに図10Bから得られた図10Cに示すDI_Xt(x,y)は、図10Dに示すN_DI_St(x,y)に変換され、明るい壁の領域E1のノイズ成分が低減される。なお、図10A〜図10Cは、図16A〜図16Cに対応するので、図10A〜図10Cの詳細な説明は省略する。
その結果、差分画像N_DIFF_St(x,y)は図11に示すようになり、光ショットノイズを変化として検出しなくなる。これにより、その後段の処理での性能が向上し、結果として顔認証としての認証性能が向上する。
Further, in the calculation of the difference between the incremental code frames for detecting the change, the differential image is divided by the square root of the luminance of the input image, and the normalized incremental code interframe difference which is less affected by the light shot noise is used. 10B obtained from the situation of FIG. 10B, and DI_X t (x, y) shown in FIG. 10C obtained from FIG. 10B are converted into N_DI_S t (x, y) shown in FIG. Noise component is reduced. Note that FIGS. 10A to 10C correspond to FIGS. 16A to 16C, and thus detailed descriptions of FIGS. 10A to 10C are omitted.
As a result, the difference image N_DIFF_S t (x, y) is as shown in FIG. 11, and the light shot noise is not detected as a change. Thereby, the performance in the subsequent processing is improved, and as a result, the authentication performance as face authentication is improved.
次に、第2の実施の形態について説明する。
第2の実施の形態の装置構成および処理の流れは、基本的には前述した第1の実施の形態と同様であるので説明は省略し、第1の実施の形態と異なる部分についだけ説明する。第2の実施の形態では、ステップS3の変化検出処理において、時間差分正規化輝度フレーム間差分を用い変化領域の検出を行なうものである。時間差分正規化輝度フレーム間差分とは、前述した輝度フレーム間差分を、光ショットノイズの影響を受けにくくするように改良したものであり、以下、時間差分正規化輝度フレーム間差分の計算について説明する。
Next, a second embodiment will be described.
The apparatus configuration and the process flow of the second embodiment are basically the same as those of the first embodiment described above, and therefore the description thereof will be omitted. Only the parts different from the first embodiment will be described. . In the second embodiment, in the change detection process in step S3, the change area is detected using the time difference normalized luminance inter-frame difference. The time difference normalized luminance inter-frame difference is an improvement of the above-described luminance inter-frame difference so as not to be affected by light shot noise. Hereinafter, calculation of time difference normalized luminance inter-frame difference will be described. To do.
まず、時刻tの入力画像It(x,y)と時刻t−1の入力画像It−1(x,y)から、下記式23に示す差分画像DIt(x,y)を計算する。
次に、計算した差分画像DIt(x,y)を、下記式24により正規化する。ここで、下記式24におけるαdは定数とする。
次に、下記式25に示すように、正規化した差分画像N_DIt(x,y)と閾値TH_FDとを比較し、変化画像N_DIFFt(x,y)を求める。
N_DIFFt(x,y)=1は、画素(x,y)において変化が検出されたことを表す。また、N_DIFFt(x,y)=0は、画素(x,y)において変化が検出されなかったことを表す。 N_DIFF t (x, y) = 1 indicates that a change is detected in the pixel (x, y). N_DIFF t (x, y) = 0 represents that no change was detected in the pixel (x, y).
以上説明したように第2の実施の形態によれば、変化検出を行なう輝度フレーム間差分において、輝度の時間差分を入力画像の輝度の平方根で割り、光ショットノイズに影響を受けにくくした時間差分正規化輝度フレーム間差分を用いることにより、輝度フレーム間差分に比較して、光ショットノイズの影響を受けにくくなり、変化検出の性能が向上する。これにより、その後段の処理での性能が向上し、結果として顔認証としての認証性能が向上する。 As described above, according to the second embodiment, in the difference between luminance frames in which change is detected, the time difference in which the luminance time difference is divided by the square root of the luminance of the input image and is less susceptible to light shot noise. By using the normalized luminance inter-frame difference, compared to the luminance inter-frame difference, it becomes less susceptible to light shot noise, and the change detection performance is improved. Thereby, the performance in the subsequent processing is improved, and as a result, the authentication performance as face authentication is improved.
M,M1,M2…歩行者(移動する人物)、11…カメラ(画像取得手段)、12…A/D変換部(A/D変換手段、画像取得手段)、13…高階調入力画像バッファ、14…変化検出部(変化検出手段)、15…頭部候補領域検出部(頭部候補検出手段)、16…顔輝度変換部(輝度変換手段)、17…低階調入力画像バッファ、18…顔検出辞書(メモリ)、19…顔パターン検出部(顔検出手段)、20…顔追跡部(顔追跡手段)、21…顔認証辞書(メモリ、辞書記憶手段)、22…顔認証部(顔認証手段)。
M, M1, M2 ... Pedestrian (moving person), 11 ... Camera (image acquisition means), 12 ... A / D converter (A / D conversion means, image acquisition means), 13 ... High gradation input image buffer, DESCRIPTION OF
Claims (20)
この画像取得手段から一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出手段と、
この変化検出手段により検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出手段と、
この頭部候補検出手段により検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換手段と、
この輝度変換手段により生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出手段と、
この顔検出手段により検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証手段と、
を具備したことを特徴とする顔認証装置。 Image acquisition means for acquiring an image including at least a face of a moving person as a high gradation input image;
A change detecting means for detecting a moving object area as a change area from a high gradation input image obtained at regular intervals from the image acquisition means;
Head candidate detection means for detecting a human head candidate area from the image of the change area detected by the change detection means;
Luminance conversion means for generating a low gradation input image from a high gradation input image by performing luminance conversion on the image of the head candidate area detected by the head candidate detection means;
Face detection means for detecting a human face candidate area with respect to the head candidate area of the low gradation input image generated by the luminance conversion means;
Face authentication means for determining whether or not the person is a pre-registered person by collating the image of the face candidate area detected by the face detection means with pre-registered dictionary information;
A face authentication apparatus comprising:
前記増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理装置。 A horizontal differential image and a vertical differential image are acquired from a high-gradation input image obtained at regular intervals, and a change area is detected by calculating an incremental code interframe difference using the acquired horizontal differential image and vertical differential image. An image processing apparatus that
In the calculation of the difference between the incremental code frames, the influence of light shot noise generated at the time of image acquisition is eliminated by performing the calculation by dividing the acquired horizontal differential image and vertical differential image by the square root of the luminance of the high gradation input image. An image processing apparatus characterized by performing a correction process for the purpose.
前記輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理装置。 An image processing apparatus for detecting a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals,
In the calculation of the difference between luminance frames, a correction process is performed to eliminate the influence of light shot noise that occurs at the time of image acquisition by calculating the time difference of luminance by the square root of the luminance of the high gradation input image. An image processing apparatus.
この画像取得ステップから一定時間ごとに得られる高階調入力画像から移動物体の領域を変化領域として検出する変化検出ステップと、
この変化検出ステップにより検出された変化領域の画像から人物の頭部候補領域を検出する頭部候補検出ステップと、
この頭部候補検出ステップにより検出された頭部候補領域の画像に対して輝度変換を行なうことにより高階調入力画像から低階調入力画像を生成する輝度変換ステップと、
この輝度変換ステップにより生成された低階調入力画像の頭部候補領域に対して人物の顔候補領域を検出する顔検出ステップと、
この顔検出ステップにより検出された顔候補領域の画像をあらかじめ登録された辞書情報と照合することにより当該人物はあらかじめ登録された人物であるか否かを判定する顔認証ステップと、
を具備したことを特徴とする顔認証方法。 An image acquisition step of acquiring an image including at least a face of a moving person as a high gradation input image;
A change detection step for detecting a moving object region as a change region from a high gradation input image obtained at regular intervals from this image acquisition step;
A head candidate detection step for detecting a human head candidate region from the image of the change region detected by the change detection step;
A luminance conversion step of generating a low gradation input image from the high gradation input image by performing luminance conversion on the image of the head candidate region detected by the head candidate detection step;
A face detection step of detecting a human face candidate region with respect to the head candidate region of the low gradation input image generated by the luminance conversion step;
A face authentication step for determining whether or not the person is a pre-registered person by comparing the image of the face candidate area detected by the face detection step with pre-registered dictionary information;
A face authentication method comprising:
前記増分符合フレーム間差分の計算において、前記取得した水平微分画像および垂直微分画像を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理方法。 A horizontal differential image and a vertical differential image are acquired from a high-gradation input image obtained at regular intervals, and a change area is detected by calculating an incremental code interframe difference using the acquired horizontal differential image and vertical differential image. An image processing method for
In the calculation of the difference between the incremental code frames, the influence of light shot noise generated at the time of image acquisition is eliminated by performing the calculation by dividing the acquired horizontal differential image and vertical differential image by the square root of the luminance of the high gradation input image. An image processing method characterized by performing a correction process for the purpose.
前記輝度フレーム間差分の計算において、輝度の時間差分を前記高階調入力画像の輝度の平方根で割る計算を行なうことにより、画像取得時に発生する光ショットノイズの影響を除去するための補正処理を行なうことを特徴とする画像処理方法。 An image processing method for detecting a change area by calculating a difference between luminance frames for a high gradation input image obtained at regular intervals,
In the calculation of the difference between luminance frames, a correction process is performed to eliminate the influence of light shot noise that occurs at the time of image acquisition by calculating the time difference of luminance by the square root of the luminance of the high gradation input image. An image processing method.
前記頭部候補領域の輝度を変換し、前記第1階調度の入力動画像から前記第1階調度より低い第2階調度の入力画像を生成する変換手段と、
前記第2階調度の入力画像から顔パターンを検出する顔パターン検出手段と、
を備えたことを特徴とする画像処理装置。 Detecting means for detecting a change area between a plurality of frames constituting the input image of the first gradation, and detecting a head candidate area from the change area;
Conversion means for converting the luminance of the head candidate region and generating an input image having a second gradation lower than the first gradation from the input moving image having the first gradation;
Face pattern detection means for detecting a face pattern from the input image of the second gradation,
An image processing apparatus comprising:
入力画像の微分値から計算される特徴量に対して、前記入力画像の輝度値もしくは輝度値の平均値による補正処理を行い、フレーム間差分を計算することを特徴とする画像処理装置。 An image processing apparatus for calculating a difference between frames,
An image processing apparatus, wherein a feature value calculated from a differential value of an input image is subjected to correction processing based on a luminance value of the input image or an average value of the luminance values, and an inter-frame difference is calculated.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007251757A JP2008234619A (en) | 2007-02-20 | 2007-09-27 | Face authenticating device and face authenticating method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007039959 | 2007-02-20 | ||
JP2007251757A JP2008234619A (en) | 2007-02-20 | 2007-09-27 | Face authenticating device and face authenticating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008234619A true JP2008234619A (en) | 2008-10-02 |
Family
ID=39709756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007251757A Pending JP2008234619A (en) | 2007-02-20 | 2007-09-27 | Face authenticating device and face authenticating method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2008234619A (en) |
WO (1) | WO2008102473A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046141A (en) * | 2017-09-01 | 2019-03-22 | アルパイン株式会社 | Device to monitor drivers, method to monitor drivers, and program |
WO2023181108A1 (en) * | 2022-03-22 | 2023-09-28 | 日本電気株式会社 | Camera control device, control method, and non-transitory computer-readable medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6511283B2 (en) * | 2015-02-12 | 2019-05-15 | 日立オートモティブシステムズ株式会社 | Object detection device |
JP7174565B2 (en) * | 2018-08-09 | 2022-11-17 | 美和ロック株式会社 | Management device, management system, management method and program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2902656B2 (en) * | 1988-11-30 | 1999-06-07 | オリンパス光学工業株式会社 | Electronic imaging device |
JPH02172369A (en) * | 1988-12-26 | 1990-07-03 | Matsushita Electric Ind Co Ltd | Automatic focus adjusting device |
JP2863381B2 (en) * | 1992-09-25 | 1999-03-03 | 矢崎総業株式会社 | Vehicle monitoring method |
JP3133517B2 (en) * | 1992-10-15 | 2001-02-13 | シャープ株式会社 | Image region detecting device, image encoding device using the image detecting device |
JP2992178B2 (en) * | 1993-06-24 | 1999-12-20 | シャープ株式会社 | Image processing device |
JP3684606B2 (en) * | 1995-03-11 | 2005-08-17 | 日産自動車株式会社 | Pattern recognition method |
JP2000134630A (en) * | 1998-10-23 | 2000-05-12 | Canon Inc | Device and method for image encoding, image input device and computer readable storage medium |
JP2000261828A (en) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | Stereoscopic video image generating method |
JP2000331167A (en) * | 1999-05-25 | 2000-11-30 | Medeikku Engineering:Kk | Method and device for collating facial image |
JP2005071344A (en) * | 2003-08-07 | 2005-03-17 | Matsushita Electric Ind Co Ltd | Image processing method, image processor and recording medium recording image processing program |
JP4158750B2 (en) * | 2003-08-26 | 2008-10-01 | ソニー株式会社 | Autofocus control method, autofocus control device, and image processing device |
-
2007
- 2007-09-27 JP JP2007251757A patent/JP2008234619A/en active Pending
- 2007-09-28 WO PCT/JP2007/069048 patent/WO2008102473A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046141A (en) * | 2017-09-01 | 2019-03-22 | アルパイン株式会社 | Device to monitor drivers, method to monitor drivers, and program |
WO2023181108A1 (en) * | 2022-03-22 | 2023-09-28 | 日本電気株式会社 | Camera control device, control method, and non-transitory computer-readable medium |
Also Published As
Publication number | Publication date |
---|---|
WO2008102473A1 (en) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5567853B2 (en) | Image recognition apparatus and method | |
JP2009087232A (en) | Person authentication apparatus and person authentication method | |
KR101179497B1 (en) | Apparatus and method for detecting face image | |
JP5072655B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
EP2309454B1 (en) | Apparatus and method for detecting motion | |
US20110222743A1 (en) | Matching device, digital image processing system, matching device control program, computer-readable recording medium, and matching device control method | |
JP2003178306A (en) | Personal identification device and personal identification method | |
JP2007148988A (en) | Face authentication unit, face authentication method, and entrance/exit management device | |
JP2009059073A (en) | Unit and method for imaging, and unit and method for person recognition | |
JP2006146626A (en) | Pattern recognition method and device | |
JP6025557B2 (en) | Image recognition apparatus, control method thereof, and program | |
JP5279517B2 (en) | Object detection apparatus and object detection method | |
JP5766096B2 (en) | Face image authentication device | |
US8780197B2 (en) | Apparatus and method for detecting face | |
JP2008234619A (en) | Face authenticating device and face authenticating method | |
JP2005084824A (en) | Face image collation apparatus and face image collation method and passage controller | |
JP2009044526A (en) | Photographing device, photographing method, and apparatus and method for recognizing person | |
KR101146417B1 (en) | Apparatus and method for tracking salient human face in robot surveillance | |
KR20110092848A (en) | Method for recognizing and registering face | |
JP2023518284A (en) | Method and system for hand-gesture-based control of devices | |
JP6866182B2 (en) | Bed positioning device | |
US10140503B2 (en) | Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus | |
JP7562999B2 (en) | MOTION DETECTION DEVICE AND MOTION DETECTION METHOD | |
KR101621157B1 (en) | Apparatus for recongnizing face using mct and method thereof | |
JP2009134593A (en) | Face authentication device and face authentication method |