JP5955031B2 - Face image authentication device - Google Patents

Face image authentication device Download PDF

Info

Publication number
JP5955031B2
JP5955031B2 JP2012044349A JP2012044349A JP5955031B2 JP 5955031 B2 JP5955031 B2 JP 5955031B2 JP 2012044349 A JP2012044349 A JP 2012044349A JP 2012044349 A JP2012044349 A JP 2012044349A JP 5955031 B2 JP5955031 B2 JP 5955031B2
Authority
JP
Japan
Prior art keywords
face
image
group
person
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012044349A
Other languages
Japanese (ja)
Other versions
JP2013182335A (en
JP2013182335A5 (en
Inventor
高田 直幸
直幸 高田
佐藤 昌宏
昌宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012044349A priority Critical patent/JP5955031B2/en
Publication of JP2013182335A publication Critical patent/JP2013182335A/en
Publication of JP2013182335A5 publication Critical patent/JP2013182335A5/ja
Application granted granted Critical
Publication of JP5955031B2 publication Critical patent/JP5955031B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔画像認証装置に関し、特に、予め登録している顔画像に基づいて利用者を認証する顔画像認証装置に関する。   The present invention relates to a face image authentication device, and more particularly to a face image authentication device that authenticates a user based on a pre-registered face image.

顔画像の照合によって人物を認証する顔画像認証装置は、監視画像から人物の顔を含む領域の画像を顔領域画像として抽出し、抽出した顔領域画像と予め登録された複数の登録顔画像のそれぞれとの照合スコア即ち類似度を算出する。そして、その顔領域画像の人物は、類似度が一定以上の登録顔画像の人物のうち、類似度が最も高い人物であると判定する。しかしながら、一枚の監視画像から抽出された顔領域画像で人物を判定する場合、監視画像を撮影した時の人物の表情、顔の向き等によっては、その顔領域画像とその人物の登録顔画像の類似度が低くなり、本人を正しく判定できないことがある。   A face image authentication device that authenticates a person by collating face images extracts an image of an area including the face of the person from the monitoring image as a face area image, and extracts the extracted face area image and a plurality of registered face images registered in advance. The collation score with each, that is, the similarity is calculated. Then, the person of the face area image is determined to be the person with the highest similarity among the persons of the registered face images having a certain degree of similarity. However, when a person is determined based on a face area image extracted from one monitoring image, the face area image and the registered face image of the person depending on the facial expression, face orientation, etc. when the monitoring image is captured The degree of similarity becomes lower and the person cannot be correctly determined.

そこで、特許文献1には、対象人物の顔画像を複数回撮像して人物を特定する人物特定装置が提案されている。この人物特定装置は、対象人物の顔画像を複数回撮像し、撮像した顔画像毎に各登録顔画像との類似度を算出する。そして、登録顔画像毎に、算出した複数の類似度の平均値、合計値又は乗算値を評価値として求め、評価値が最も高くなる登録顔画像について、その評価値が所定の基準値を上回る場合に、対象人物がその登録顔画像の人物であると特定する。   Thus, Patent Document 1 proposes a person specifying device that specifies a person by capturing a face image of the target person a plurality of times. This person specifying device captures the face image of the target person a plurality of times, and calculates the similarity with each registered face image for each captured face image. Then, for each registered face image, an average value, total value, or multiplication value of a plurality of similarities calculated is obtained as an evaluation value, and the evaluation value of the registered face image having the highest evaluation value exceeds a predetermined reference value. In this case, the target person is identified as the person of the registered face image.

特開2005−242890号公報JP 2005-242890 A

特許文献1に記載された人物特定装置は、複数の顔画像に基づいて対象人物を特定するので、一枚の顔画像から人物を判定する場合よりも本人認証の失敗を低減することができる。
一方、監視領域内を歩行する人物を認証するために、監視画像を順次撮影し、撮影した各監視画像から抽出した顔領域画像と複数の登録顔画像のそれぞれとの類似度を時系列に算出するいわゆるウォークスルー型の顔画像認証装置が従来用いられている。ウォークスルー型の顔画像認証装置は、複数地点又は複数時点で歩行中の人物を撮影した画像から顔領域画像を抽出し、これらの顔領域画像と登録顔画像との類似度を算出する。このようなウォークスルー型の顔画像認証装置では、監視画像を撮影したときの人物の位置によって、その人物の顔に対する照明条件が異なり、顔領域画像と登録顔画像との類似度に影響を及ぼす場合がある。従って、ウォークスルー型の顔画像認証装置に特許文献1に記載された人物特定装置を適用した場合、照明条件が悪い時の類似度の影響を受けて評価値が所定の基準値以下となり、本人を正しく判定できないおそれがある。
Since the person specifying device described in Patent Literature 1 specifies a target person based on a plurality of face images, it is possible to reduce the failure of personal authentication as compared with a case where a person is determined from one face image.
On the other hand, in order to authenticate a person walking in the monitoring area, the monitoring images are sequentially taken, and the similarity between the face area image extracted from each of the taken monitoring images and each of the plurality of registered face images is calculated in time series. A so-called walk-through type face image authentication apparatus is conventionally used. The walk-through type face image authentication device extracts face area images from images obtained by photographing a person walking at a plurality of points or time points, and calculates the similarity between these face area images and registered face images. In such a walk-through type face image authentication device, the illumination condition for the face of the person differs depending on the position of the person when the monitoring image is taken, and affects the similarity between the face area image and the registered face image. There is a case. Therefore, when the person identification device described in Patent Document 1 is applied to the walk-through type face image authentication device, the evaluation value becomes equal to or less than a predetermined reference value due to the influence of the similarity when the illumination conditions are bad. May not be determined correctly.

照明条件の影響を低減するために、例えば監視画像を撮像する撮像装置側から高強度の照明で監視領域を照射することも考えられるが、その場合、別途照明装置が必要となる。また、その照明として可視光を用いる場合、監視領域内を歩行する人物にとってまぶしくなるという問題も生じる。   In order to reduce the influence of the illumination conditions, for example, it is conceivable to irradiate the monitoring area with high-intensity illumination from the side of the imaging device that captures the monitoring image, but in that case, a separate illumination device is required. In addition, when visible light is used as the illumination, there is a problem that it is dazzling for a person walking in the monitoring area.

本発明の目的は、照明条件の影響を低減して高精度に人物を認証することができる顔画像認証装置を提供することにある。   An object of the present invention is to provide a face image authentication apparatus capable of reducing the influence of illumination conditions and authenticating a person with high accuracy.

かかる課題を解決するための本発明は、顔画像認証装置を提供する。係る顔画像認証装置は、監視領域内の人物を撮影した監視画像を順次取得する撮像部と、予め登録人物の登録顔画像を記憶する記憶部と、監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、順次取得される監視画像にて顔領域画像を追跡する顔追跡手段と、監視画像から光源方向を推定する光源方向推定手段と、顔領域画像を略同方向の光源方向毎に複数のグループに分類する分類手段と、複数のグループのそれぞれについて、当該グループに含まれる顔領域と登録顔画像とが類似する度合いを表すグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、選択されたグループのグループ類似度と所定の認証閾値とを比較して、監視領域内の人物と登録人物とが同一の人物か否かを判定する判定手段と、を有する。   The present invention for solving this problem provides a face image authentication apparatus. Such a face image authentication apparatus includes an imaging unit that sequentially acquires a monitoring image obtained by photographing a person in a monitoring area, a storage unit that stores a registered face image of a registered person in advance, and the monitoring image every time a monitoring image is acquired. A face detection means for extracting a face area image including a face from the face, a face tracking means for tracking the face area image from the sequentially acquired monitoring images, a light source direction estimation means for estimating the light source direction from the monitoring images, and a face area Classifying means for classifying images into a plurality of groups for each light source direction in substantially the same direction, and for each of the plurality of groups, a group similarity indicating the degree of similarity between the face area included in the group and the registered face image is obtained. The group selection means for selecting the group having the highest group similarity, the group similarity of the selected group is compared with a predetermined authentication threshold, and the person in the monitoring area and the registered person are Having a determining means for determining whether or not one person.

また、本発明に係る顔画像認証装置において、記憶部は、予め複数の登録人物の登録顔画像を記憶し、グループ選択手段は、顔領域画像と複数の登録顔画像との類似度を求め、顔領域画像ごとに当該類似度が最も高い登録顔画像を特定し、グループごとに当該特定された回数が最も多い登録顔画像を選択し、当該選択された登録顔画像と当該グループに含まれる顔領域画像との類似度の平均値をグループ類似度とすることが好ましい。   Further, in the face image authentication device according to the present invention, the storage unit stores the registered face images of a plurality of registered persons in advance, and the group selection unit obtains the similarity between the face area image and the plurality of registered face images, A registered face image having the highest degree of similarity is identified for each face area image, a registered face image having the largest number of times of identification is selected for each group, and the selected registered face image and the faces included in the group are selected. It is preferable that the average value of the similarity with the region image is set as the group similarity.

また、本発明に係る顔画像認証装置において、記憶部は、予め複数の登録人物の登録顔画像を記憶し、グループ選択手段は、グループに含まれる顔領域画像のそれぞれについて複数の登録顔画像との類似度を求め、顔領域画像ごとの当該類似度の平均値が最も高い登録顔画像の平均値をグループ類似度とすることが好ましい。   In the face image authentication device according to the present invention, the storage unit stores in advance registered face images of a plurality of registered persons, and the group selection unit includes a plurality of registered face images for each of the face area images included in the group. It is preferable that the similarity value of the registered face images having the highest average similarity value for each face area image is determined as the group similarity.

本発明に係る顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することができるという効果を奏する。   The face image authentication apparatus according to the present invention has an effect of being able to authenticate a person with high accuracy by reducing the influence of illumination conditions.

本発明を適用した顔画像認証装置の概略構成図である。It is a schematic block diagram of the face image authentication apparatus to which this invention is applied. 顔画像認証装置がオフィスビルの入り口に設置される場合の撮像部の設置例を表す模式図である。It is a schematic diagram showing the installation example of an imaging part in case a face image authentication apparatus is installed in the entrance of an office building. (a)〜(d)は、対象人物がそれぞれ特定の位置から照射された場合の画像の例を示す図である。(A)-(d) is a figure which shows the example of an image when an object person is each irradiated from the specific position. 記憶部に記憶される履歴テーブルの模式図である。It is a schematic diagram of the history table memorize | stored in a memory | storage part. 図2に示した顔画像認証装置が設置されたオフィスビルの入り口を進行方向に向かって右側から見た模式図である。It is the schematic diagram which looked at the entrance of the office building in which the face image authentication apparatus shown in FIG. フレーム照合結果の模式図である。It is a schematic diagram of a frame collation result. 監視領域を移動する対象人物を時系列に表す模式図である。It is a schematic diagram showing the object person who moves a monitoring area in time series. (a)〜(c)は、図7に示した対象人物に対する類似度について説明するためのグラフである。(A)-(c) is a graph for demonstrating the similarity with respect to the object person shown in FIG. 本発明による顔画像認証装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the face image authentication apparatus by this invention.

以下、本発明の一実施形態である顔画像認証装置について図を参照しつつ説明する。
顔画像認証装置における認証において、照明条件の影響等により登録者本人の認証に失敗する場合がある。そこで、本発明を適用した顔画像認証装置は、監視領域を撮影した監視画像を順次取得するとともに、その順次取得した各監視画像から同一の人物の顔を含む顔領域画像を抽出する。そして、抽出した顔領域画像を光源方向が略同方向の顔領域画像毎に複数のグループに分類して、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を実施する。これにより、顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することを図る。
Hereinafter, a face image authentication apparatus according to an embodiment of the present invention will be described with reference to the drawings.
In the authentication in the face image authentication device, there are cases where the authentication of the registrant fails due to the influence of lighting conditions or the like. Therefore, the face image authentication apparatus to which the present invention is applied sequentially acquires monitoring images obtained by photographing the monitoring areas, and extracts face area images including the same person's face from the sequentially acquired monitoring images. Then, the extracted face area image is classified into a plurality of groups for each face area image whose light source direction is substantially the same direction, a group most suitable for face matching processing is selected, and the face area image of the selected group is used. Perform face matching processing. Thereby, the face image authentication device attempts to authenticate a person with high accuracy by reducing the influence of illumination conditions.

図1は、本発明を適用した顔画像認証装置10の概略構成を示す図である。図1に示すように、顔画像認証装置10は、撮像部100、出力部200及び画像処理部300を有する。以下、顔画像認証装置10の各部について詳細に説明する。   FIG. 1 is a diagram showing a schematic configuration of a face image authentication apparatus 10 to which the present invention is applied. As illustrated in FIG. 1, the face image authentication device 10 includes an imaging unit 100, an output unit 200, and an image processing unit 300. Hereinafter, each part of the face image authentication device 10 will be described in detail.

撮像部100は、所定の監視領域を撮影する監視カメラであり、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に監視領域の像を結像するための結像光学系を有する。
撮像部100は、監視領域内を通行する人物(顔画像認証装置10による照合の対象となる監視領域内の人物を対象人物と称する)の顔を順次撮影できるように設置される。そして撮像部100は、監視領域を撮影した監視画像を、所定の時間間隔(例えば、200msec)ごとに取得する。撮像部100は、画像処理部300と接続され、取得した監視画像を画像処理部300へ渡す。
The imaging unit 100 is a monitoring camera that captures a predetermined monitoring area, and is, for example, a photoelectric conversion element (for example, a CCD sensor, a C-MOS, or the like) that is arranged two-dimensionally and outputs an electrical signal corresponding to the amount of received light. And an imaging optical system for forming an image of the monitoring region on the photoelectric conversion element.
The imaging unit 100 is installed so that the face of a person who passes through the monitoring area (a person in the monitoring area to be collated by the face image authentication apparatus 10 is referred to as a target person) can be sequentially photographed. Then, the imaging unit 100 acquires a monitoring image obtained by capturing the monitoring area at predetermined time intervals (for example, 200 msec). The imaging unit 100 is connected to the image processing unit 300 and passes the acquired monitoring image to the image processing unit 300.

監視画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、監視画像を、横1280画素×縦960画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、監視画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。   The monitoring image can be a grayscale or color multi-tone image. In the present embodiment, the monitoring image is a color image having 1280 pixels by 960 pixels and having 8-bit luminance resolution for each of the RGB colors. However, a monitor image having a resolution and gradation other than this embodiment may be used.

図2に、顔画像認証装置10がオフィスビルの入り口に設置される場合の撮像部100の設置例を模式的に示す。図2に示すように、例えば、顔画像認証装置10がオフィスビルの入り口253に設置される場合、撮像部100は、入り口253に通じる通路を監視領域に含むよう、入り口253が設置された壁の上方または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。これにより撮像部100は、入り口253に向かう(進行方向254へ向かう)対象人物を所定の時間間隔で撮像することができる。なお図2では、撮像部100が、時刻t、t+1、t+2において入り口253に向かう同一の対象人物250、251、252を順次撮影する様子を示している。   FIG. 2 schematically shows an installation example of the imaging unit 100 when the face image authentication device 10 is installed at the entrance of an office building. As shown in FIG. 2, for example, when the face image authentication device 10 is installed at the entrance 253 of an office building, the imaging unit 100 includes a wall on which the entrance 253 is installed so as to include a passage leading to the entrance 253 in the monitoring area. It is attached to the top or ceiling of the camera with the shooting direction slightly downward and toward the passage. As a result, the imaging unit 100 can capture the target person heading toward the entrance 253 (heading in the traveling direction 254) at a predetermined time interval. FIG. 2 shows a state in which the imaging unit 100 sequentially captures the same target person 250, 251, 252 heading toward the entrance 253 at times t, t + 1, t + 2.

また図2に示すように、入り口253に通じる通路の天井には照明装置としてダウンライト260が、照射方向が下向きとなるように設置される。撮像部100から見ると、時刻tにおいて、対象人物250はダウンライト260より奥側に位置し、ダウンライト260により顔の前面が照射される。そして、時刻(t+1)において、対象人物251はダウンライト260の直下に位置し、ダウンライト260により頭上から照射される。そして、時刻(t+2)において、対象人物252はダウンライト260より手前側に位置し、ダウンライト260により背後から照射される。なお、図2に示す通路は、不図示の照明装置又は自然光により十分明るく、顔画像認証装置10は、対象人物を十分に識別できるものの、対象人物がダウンライト260に近いほど、対象人物の顔部分にあたる光量はダウンライト260の方が支配的になるとする。   As shown in FIG. 2, a downlight 260 is installed on the ceiling of the passage leading to the entrance 253 so that the irradiation direction is downward. When viewed from the imaging unit 100, the target person 250 is positioned on the back side of the downlight 260 at the time t, and the front surface of the face is illuminated by the downlight 260. At time (t + 1), the target person 251 is positioned immediately below the downlight 260 and is irradiated from the overhead by the downlight 260. At time (t + 2), the target person 252 is positioned on the near side of the downlight 260 and is irradiated from behind by the downlight 260. The passage shown in FIG. 2 is sufficiently bright due to a lighting device (not shown) or natural light, and the face image authentication device 10 can sufficiently identify the target person, but the closer the target person is to the downlight 260, the more the face of the target person is. It is assumed that the light amount corresponding to the portion is more dominant in the downlight 260.

図3(a)〜(d)は、対象人物がそれぞれ特定の位置から照射された場合の画像の例を示す。
図3(a)は、図2の時刻tにおいて、対象人物250を撮像した画像350を示す。画像350において、対象人物250はダウンライト260の光が前方上方から照射され、ダウンライト260と、不図示の照明装置または自然光により顔全体が明るくなっている。一般に、顔照合処理では、対象人物の顔画像と予め記憶された登録顔画像とが類似するか否かにより対象人物が登録顔画像の人物であるか否かを判定する。そのため、対象人物の顔画像と登録顔画像は、何れも目、鼻、口等の顔の特徴的な部位の位置、形状及び皮膚部分等のテクスチャを適切に表していることが好ましい。画像350には、対象人物の顔部分に照合処理の障害となるものはなく、顔の特徴的な部位の位置、形状及び皮膚部分等のテクスチャが適切に表れているため、画像350は顔照合処理に適する。
3A to 3D show examples of images when the target person is irradiated from a specific position.
FIG. 3A shows an image 350 obtained by capturing the target person 250 at time t in FIG. In the image 350, the target person 250 is irradiated with light from the downlight 260 from above and the entire face is brightened by the downlight 260 and a lighting device (not shown) or natural light. In general, in the face collation process, it is determined whether or not the target person is a person of the registered face image based on whether or not the face image of the target person is similar to a registered face image stored in advance. Therefore, it is preferable that the target person's face image and the registered face image appropriately represent the positions, shapes, and textures of the skin portions such as the eyes, nose and mouth. In the image 350, there is no obstacle to the collation process in the face portion of the target person, and the position, shape, and texture of the skin portion, etc., which are characteristic parts of the face appear appropriately. Suitable for processing.

図3(b)は、図2の時刻(t+1)において、対象人物251を撮像した画像351を示す。画像351において、対象人物251は略直上からダウンライト260の光が照射されている。人間の顔には凹凸が存在し、凹んでいる部分には直上からの光が当たらずに影になるため、額、頬上部及び鼻筋のみが明るくなり、眼窩付近、頬下部から顎にかけては暗くなっている。このように、画像351には顔上に明暗が生じ、顔のテクスチャ情報が本来のものと異なるものとなる。また、この明暗の境目が顔の特徴的な部位として誤って抽出されるおそれもある。そのため、画像351は顔照合処理には適さない。   FIG. 3B shows an image 351 obtained by capturing the target person 251 at time (t + 1) in FIG. In the image 351, the target person 251 is irradiated with the light of the downlight 260 from substantially above. Since the human face has irregularities and the concave part does not receive light from directly above, it becomes a shadow, so only the forehead, upper cheeks and nose are brightened, and it is dark near the orbit, from the lower cheeks to the chin It has become. As described above, the image 351 is bright and dark on the face, and the facial texture information is different from the original one. In addition, there is a possibility that this light / dark border is erroneously extracted as a characteristic part of the face. Therefore, the image 351 is not suitable for face collation processing.

図3(c)は、図2の時刻(t+2)において、対象人物252を撮像した画像352を示す。画像352において、対象人物252は後方から照射され、ダウンライト260が逆光となり、対象人物252は顔全体が暗くなっている。そのため、画像352は、いわゆる黒つぶれにより顔部分の階調が失われて、顔のテクスチャ情報が欠落するおそれがあり、顔照合処理には適さない。仮に、別途輝度変換処理により対象人物252の顔部分を明るくしても、階調が失われているため、必要なコントラストが得られず、顔のテクスチャ情報が欠落したことにはかわりなく、顔照合処理には適さない。   FIG. 3C shows an image 352 obtained by capturing the target person 252 at time (t + 2) in FIG. In the image 352, the target person 252 is illuminated from behind, the downlight 260 is backlit, and the target person 252 has the entire face dark. Therefore, the tone of the face portion is lost due to so-called blackening, and the image texture 352 may lose face texture information, and is not suitable for face matching processing. Even if the face portion of the target person 252 is brightened by a separate brightness conversion process, the tone is lost, so the necessary contrast cannot be obtained, and the face texture information is lost. Not suitable for verification processing.

図3(a)〜(c)はダウンライト260が天井に設置され、略垂直方向からの光が照射されている場合であったが、同様なことは略水平方向から光が照射されている場合も起こる。図3(d)は、進行方向254に対して略水平方向から太陽光が照射している時に対象人物を撮像した画像353を示す。画像353において、対象人物の左側から光が当たり、左半面は明るいが右半面は暗い状態となり、顔の正中線に沿って明暗の差が生じている。そのため、画像353も図3(b)の画像351と同様に顔照合処理には適さない。このように、ダウンライトのような上方からの光だけでなく、対象人物が撮影される場所に窓があり、その窓から差し込む太陽光のような横方向からの光によっても顔照合処理に悪影響が及ぶおそれがある。   FIGS. 3A to 3C show the case where the downlight 260 is installed on the ceiling and irradiated with light from a substantially vertical direction, but the same thing is applied with light from a substantially horizontal direction. Sometimes it happens. FIG. 3D shows an image 353 obtained by capturing the target person when sunlight is radiated from a substantially horizontal direction with respect to the traveling direction 254. In the image 353, light hits from the left side of the target person, the left half face is bright but the right half face is dark, and a difference in brightness occurs along the midline of the face. For this reason, the image 353 is not suitable for the face collation process as is the case with the image 351 in FIG. In this way, not only the light from above like a downlight but also the window where the target person is photographed, and the light from the lateral direction such as sunlight inserted through the window has an adverse effect on the face matching process. There is a risk that.

出力部200は、例えば電気錠、又は電気錠を制御する外部機器等に接続する通信インターフェース及びその制御回路を有する。そして出力部200は、画像処理部300から対象人物についての認証成功を示す信号を受け取ると、接続された機器へ、例えば電気錠の解錠を要求する信号を出力する。   The output unit 200 includes a communication interface connected to, for example, an electric lock or an external device that controls the electric lock, and a control circuit thereof. When the output unit 200 receives a signal indicating successful authentication of the target person from the image processing unit 300, the output unit 200 outputs a signal requesting, for example, unlocking of the electric lock to the connected device.

画像処理部300は、例えば、いわゆるコンピュータにより構成される。そして画像処理部300は、撮像部100から受け取った監視画像から人物の顔を含む領域の画像を顔領域画像として抽出し、抽出した顔領域画像から、人物の顔から見た光源方向を推定する。そして、各顔領域画像を、推定した光源方向が略同方向の顔領域画像毎に複数のグループに分類し、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を実施する。そのために、画像処理部300は、記憶部310及び照合部320を有する。さらに、照合部320は、顔検出手段321、顔追跡手段322、光源方向推定手段323、分類手段324及び顔照合手段325を有する。   The image processing unit 300 is configured by, for example, a so-called computer. Then, the image processing unit 300 extracts an image of an area including a person's face from the monitoring image received from the imaging unit 100 as a face area image, and estimates a light source direction viewed from the person's face from the extracted face area image. . Then, each face area image is classified into a plurality of groups for each face area image whose estimated light source direction is substantially the same direction, a group most suitable for face matching processing is selected, and the face area image of the selected group is used. To perform face matching. For this purpose, the image processing unit 300 includes a storage unit 310 and a collation unit 320. Furthermore, the collation unit 320 includes a face detection unit 321, a face tracking unit 322, a light source direction estimation unit 323, a classification unit 324, and a face collation unit 325.

記憶部310は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。そして記憶部310には、顔画像認証装置10を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶される。また記憶部310は、一人以上の登録された人物(以降、登録人物と称する)のそれぞれについて、その登録人物の顔が写った登録顔画像を、その登録人物の登録人物IDと関連付けて予め記憶する。また記憶部310は、画像処理により生じた対象人物に関する情報を管理するための履歴テーブルを記憶する。この履歴テーブルの詳細については後述する。また記憶部310は、少なくとも一つの標準的な3次元顔形状モデルを記憶する。   The storage unit 310 includes a semiconductor memory such as a ROM and a RAM, or a magnetic recording medium and its access device or an optical recording medium and its access device. The storage unit 310 stores in advance a computer program and various parameters for controlling the face image authentication apparatus 10. The storage unit 310 stores in advance a registered face image showing the face of the registered person for each of one or more registered persons (hereinafter referred to as registered persons) in association with the registered person ID of the registered person. To do. The storage unit 310 also stores a history table for managing information related to the target person generated by the image processing. Details of the history table will be described later. The storage unit 310 stores at least one standard three-dimensional face shape model.

照合部320の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。あるいは、これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成してもよい。以下、照合部320の各手段について詳細に説明する。   Each unit of the verification unit 320 is a functional module implemented by a microprocessor, a memory, a peripheral circuit thereof, and software operating on the microprocessor. Alternatively, these means may be integrated by firmware. Moreover, you may comprise some or all of these means with an independent electronic circuit, firmware, a microprocessor, etc. Hereinafter, each means of the collation part 320 is demonstrated in detail.

顔検出手段321は、撮像部100から監視画像を受け取る度に、受け取った監視画像から対象人物の顔が写っている領域である顔領域を検出し、顔領域画像を抽出する。
顔領域を検出するために、顔検出手段321は、例えばフレーム間差分処理または背景差分処理を利用して、撮像部100によって取得される複数の監視画像において輝度値の時間的な変化のある変化領域を抽出する。そして顔検出手段321は、抽出した変化領域のうち、その変化領域の大きさ等の特徴量から人物らしいと考えられる変化領域を人物領域として抽出する。そして顔検出手段321は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔検出手段321は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を、顔領域として抽出する。この場合において、顔検出手段321は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。
Each time the face detection unit 321 receives a monitoring image from the imaging unit 100, the face detection unit 321 detects a face area that is an area in which the face of the target person is reflected from the received monitoring image, and extracts a face area image.
In order to detect a face area, the face detection unit 321 uses, for example, an inter-frame difference process or a background difference process, and changes with time in luminance values in a plurality of monitoring images acquired by the imaging unit 100 are performed. Extract regions. Then, the face detection unit 321 extracts, from the extracted change areas, a change area that seems to be a person from a feature amount such as the size of the change area as a person area. Then, the face detection unit 321 performs edge pixel extraction on the extracted person region using a Sobel filter or the like so that the inclination direction of the luminance change can be known. Then, the face detection unit 321 detects an elliptical edge distribution having a predetermined size and approximating the contour shape of the head from the extracted edge pixels, and uses the area surrounded by the edge distribution as a face area. Extract. In this case, the face detection unit 321 can detect an elliptical edge distribution using, for example, a generalized Hough transform.

あるいは顔検出手段321は、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.Violaと M.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001)を参照することができる。
そして顔検出手段321は、検出した顔領域を監視画像から切り出して顔領域画像を作成し、その顔領域画像及び監視画像における顔領域の座標情報を顔追跡手段322に出力する。
Alternatively, the face detection unit 321 may detect a face area using an Adaboost classifier. This method is described in a paper by P. Viola and M. Jones “Rapid Object Detection Using a Boosted Cascade of Simple Features” (Proc. The IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001). ) Can be referred to.
Then, the face detection unit 321 creates a face region image by cutting out the detected face region from the monitoring image, and outputs the face region image and the coordinate information of the face region in the monitoring image to the face tracking unit 322.

顔追跡手段322は、所定の時間間隔で連続して取得される複数の監視画像のそれぞれから顔検出手段321により検出された顔領域に対して公知のトラッキング技術を利用して追跡処理を行い、顔領域画像の追跡を行う。
例えば、顔追跡手段322は、最新の監視画像から検出された顔領域(以降、現フレームの顔領域と称する)の重心位置と、1フレーム前の監視画像から検出された顔領域(以降、前フレームの顔領域と称する)の重心位置の距離を求めて、その距離が所定の閾値以下である場合に、その顔領域を同一人物によるものとして対応付ける。なお、対象人物が撮像部100から離れているときに一定の距離を移動した場合と撮像部100の近くにいるときに同じ距離を移動した場合とでは、その移動の前後において監視画像における顔領域の位置の差は異なる。そのため、例えば所定の閾値を顔領域の大きさとすることにより、監視領域内の対象人物の位置にかかわらず、現フレームの顔領域と前フレームの顔領域が同一人物によるものか否かを適切に評価することができる。複数の顔領域が抽出されている場合には、重心位置の距離が最も近い顔領域どうしが対応づくか否かを調べる。
The face tracking unit 322 performs a tracking process using a known tracking technique on the face area detected by the face detection unit 321 from each of a plurality of monitoring images continuously acquired at a predetermined time interval, Track face area image.
For example, the face tracking unit 322 detects the center of gravity of the face area detected from the latest monitoring image (hereinafter referred to as the face area of the current frame) and the face area detected from the monitoring image one frame before (hereinafter referred to as the previous area). The distance of the center of gravity position (referred to as a face area of the frame) is obtained, and when the distance is equal to or less than a predetermined threshold, the face area is associated with the same person. The face area in the monitoring image before and after the movement when the target person moves a certain distance when moving away from the imaging unit 100 and when the target person moves the same distance when moving closer to the imaging unit 100. The position difference is different. Therefore, for example, by setting a predetermined threshold as the size of the face area, it is appropriately determined whether the face area of the current frame and the face area of the previous frame are from the same person regardless of the position of the target person in the monitoring area. Can be evaluated. When a plurality of face areas are extracted, it is checked whether or not face areas with the closest distance between the centroid positions correspond to each other.

あるいは、顔追跡手段322は、オプティカルフロー、パーティクルフィルタ等の方法を用いて顔領域の追跡処理を行ってもよい。   Alternatively, the face tracking unit 322 may perform face area tracking processing using a method such as an optical flow or a particle filter.

顔追跡手段322は、顔領域の追跡処理を行うと、記憶部310に格納されている履歴テーブルを更新する。図4に履歴テーブルの例を示す。図4に示すように履歴テーブル400は、対象人物ごとに履歴データを管理する。履歴データは、履歴テーブル400の各行にあらわされるデータの組であり、顔追跡手段322は、履歴データのうち、試行番号401、対象人物ID402、開始時刻403、追跡フラグ404、顔画像データ405及び追跡位置情報406を更新する。
図4に示した履歴テーブル400において、試行番号401は、追跡中の対象人物の履歴データを他の履歴データと識別するための識別番号であり、対象人物が監視領域内に存在している間、つまり顔追跡手段322によって追跡がされている間、同一の識別番号が割り当てられ続ける。対象人物ID402は、追跡中の対象人物を他の対象人物と識別するための識別番号であり、試行番号401と1対1に対応する。対象人物ID402は、一意に定まるように付与されるものとなる。例えば、顔追跡手段322が追跡を開始した時刻を基に、乱数を発生させればよい。あるいは、対象人物ID402と試行番号401は1対1に対応するので、いずれかを省略してもよい。開始時刻403は、顔検出手段321がその対象人物について顔領域画像を最初に抽出し、顔追跡手段322が追跡処理を開始した時刻を表す。
追跡フラグ404は、その対象人物に対する追跡が継続しているか否かをあらわすフラグであり、顔追跡手段322がその対象人物の追跡を開始するとONになり、追跡を終了するとOFFになる。つまり、追跡フラグ404がONのときはその対象人物は監視領域内に存在し、追跡フラグ404がOFFのときはその対象人物が既に認証されて入室したか、又は認証されずに監視領域から離れたということになる。
顔画像データ405は、顔検出手段321によって作成され、顔追跡手段322によって追跡処理でその対象人物のものとして対応付けられた全ての顔領域画像のデータである。追跡位置情報406は、顔画像データ405として記憶された各顔画像データが切り出された監視画像内の顔領域の座標情報及び追跡処理がされた時刻を示す時刻情報である。
The face tracking unit 322 updates the history table stored in the storage unit 310 when the face area tracking process is performed. FIG. 4 shows an example of the history table. As shown in FIG. 4, the history table 400 manages history data for each target person. The history data is a set of data represented in each row of the history table 400, and the face tracking unit 322 includes a trial number 401, a target person ID 402, a start time 403, a tracking flag 404, face image data 405, and the like among the history data. The tracking position information 406 is updated.
In the history table 400 shown in FIG. 4, the trial number 401 is an identification number for identifying the history data of the target person being tracked from other history data, and while the target person exists in the monitoring area. That is, the same identification number continues to be assigned while being tracked by the face tracking means 322. The target person ID 402 is an identification number for identifying the target person being tracked from other target persons, and corresponds to the trial number 401 on a one-to-one basis. The target person ID 402 is given so as to be uniquely determined. For example, a random number may be generated based on the time when the face tracking unit 322 starts tracking. Alternatively, since the target person ID 402 and the trial number 401 correspond one-to-one, either one may be omitted. The start time 403 represents the time when the face detection unit 321 first extracts a face area image for the target person and the face tracking unit 322 starts the tracking process.
The tracking flag 404 is a flag indicating whether or not the tracking of the target person is continued, and is turned on when the face tracking unit 322 starts tracking the target person, and is turned off when the tracking is finished. That is, when the tracking flag 404 is ON, the target person exists in the monitoring area, and when the tracking flag 404 is OFF, the target person has already been authenticated and has entered the room, or left without being authenticated. It will be that.
The face image data 405 is data of all face area images created by the face detection unit 321 and associated with the target person by the face tracking unit 322 in the tracking process. The tracking position information 406 is time information indicating the coordinate information of the face area in the monitoring image from which each face image data stored as the face image data 405 is cut out and the time when the tracking process is performed.

顔追跡手段322は、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができなかった場合、その現フレームの顔領域には新たに監視領域内に入ってきた対象人物が写っているものとして、履歴テーブル400にその対象人物についての履歴データを新たに追加し、初期化処理を行う。即ち顔追跡手段322は、その履歴データに新たな試行番号401及び対象人物ID402を割り当てるとともに、開始時刻403として現在時刻を記録し、追跡フラグ404をONに設定する。また顔追跡手段322は、顔画像データ405としてその現フレームの顔領域から作成された顔領域画像を記録するとともに、追跡位置情報406としてその顔領域の座標情報及び現在時刻を記録する。また顔追跡手段322は、認証フラグ408をOFFに設定し、新たに追加した履歴データを光源方向推定手段323及び顔照合手段325に出力する。   If the face area of the current frame of interest cannot be associated with the face area of the previous frame, the face tracking unit 322 shows the target person newly entering the monitoring area in the face area of the current frame. Assuming that the target person is newly added to the history table 400, initialization processing is performed. That is, the face tracking unit 322 assigns a new trial number 401 and a target person ID 402 to the history data, records the current time as the start time 403, and sets the tracking flag 404 to ON. Further, the face tracking unit 322 records a face area image created from the face area of the current frame as the face image data 405, and records the coordinate information and the current time of the face area as the tracking position information 406. Further, the face tracking unit 322 sets the authentication flag 408 to OFF, and outputs newly added history data to the light source direction estimating unit 323 and the face matching unit 325.

一方、顔追跡手段322が、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができた場合、その対象人物についての履歴データは、既に履歴テーブル400に作成されている。そのため、顔追跡手段322は、履歴テーブル400の、対応する履歴データの顔画像データ405にその現フレームの顔領域から作成された顔領域画像を追加するとともに、追跡位置情報406にその顔領域の座標情報及び現在時刻を追加する更新処理を行う。そして顔追跡手段322は、その履歴データを光源方向推定手段323及び顔照合手段325に出力する。   On the other hand, when the face tracking unit 322 can associate the face area of the current frame of interest with the face area of the previous frame, history data about the target person has already been created in the history table 400. Therefore, the face tracking unit 322 adds the face area image created from the face area of the current frame to the face image data 405 of the corresponding history data in the history table 400, and also adds the face area image of the face area to the tracking position information 406. An update process for adding coordinate information and the current time is performed. The face tracking unit 322 outputs the history data to the light source direction estimating unit 323 and the face collating unit 325.

また、顔追跡手段322は、前フレームの顔領域について、全ての現フレームの顔領域と対応付けられなかったものがある場合、履歴テーブル400の、対応する履歴データの追跡フラグ404をOFFにして、その対象人物についての追跡処理を終了する。   Further, the face tracking unit 322 turns off the tracking flag 404 of the corresponding history data in the history table 400 when there is a face area of the previous frame that is not associated with all face areas of the current frame. Then, the tracking process for the target person is terminated.

光源方向推定手段323は、顔追跡手段322から出力された履歴データのうち、図4に示した履歴テーブル400の追跡フラグ404がONかつ認証フラグ408がOFFとなっている履歴データの最新の顔領域画像と、予め記憶部310に記憶された3次元顔形状モデルとから、顔領域画像に写った顔に照射された光の光源方向を推定する。以下、光源方向とは、顔領域画像に写っている人物の顔から見た光源の方向とする。光源方向を推定するための方法として、公知の様々な方法を用いることができる。例えば、光源方向推定手段323は、以下の方法により顔領域画像における輝度分布から光源方向を推定する。
まず、顔表面は、その表面により拡散される光の強度がその表面の法線とのなす角の余弦に比例する均等拡散面(ランバート面)であると仮定する。この場合、顔領域画像の水平方向をx軸、垂直方向をy軸とし、左上の点を原点とすると、顔領域画像上の位置(x,y)における輝度E(x,y)は、次式により、顔の3次元形状、光源の方向及び顔表面の反射率で決定されると考えられる。

Figure 0005955031
(1)式において、ρ(x,y)は、位置(x,y)における顔表面の反射率、l0は光源係数、lは光源方向ベクトルを表す。またn(x,y)は、位置(x,y)における顔表面の法線方向ベクトルを表し、その位置(x,y)に対応する3次元顔形状モデル上の位置及び顔の向きに基づいて求められる。 The light source direction estimation means 323 is the latest face of the history data output from the face tracking means 322 and whose history flag 400 in the history table 400 shown in FIG. 4 is ON and the authentication flag 408 is OFF. From the region image and the three-dimensional face shape model stored in advance in the storage unit 310, the light source direction of the light emitted to the face shown in the face region image is estimated. Hereinafter, the light source direction is the direction of the light source viewed from the face of a person shown in the face area image. Various known methods can be used as a method for estimating the light source direction. For example, the light source direction estimation unit 323 estimates the light source direction from the luminance distribution in the face area image by the following method.
First, it is assumed that the face surface is a uniform diffusing surface (Lambertian surface) in which the intensity of light diffused by the surface is proportional to the cosine of the angle with the normal of the surface. In this case, assuming that the horizontal direction of the face area image is the x axis, the vertical direction is the y axis, and the upper left point is the origin, the luminance E (x, y) at the position (x, y) on the face area image is It is considered that the expression is determined by the three-dimensional shape of the face, the direction of the light source, and the reflectance of the face surface.
Figure 0005955031
In equation (1), ρ (x, y) represents the reflectance of the face surface at the position (x, y), l 0 represents a light source coefficient, and l represents a light source direction vector. N (x, y) represents the normal vector of the face surface at the position (x, y), and is based on the position on the 3D face shape model corresponding to the position (x, y) and the face orientation. Is required.

ここで、顔の皮膚は場所によらず同一の成分で構成されると仮定し、(1)式においてρ(x,y)は一定値αを有するものとする。この場合、(1)式は光源係数l0及び光源方向lを未知数とした方程式となる。そこで、光源方向推定手段323は、顔領域画像における顔の皮膚に相当する領域内の各画素において、(1)式を立てて連立方程式とし、この連立方程式を解くことによって各向き調整済み形状モデルごとの光源係数l0及び光源方向lを求めることができる。なお、一定値αは、顔領域画像における顔の皮膚に相当する領域の輝度値の平均値、最頻値または中央値若しくはその近傍値に設定することができる。 Here, it is assumed that the skin of the face is composed of the same component regardless of the location, and ρ (x, y) in Equation (1) has a constant value α. In this case, equation (1) is an equation with the light source coefficient l 0 and the light source direction l as unknowns. Therefore, the light source direction estimating means 323 sets the equation (1) as a simultaneous equation for each pixel in the region corresponding to the facial skin in the face region image, and solves the simultaneous equations for each orientation adjusted shape model. The light source coefficient l 0 and the light source direction l can be obtained for each. Note that the constant value α can be set to an average value, a mode value, a median value, or a value in the vicinity of the luminance value of the area corresponding to the skin of the face in the face area image.

あるいは、光源方向推定手段323は、予め様々な光源方向で人物の顔を撮影した標準的な顔画像若しくはシミュレーションにより求めた同等の顔画像を用意しておき、それらと顔領域画像とのパターンマッチングをおこなって、最も一致する顔画像を決定することにより、光源方向を推定してもよい。さらにまた、光源方向推定手段323は、照明光源と顔領域画像を取得したカメラの位置関係、または照明光源から照射される照明光の方向及びカメラの撮影方向の関係が予め分かっている場合、それらの関係に基づいて光源方向を決定してもよい。
光源方向推定手段323は、推定した光源方向を光源方向情報として分類手段324へ出力する。
Alternatively, the light source direction estimation means 323 prepares a standard face image obtained by photographing a person's face in various light source directions or an equivalent face image obtained by simulation, and pattern matching between them and the face area image. And the light source direction may be estimated by determining the most matching face image. Furthermore, the light source direction estimation unit 323 may be configured to know in advance the positional relationship between the illumination light source and the camera that acquired the face area image, or the relationship between the direction of the illumination light emitted from the illumination light source and the shooting direction of the camera. The light source direction may be determined based on the relationship.
The light source direction estimation unit 323 outputs the estimated light source direction to the classification unit 324 as light source direction information.

分類手段324は、光源方向推定手段323から受け取った光源方向情報に基づいて、各顔領域画像を、光源方向が略同方向の顔領域画像毎に複数のグループに分類する。例えば、分類手段324は、図3(a)〜(c)のように、対象人物が前方から照射された顔領域画像のグループである「前方」グループと、直上から照射された顔領域画像のグループである「直上」グループと、後方から照射された顔領域画像のグループである「後方」グループとに分類する。   Based on the light source direction information received from the light source direction estimating unit 323, the classifying unit 324 classifies each face area image into a plurality of groups for each face area image having the same light source direction. For example, as shown in FIGS. 3A to 3C, the classification unit 324 includes a “front” group that is a group of face area images irradiated from the front and a face area image irradiated from directly above. The group is classified into a “directly above” group that is a group and a “back” group that is a group of face area images irradiated from behind.

図5に、図2に示した顔画像認証装置10が設置されたオフィスビルの入り口を進行方向254に向かって右側から見た図を模式的に示す。図5に示す対象人物250〜252及びダウンライト260は、図2に示す対象人物250〜252及びダウンライト260に対応する。
図5に示すように、時刻tにおいて、ダウンライト260は対象人物250から見て前方上方に位置し、進行方向254に対するダウンライト260の角度θは90°未満となる。一方、時刻(t+1)において、ダウンライト260は対象人物251の略直上に位置し、進行方向254に対するダウンライト260の角度θは略90°となる。また、時刻(t+2)において、ダウンライト260は対象人物250から見て後方上方に位置し、進行方向254に対するダウンライト260の角度θは90°より大きくなる。
FIG. 5 schematically shows a view of the entrance of the office building where the face image authentication apparatus 10 shown in FIG. 2 is installed as seen from the right side in the traveling direction 254. The target persons 250 to 252 and the downlight 260 illustrated in FIG. 5 correspond to the target persons 250 to 252 and the downlight 260 illustrated in FIG. 2.
As shown in FIG. 5, at time t, the downlight 260 is positioned forward and upward as viewed from the target person 250, and the angle θ of the downlight 260 with respect to the traveling direction 254 is less than 90 °. On the other hand, at time (t + 1), the downlight 260 is positioned substantially immediately above the target person 251 and the angle θ of the downlight 260 with respect to the traveling direction 254 is approximately 90 °. At time (t + 2), the downlight 260 is positioned rearward and upward as viewed from the target person 250, and the angle θ of the downlight 260 with respect to the traveling direction 254 is greater than 90 °.

分類手段324は、光源方向推定手段323が推定した光源方向から、進行方向254に対するダウンライト260の角度θを求め、求めた角度θに応じて、顔領域画像を前方グループ、直上グループ又は後方グループに分類する。なお、直上グループに含まれる角度θの境界値は、光源により顔領域画像に影ができる境界になる角度とする。例えば分類手段324は、角度θが85°≦θ≦92°となる顔領域画像を直上グループに分類し、角度θがθ<85°となる顔領域画像を前方グループに分類し、角度θがθ>92°となる顔領域画像を後方グループに分類する。なお、角度θが90°以下の場合、90°を十分に下回らなければ、図3(a)に示すような顔全体が明るく写っている画像にならないが、角度θが90°以上の場合、少しでも90°を上回ると、図3(c)に示すような顔全体が暗く写っている画像となる傾向にある。そのため、直上グループと後方グループの境界値を92°として、前方グループと直上グループの境界値である85°より90°に近い値としている。
なお、分類手段324は、顔領域画像を前方グループ、直上グループ及び後方グループの三つのグループよりさらに細かく分類してもよい。例えば、図3(d)の画像353のように、進行方向254に対して左右方向からの太陽光の照射等を考慮して、光源方向の進行方向254に対する左右方向の成分にも基づいて分類してもよい。
分類手段324は、顔領域画像を分類したグループを示すグループ情報を顔照合手段325に出力する。
The classifying unit 324 obtains the angle θ of the downlight 260 with respect to the traveling direction 254 from the light source direction estimated by the light source direction estimating unit 323, and determines the face area image as a front group, an immediately above group, or a rear group according to the obtained angle θ. Classify into: Note that the boundary value of the angle θ included in the immediately above group is an angle that becomes a boundary at which a shadow is formed on the face area image by the light source. For example, the classifying unit 324 classifies face area images having an angle θ of 85 ° ≦ θ ≦ 92 ° into the immediately above group, classifies face area images having an angle θ of θ <85 °, and sets the angle θ to be the front group. Face area images satisfying θ> 92 ° are classified into rear groups. In addition, when the angle θ is 90 ° or less, if the angle θ is not sufficiently less than 90 °, the entire face as shown in FIG. 3A is not bright, but when the angle θ is 90 ° or more, If the angle exceeds 90 °, the entire face tends to be dark as shown in FIG. Therefore, the boundary value between the immediately upper group and the rear group is set to 92 °, which is closer to 90 ° than 85 ° which is the boundary value between the front group and the immediately above group.
The classifying unit 324 may classify the face area image more finely than the three groups of the front group, the immediately above group, and the rear group. For example, as shown in an image 353 in FIG. 3D, classification is performed based on a component in the left and right direction with respect to the traveling direction 254 in the light source direction in consideration of irradiation of sunlight from the left and right direction with respect to the traveling direction 254. May be.
The classifying unit 324 outputs group information indicating the group into which the face area image is classified to the face matching unit 325.

顔照合手段325は、グループ選択手段326及び判定手段327を有し、分類手段324によって分類されたグループのうち、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を行う。また、履歴テーブル400の照合履歴407及び認証フラグ408を更新する。   The face matching unit 325 includes a group selection unit 326 and a determination unit 327, selects a group most suitable for the face matching process from the groups classified by the classification unit 324, and uses the face area image of the selected group. To perform face matching. Also, the verification history 407 and the authentication flag 408 in the history table 400 are updated.

照合履歴407は、各フレームの追跡位置情報406に対応するフレーム照合結果を保持する。図6にフレーム照合結果600の例を示す。
取得時刻601は、現フレームの顔領域画像が取得された時刻である。
光源方向グループ602は、分類手段324により分類された、各顔領域画像のグループを表し、分類手段324から出力されたグループ情報がセットされる。
認証候補人物603は、顔追跡手段322によって追跡された顔領域画像と記憶部310に記憶された複数の登録顔画像のそれぞれとの類似度(照合スコア)のうち、類似度が最高(1位)となった登録人物の識別IDである。
認証候補類似度604は、認証候補人物603を特定することになった照合スコアである。
The matching history 407 holds a frame matching result corresponding to the tracking position information 406 of each frame. FIG. 6 shows an example of the frame matching result 600.
The acquisition time 601 is the time when the face area image of the current frame is acquired.
The light source direction group 602 represents a group of each face area image classified by the classification unit 324, and the group information output from the classification unit 324 is set.
The authentication candidate person 603 has the highest similarity (first place) among the similarities (matching scores) between the face area image tracked by the face tracking unit 322 and each of the plurality of registered face images stored in the storage unit 310. This is the identification ID of the registered person.
The authentication candidate similarity 604 is a matching score for specifying the authentication candidate person 603.

図4に戻り、認証フラグ408は、対象人物に対する認証が成功したか否かを表すフラグである。即ち対象人物が登録人物のいずれかであると判定手段327によって判定された場合にはONにセットされ、対象人物の追跡が始まったばかりの状態のように認証結果が判定手段327によって求められていない状態の場合又は対象人物が登録人物ではないと判定手段327によって判定された場合にはOFFにセットされる。   Returning to FIG. 4, the authentication flag 408 is a flag indicating whether or not the authentication of the target person has succeeded. That is, when the determination unit 327 determines that the target person is one of the registered persons, it is set to ON, and the authentication result is not obtained by the determination unit 327 as in the state where the tracking of the target person has just started. In the case of a state or when the determination means 327 determines that the target person is not a registered person, it is set to OFF.

グループ選択手段326は、顔追跡手段322から出力された履歴データのうち、図4に示した履歴テーブル400の追跡フラグ404がONかつ認証フラグ408がOFFとなっている履歴データの最新の顔領域画像に写っている顔と記憶部310に予め記憶された各登録顔画像に写っている顔との類似度を算出する。グループ選択手段326は、公知の顔照合技術を用いて類似度を算出する。例えば、グループ選択手段326は、顔領域画像と登録顔画像の位置をずらしながら顔領域画像に含まれる各画素と登録顔画像の対応画素の輝度値の差の二乗和を算出し、算出した二乗和のうち最も小さいものを顔領域画像に含まれる画素数で割って正規化した値の逆数を類似度として求める。
グループ選択手段326は、処理対象の顔領域画像との類似度が最も高い登録顔画像の登録人物、即ち認証候補人物を特定し、その情報(登録人物の識別ID)を認証候補人物603に記憶し、その類似度を認証候補類似度604に記憶する。また、グループ選択手段326は、分類手段324から出力されたグループ情報を光源方向グループ602に記憶する。
Of the history data output from the face tracking unit 322, the group selection unit 326 displays the latest face area of the history data in which the tracking flag 404 of the history table 400 illustrated in FIG. 4 is ON and the authentication flag 408 is OFF. The similarity between the face shown in the image and the face shown in each registered face image stored in advance in the storage unit 310 is calculated. The group selection means 326 calculates the similarity using a known face matching technique. For example, the group selecting unit 326 calculates the sum of squares of the difference in luminance value between each pixel included in the face area image and the corresponding pixel of the registered face image while shifting the positions of the face area image and the registered face image, and calculates the calculated square. The reciprocal of the normalized value obtained by dividing the smallest sum of the sum by the number of pixels included in the face area image is obtained as the similarity.
The group selection unit 326 specifies the registered person of the registered face image having the highest similarity with the face area image to be processed, that is, the authentication candidate person, and stores the information (registered person identification ID) in the authentication candidate person 603. Then, the similarity is stored in the authentication candidate similarity 604. Further, the group selection unit 326 stores the group information output from the classification unit 324 in the light source direction group 602.

さらに、グループ選択手段326は、分類手段324によって分類される複数のグループのそれぞれについて、そのグループに含まれる各顔領域画像と各登録顔画像との類似度に基づいて、そのグループに含まれる各顔領域画像に写っている顔と最も類似する顔が写っている登録顔画像をそのグループのグループ候補顔画像として選択する。そして、選択したグループ候補顔画像の登録人物をグループ候補人物とする。例えば、グループ選択手段326は、各グループについて、認証候補人物の顔画像として特定された回数の最も多い登録顔画像をグループ候補顔画像とし、そのグループ候補顔画像の人物をグループ候補人物とする。その場合、グループ選択手段326は、同一の光源方向グループ602について認証候補人物603として最も多く記録されている認証候補人物をグループ候補人物とする。あるいは、そのグループに含まれる各顔領域画像との各類似度の平均値、中央値又は四分位数が最も高い登録顔画像の登録人物をグループ候補人物としてもよい。
次に、グループ選択手段326は、分類手段324によって分類される複数のグループのそれぞれについて、グループ候補人物となった認証候補人物について記録されている認証候補類似度604からグループ類似度を算出する。グループ類似度は、そのグループに含まれる各顔領域画像とグループ候補顔画像との類似する度合いを表し、グループ候補人物となった認証候補人物についてのそれぞれの認証候補類似度604が高いほど高くなる。例えば、グループ候補人物となった認証候補人物についての全ての認証候補類似度604の平均値、中央値及び四分位数のうちの何れか一つをグループ類似度とする。
そして、グループ選択手段326は、算出したグループ類似度が最も高いグループを判定処理を実施するグループとして選択する。
Further, the group selecting unit 326 includes each of a plurality of groups classified by the classifying unit 324 based on the similarity between each face area image included in the group and each registered face image. A registered face image showing a face most similar to the face shown in the face area image is selected as a group candidate face image of the group. Then, the registered person of the selected group candidate face image is set as a group candidate person. For example, for each group, the group selection means 326 sets the registered face image that is identified most frequently as the face image of the authentication candidate person as the group candidate face image, and sets the group candidate face image as the group candidate person. In that case, the group selection unit 326 sets the authentication candidate person recorded most as the authentication candidate person 603 for the same light source direction group 602 as the group candidate person. Alternatively, the registered person of the registered face image having the highest average value, median value, or quartile of each similarity with each face area image included in the group may be set as the group candidate person.
Next, the group selection unit 326 calculates the group similarity for each of the plurality of groups classified by the classification unit 324 from the authentication candidate similarity 604 recorded for the authentication candidate person who is a group candidate person. The group similarity represents the degree of similarity between each face area image included in the group and the group candidate face image, and the higher the authentication candidate similarity 604 for each authentication candidate person that is a group candidate person, the higher the group similarity degree. . For example, any one of the average value, the median value, and the quartile of all the authentication candidate similarities 604 for the authentication candidate persons that are the group candidate persons is set as the group similarity.
Then, the group selection unit 326 selects the group having the highest calculated group similarity as the group that performs the determination process.

図7及び図8を用いて、グループ選択手段326によるグループ選択処理について詳細に説明する。
図7は、監視領域を通行する対象人物を時系列に表す模式図である。図7は、進行方向721へ向かう対象人物を示しており、撮像部100は、同一の対象人物701〜709をそれぞれ時刻t1〜t9において順次撮影する。また、監視領域の天井には進行方向721に沿って三つのダウンライト711〜713が設置される。ダウンライト711〜713は対象人物701、704、707を前方上方から照射し、対象人物702、705、708を直上から照射し、対象人物703、706、709を後方上方から照射する。
The group selection processing by the group selection unit 326 will be described in detail with reference to FIGS.
FIG. 7 is a schematic diagram showing the target person passing through the monitoring area in time series. Figure 7 shows a target person toward the traveling direction 721, the imaging unit 100 sequentially imaging the same target person 701-709 a at time t 1 ~t 9 respectively. In addition, three downlights 711 to 713 are installed along the traveling direction 721 on the ceiling of the monitoring area. The downlights 711 to 713 irradiate the target persons 701, 704, and 707 from the upper front side, irradiate the target persons 702, 705, and 708 from directly above, and irradiate the target persons 703, 706, and 709 from the upper rear side.

図8(a)〜(c)は、図7に示した対象人物に対する類似度について説明するためのグラフである。なお、以下では、顔画像認証装置10には、三人の登録人物A、B、Cの登録顔画像が記憶されているものとして説明する。
図8(a)は、対象人物701〜709についてグループ選択手段326が特定した認証候補人物と、算出した類似度とを示すグラフである。図8(a)において、横軸は時刻を、縦軸は類似度を表す。時刻801〜809は、それぞれ時刻t1〜t9であり、図7における対象人物701〜709が順次撮影された時刻にそれぞれ対応している。また、各時刻における各×印は、左側から順に、各時刻における対象人物についての顔領域画像と登録人物A、B、Cについての登録顔画像との類似度を表す。×印の上側にA、B又はCと表されている人物は、各時刻において類似度が最も高い登録人物であり、その登録人物がグループ選択手段326によって認証候補人物として特定される。つまり、時刻t1、t2、t4、t6、t7では登録人物Aが、時刻t3、t5、t8では登録人物Bが、時刻t9では登録人物Cが、それぞれ認証候補人物として特定される。
この図8(a)に示す例では、時刻t1、t4、t7において対象人物が前方から照射されており、その時刻における顔領域画像は顔照合処理に適した画像である。そのため、以下では時刻t1、t4、t7において認証候補人物として特定された登録人物Aが監視領域を通行する、真の対象人物であると仮定して説明する。
8A to 8C are graphs for explaining the similarity to the target person shown in FIG. In the following description, it is assumed that the registered face images of the three registered persons A, B, and C are stored in the face image authentication apparatus 10.
FIG. 8A is a graph showing the authentication candidate person specified by the group selection unit 326 for the target persons 701 to 709 and the calculated similarity. In FIG. 8A, the horizontal axis represents time, and the vertical axis represents similarity. Times 801 to 809 are times t 1 to t 9 , respectively, and correspond to times when the target persons 701 to 709 in FIG. Each x mark at each time represents the similarity between the face area image for the target person and the registered face images for the registered persons A, B, and C at each time in order from the left side. A person represented as A, B, or C above the cross is a registered person having the highest similarity at each time, and the registered person is specified as an authentication candidate person by the group selection unit 326. That is, the registered person A at time t 1 , t 2 , t 4 , t 6 , t 7 , the registered person B at time t 3 , t 5 , t 8 , and the registered person C at time t 9 are authentication candidates. Identified as a person.
In the example shown in FIG. 8A, the target person is illuminated from the front at times t 1 , t 4 , and t 7 , and the face area image at that time is an image suitable for face matching processing. Therefore, the following description will be made assuming that the registered person A identified as the authentication candidate person at the times t 1 , t 4 , and t 7 is a true target person who passes through the monitoring area.

図8(b)は、図8(a)の各時刻において認証候補人物として特定された人物についての類似度を、認証候補人物ごとに並べ替えたグラフである。図8(b)において、横軸は各認証候補人物を、縦軸は類似度を表す。認証候補人物811は登録人物Aであり、左側から順に時刻t1、t2、t4、t6、t7における類似度が表され、認証候補人物812は登録人物Bであり、左側から順に時刻t3、t5、t8における類似度が表され、認証候補人物813は登録人物Cであり、時刻t9における類似度が表されている。
図8(b)に示すように、登録人物A、すなわち認証候補人物811についての類似度の平均値821は、登録人物B、すなわち認証候補人物812についての類似度の平均値822、又は登録人物C、すなわち認証候補人物813についての類似度の平均値823より低くなっている。これは、認証候補人物811についての類似度の平均値821は、対象人物が直上から照射され、顔のテクスチャ情報を適切に抽出できない、時刻t2における顔領域画像から求められた極度に低い類似度の影響を受けているためである。
図8(b)に示したように、監視領域がダウンライト等により照射される場合、顔のテクスチャ情報を適切に抽出できない顔領域画像が得られる可能性がある。そのため、対象人物が監視領域内に存在する間に取得された各顔領域画像について特定された全ての認証候補人物のうち、類似度の平均値が最も高い認証候補人物が対象人物であると判定すると、判定を誤るおそれがある。
FIG. 8B is a graph in which the similarities of the persons specified as authentication candidate persons at each time of FIG. 8A are rearranged for each authentication candidate person. In FIG. 8B, the horizontal axis represents each authentication candidate person, and the vertical axis represents the similarity. The authentication candidate person 811 is the registered person A, and the similarity at the times t 1 , t 2 , t 4 , t 6 , t 7 is expressed in order from the left side, and the authentication candidate person 812 is the registered person B, in order from the left side. The similarity at time t 3 , t 5 , t 8 is represented, the authentication candidate person 813 is the registered person C, and the similarity at time t 9 is represented.
As shown in FIG. 8B, the average similarity 821 for the registered person A, that is, the authentication candidate person 811, is the average similarity 822 for the registered person B, that is, the authentication candidate person 812, or the registered person. C, that is, lower than the average value 823 of the similarity for the authentication candidate person 813. This is because the similarity similarity average value 821 for the authentication candidate person 811 is extremely low similarity obtained from the face area image at time t 2 when the target person is irradiated from directly above and face texture information cannot be extracted appropriately. This is because of the influence of the degree.
As shown in FIG. 8B, when the monitoring area is illuminated by a downlight or the like, there is a possibility that a face area image that cannot properly extract facial texture information may be obtained. Therefore, it is determined that the authentication candidate person having the highest average similarity is the target person among all the authentication candidate persons specified for each face area image acquired while the target person exists in the monitoring area. Then, there is a risk of erroneous determination.

図8(c)は、図8(a)の各時刻においてにおいて認証候補人物として特定された人物についての類似度を、分類手段324によって分類されるグループごとに並べ替えたグラフである。図8(c)において、横軸は各グループを、縦軸は類似度を表す。グループ831は前方グループであり、左側から順に時刻t1、t4、t7における類似度が表され、グループ832は直上グループであり、左側から順に時刻t2、t5、t8における類似度が表され、グループ833は後方グループであり、左側から順に時刻t3、t6、t9における類似度が表されている。
各類似度をこのように分類すると、各グループには、複数の認証候補人物についての類似度が含まれる場合がある。そこで、上述した通り、グループ選択手段326は、各グループにおいて、認証候補人物として特定された回数の最も多い人物をそのグループのグループ候補人物とする。図8(c)では、前方グループ831については登録人物Aがグループ候補人物となり、直上グループ832については登録人物Bがグループ候補人物となる。なお、後方グループ833については、登録人物A、B、Cがそれぞれ一回ずつ認証候補人物として特定されている。顔画像認証では一定の確率で発生を避けられない「他人の空似」を考慮し、照合処理の精度を向上させるためには、所定回数(例えば、二回)以上、認証候補人物として特定されている人物をグループ候補人物とすることが好ましい。そこで、後方グループ833についてはグループ候補人物を選択しない。
図8(c)に示すように、前方グループ831のグループ候補人物Aについての類似度の平均値841は、直上グループ832のグループ候補人物Bについての類似度の平均値842より高い。これは、前方グループ831についての類似度は、全て顔のテクスチャ情報を適切に抽出できる顔領域画像から算出され、直上グループ832についての類似度は、全て顔のテクスチャ情報を適切に抽出できない顔領域画像から算出されるからである。
図8(c)に示す例では、グループ選択手段326は、グループ候補人物についての類似度の平均値が最も高い前方グループ831を判定処理を実施するグループとして選択する。
FIG. 8C is a graph in which the similarities of the persons specified as the authentication candidate person at each time of FIG. 8A are rearranged for each group classified by the classifying unit 324. In FIG. 8C, the horizontal axis represents each group, and the vertical axis represents similarity. The group 831 is a forward group, and the similarities at times t 1 , t 4 , and t 7 are represented in order from the left side, and the group 832 is a direct upper group, and the similarities at times t 2 , t 5 , and t 8 in order from the left side. The group 833 is a rear group, and the degrees of similarity at the times t 3 , t 6 , and t 9 are shown in order from the left side.
If the similarities are classified in this way, each group may include similarities for a plurality of authentication candidate persons. Therefore, as described above, the group selection unit 326 sets the person most frequently identified as an authentication candidate person in each group as the group candidate person of that group. In FIG. 8C, the registered person A is a group candidate person for the front group 831, and the registered person B is a group candidate person for the immediately above group 832. For the rear group 833, registered persons A, B, and C are identified as authentication candidate persons once each. In order to improve the accuracy of the collation process in consideration of “similarity of others” that cannot be avoided with a certain probability in face image authentication, it is specified as an authentication candidate person for a predetermined number of times (for example, twice) or more. It is preferable that the person who is present is a group candidate person. Therefore, no group candidate person is selected for the rear group 833.
As illustrated in FIG. 8C, the average value 841 of the similarity for the group candidate person A of the front group 831 is higher than the average value 842 of the similarity for the group candidate person B of the immediately above group 832. This is because the similarity for the front group 831 is calculated from a face area image from which all face texture information can be appropriately extracted, and the similarity for the immediately above group 832 is a face area from which all face texture information cannot be extracted appropriately. This is because it is calculated from the image.
In the example illustrated in FIG. 8C, the group selection unit 326 selects the front group 831 having the highest average degree of similarity for the group candidate person as the group for performing the determination process.

判定手段327は、グループ選択手段326によって選択されたグループに含まれる少なくとも一つの顔領域画像とグループ候補顔画像とを比較することにより、監視領域内を通行する対象人物と登録顔画像に写っている人物とが同一の人物か否かを判定する。そのために、判定手段327は、例えばグループ選択手段326によって選択されたグループのグループ類似度が認証閾値以上であるか否かを判定する。なお、認証閾値は、選択されたグループの各顔領域画像に含まれる顔がグループ候補人物の顔であるか否かを認証するための基準である。そして、グループ類似度が認証閾値以上である場合、判定手段327は、そのグループの各顔領域画像に含まれる顔がグループ候補人物として特定された登録人物の顔であると判定し、監視領域内を通行する対象人物がその登録人物であると判定する。そして、対応する履歴テーブル400において、追跡フラグ404をOFFに設定するとともに認証フラグ408をONに設定し、認証成功を示す信号を出力部200に出力する。   The determination unit 327 compares the at least one face area image included in the group selected by the group selection unit 326 with the group candidate face image, so that the target person passing in the monitoring area and the registered face image are reflected. It is determined whether or not the person who is present is the same person. For this purpose, the determination unit 327 determines whether the group similarity of the group selected by the group selection unit 326 is greater than or equal to the authentication threshold, for example. The authentication threshold is a reference for authenticating whether or not the face included in each face area image of the selected group is the face of a group candidate person. If the group similarity is equal to or higher than the authentication threshold value, the determination unit 327 determines that the face included in each face area image of the group is the face of the registered person specified as the group candidate person, and within the monitoring area It is determined that the target person who passes is the registered person. Then, in the corresponding history table 400, the tracking flag 404 is set to OFF and the authentication flag 408 is set to ON, and a signal indicating successful authentication is output to the output unit 200.

一方、所定時間(例えば、2秒)以上追跡を継続しているにもかかわらず、グループ類似度が認証閾値未満である場合、判定手段327は、認証失敗として対応する履歴テーブル400の認証フラグ408をOFFに設定する。また、追跡開始直後であり、グループ候補人物が選択されていない場合又は照合履歴407が所定フレーム(例えば、30フレーム)分取得されていない場合にも、判定手段327は、対応する履歴テーブル400の認証フラグ408をOFFに設定する。   On the other hand, when the group similarity is less than the authentication threshold even though the tracking is continued for a predetermined time (for example, 2 seconds) or more, the determination unit 327 determines the authentication flag 408 of the history table 400 corresponding to the authentication failure. Is set to OFF. Even when the group candidate person is not selected immediately after the tracking is started or when the matching history 407 has not been acquired for a predetermined frame (for example, 30 frames), the determination unit 327 stores the corresponding history table 400. The authentication flag 408 is set to OFF.

以下、図9に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置10による認証処理の動作を説明する。なお、以下に説明する動作のフローは、画像処理部300を構成するマイクロプロセッサ上で動作し、顔画像認証装置10全体を制御する制御部(図示せず)により制御される。なお、以下に説明する処理の実施前に、履歴テーブル400は空白になるよう初期化される。また、以下に説明する動作は、監視画像を一つ取得するごとに実施される。   Hereinafter, the operation of the authentication process performed by the face image authentication apparatus 10 to which the present invention is applied will be described with reference to the flowchart shown in FIG. The flow of operations described below is controlled by a control unit (not shown) that operates on the microprocessor constituting the image processing unit 300 and controls the face image authentication apparatus 10 as a whole. Note that the history table 400 is initialized to be blank before the processing described below is performed. The operation described below is performed every time one monitoring image is acquired.

最初に、顔画像認証装置10は、撮像部100により、監視領域を撮影した監視画像を取得し、画像処理部300の照合部320へ送る(ステップS901)。次に、照合部320の顔検出手段321は、取得された監視画像から、対象人物の顔が写っている顔領域を検出し、その顔領域を監視画像から切り出して顔領域画像を作成する(ステップS902)。次に、顔検出手段321は、一つ以上の顔領域が検出されたか否か判定する(ステップS903)。顔領域が全く検出されなかった場合、ステップS901へ移行し、顔領域が検出されるまでステップS901〜S903の処理を繰り返す。   First, the face image authentication apparatus 10 acquires a monitoring image obtained by capturing a monitoring area by the imaging unit 100 and sends the monitoring image to the matching unit 320 of the image processing unit 300 (step S901). Next, the face detection unit 321 of the collation unit 320 detects a face area in which the face of the target person is reflected from the acquired monitoring image, and cuts out the face area from the monitoring image to create a face area image ( Step S902). Next, the face detection unit 321 determines whether or not one or more face regions have been detected (step S903). If no face area is detected, the process proceeds to step S901, and the processes in steps S901 to S903 are repeated until the face area is detected.

一方、ステップS903において、一つ以上の顔領域が検出され、顔領域画像が作成された場合、顔追跡手段322は、検出された全ての顔領域について、図4に示した履歴テーブル400における追跡フラグ404がONとなっている対象人物ID402との対応付けを実施する(ステップS904)。そして顔追跡手段322は、追跡フラグ404がONとなっている対象人物ID402について、現フレームの顔領域のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS905)。現フレームの顔領域のいずれとも対応付けられなかったものがない場合、ステップS907へ移行する。一方、現フレームの顔領域のいずれとも対応付けられなかった、追跡フラグ404がONとなっている対象人物ID402がある場合、その対象人物ID402の対象人物は、認証成功となって入室したか、又は認証されずに監視領域から離れたと考えられる。そのためその場合、顔追跡手段322は、現フレームの顔領域のいずれとも対応付けられなかった対象人物ID402の追跡フラグ404をOFFにして、以後その顔領域に対する追跡処理を実施しないようにする(ステップS906)。   On the other hand, if one or more face areas are detected and a face area image is created in step S903, the face tracking unit 322 tracks all the detected face areas in the history table 400 shown in FIG. Association with the target person ID 402 for which the flag 404 is ON is performed (step S904). Then, the face tracking unit 322 determines whether there is a target person ID 402 for which the tracking flag 404 is ON that is not associated with any of the face areas of the current frame (step S905). If there is no face area that is not associated with any face area of the current frame, the process proceeds to step S907. On the other hand, when there is a target person ID 402 that is not associated with any of the face areas of the current frame and whose tracking flag 404 is ON, the target person of the target person ID 402 has entered the room with successful authentication, Alternatively, it is considered that the user has left the monitoring area without being authenticated. Therefore, in that case, the face tracking unit 322 turns off the tracking flag 404 of the target person ID 402 that is not associated with any of the face areas of the current frame, and thereafter does not perform the tracking process for the face area (step S906).

そして顔追跡手段322は、現フレームの顔領域について、追跡フラグ404がONとなっている対象人物ID402と対応付けることができなかったものがあるか否かを判定する(ステップS907)。追跡フラグ404がONとなっている対象人物ID402と対応付けることができなかったものがある場合、顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての履歴データを履歴テーブル400に新たに追加する。即ち顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての履歴データに新たな試行番号401及び対象人物ID402を割り当てるとともに、開始時刻403として現在の時刻を記録し、追跡フラグ404をONに設定する(ステップS908)。また顔追跡手段322は、顔画像データ405として現フレームの顔領域から作成された顔領域画像を記録するとともに、対応付けることができなかった顔領域の座標情報及び取得時刻を追跡位置情報406として記録し、認証フラグ408をOFFに設定する。   Then, the face tracking unit 322 determines whether there is any face area in the current frame that could not be associated with the target person ID 402 for which the tracking flag 404 is ON (step S907). If there is something that could not be associated with the target person ID 402 for which the tracking flag 404 is ON, the face tracking unit 322 stores history data regarding the target person in the face area that could not be associated in the history table 400. Add a new one. That is, the face tracking unit 322 assigns a new trial number 401 and target person ID 402 to the history data for the target person in the face area that could not be associated, and records the current time as the start time 403, and the tracking flag 404 Is set to ON (step S908). The face tracking unit 322 records the face area image created from the face area of the current frame as the face image data 405 and also records the coordinate information and the acquisition time of the face area that could not be associated as the tracking position information 406. Then, the authentication flag 408 is set to OFF.

なお、現フレームの顔領域について、追跡フラグ404がONとなっている対象人物ID402と対応付けることができた場合、顔追跡手段322は、対応付けることができた顔領域の座標情報及び取得時刻を、対応する履歴データの追跡位置情報406に追加する更新処理を行う。そして顔追跡手段322は、更新した履歴データを光源方向推定手段323及び顔照合手段325に出力する。   When the face area of the current frame can be associated with the target person ID 402 whose tracking flag 404 is ON, the face tracking unit 322 displays the coordinate information and acquisition time of the face area that can be associated with each other. An update process for adding to the tracking position information 406 of the corresponding history data is performed. Then, the face tracking unit 322 outputs the updated history data to the light source direction estimating unit 323 and the face collating unit 325.

以下のステップS909〜S914の処理は、追跡フラグ404がONであり、かつ認証フラグ408がOFFである履歴データごとに行われる。追跡フラグ404がONである履歴データのうち認証フラグ408がONである履歴データを処理対象としないのは、既に認証がなされているためである。
光源方向推定手段323は、処理対象の履歴データの最新の顔領域画像について、光源方向を推定し、推定した光源方向を光源方向情報として分類手段324へ出力する(ステップS909)。次に、分類手段324は、光源方向推定手段323から受け取った光源方向情報に基づいて、処理対象の履歴データの最新の顔領域画像を、光源方向が略同方向の顔領域画像毎に複数のグループに分類する(ステップS910)。
The following steps S909 to S914 are performed for each history data in which the tracking flag 404 is ON and the authentication flag 408 is OFF. The reason why the history data whose authentication flag 408 is ON among the history data whose tracking flag 404 is ON is not to be processed is that the authentication has already been performed.
The light source direction estimation unit 323 estimates the light source direction for the latest face area image of the history data to be processed, and outputs the estimated light source direction to the classification unit 324 as light source direction information (step S909). Next, based on the light source direction information received from the light source direction estimating unit 323, the classifying unit 324 generates a plurality of latest face area images of the history data to be processed for each face area image whose light source direction is substantially the same. Sort into groups (step S910).

次に、顔照合手段325は、照合履歴407にフレーム照合結果600を蓄積する。フレーム照合結果600はそれぞれ、各フレームにおける追跡位置情報406と一対一で対応するものであり、追跡位置情報406の時刻情報を取得時刻601に記憶する。なお、取得時刻601を、追跡位置情報406の時刻情報と同一であるとして省略してもよい。
次に、グループ選択手段326は、処理対象の履歴データの最新の顔領域画像に対して、記憶部310に記憶された全ての登録顔画像との間で類似度を算出し、類似度が最高となった登録顔画像の登録人物を認証候補人物として特定する。そして、その情報を認証候補人物603に記憶し、その類似度を認証候補類似度604に記憶する(ステップS911)。さらに、グループ選択手段326は、分類手段324が分類したグループ情報を光源方向グループ602に記憶する。
Next, the face matching unit 325 stores the frame matching result 600 in the matching history 407. Each frame matching result 600 has a one-to-one correspondence with the tracking position information 406 in each frame, and the time information of the tracking position information 406 is stored in the acquisition time 601. The acquisition time 601 may be omitted as being the same as the time information of the tracking position information 406.
Next, the group selection means 326 calculates the similarity between all the registered face images stored in the storage unit 310 for the latest face area image of the history data to be processed, and the similarity is the highest. The registered person of the registered face image is specified as an authentication candidate person. Then, the information is stored in the authentication candidate person 603, and the similarity is stored in the authentication candidate similarity 604 (step S911). Further, the group selection unit 326 stores the group information classified by the classification unit 324 in the light source direction group 602.

次に、グループ選択手段326は、各グループについてグループ候補人物を特定し、グループ類似度を算出し、算出したグループ類似度が最も高くなるグループを判定処理を実施するグループとして選択する(ステップS912)。
なお、顔追跡手段322による追跡を開始したばかりのときには、照合履歴407に蓄積されたフレーム数が少なく、グループ選択手段326が選択するグループが一つのフレームの結果に大きく左右されるので、判定処理を行わないようにする必要がある。このために、判定処理に必要なフレーム数が照合履歴407に蓄積されたか否かの判定を、例えば、ステップS912で行い、判定処理に必要なフレーム数が照合履歴407に蓄積されていない場合には、判定処理を禁止し、ステップS901へ移行するようにするのが好ましい。判定処理に必要なフレーム数は、顔画像認証装置10の設置環境に応じて適宜設定される。
Next, the group selection unit 326 specifies a group candidate person for each group, calculates a group similarity, and selects a group having the highest calculated group similarity as a group for performing the determination process (step S912). .
When the tracking by the face tracking unit 322 has just started, the number of frames accumulated in the matching history 407 is small, and the group selected by the group selection unit 326 is greatly influenced by the result of one frame. It is necessary not to do. For this reason, it is determined whether or not the number of frames necessary for the determination process is accumulated in the collation history 407, for example, in step S912, and the number of frames necessary for the determination process is not accumulated in the collation history 407. It is preferable that the determination process is prohibited and the process proceeds to step S901. The number of frames necessary for the determination process is appropriately set according to the installation environment of the face image authentication device 10.

次に、判定手段327は、グループ選択手段326により選択されたグループのグループ類似度が認証閾値以上であるか否かを判定する(ステップS913)。グループ類似度が認証閾値未満である場合、追跡フラグ404がON、かつ認証フラグ408がOFFの履歴データがまだあるならばステップS909へ移行し、ないならばステップS901へ移行する。一方、グループ類似度が認証閾値以上である場合、判定手段327は、監視領域内を通行する対象人物がそのグループ候補人物として特定された登録人物であると判定する。そして、対応する履歴テーブル400において、追跡フラグ404をOFFに設定するとともに認証フラグ408をONに設定し、認証成功を示す信号を出力部200に出力する(ステップS914)。   Next, the determination unit 327 determines whether or not the group similarity of the group selected by the group selection unit 326 is greater than or equal to the authentication threshold (step S913). When the group similarity is less than the authentication threshold, if there is still history data in which the tracking flag 404 is ON and the authentication flag 408 is OFF, the process proceeds to step S909, and if not, the process proceeds to step S901. On the other hand, when the group similarity is equal to or higher than the authentication threshold, the determination unit 327 determines that the target person who passes through the monitoring area is the registered person specified as the group candidate person. Then, in the corresponding history table 400, the tracking flag 404 is set to OFF and the authentication flag 408 is set to ON, and a signal indicating successful authentication is output to the output unit 200 (step S914).

ステップS914で認証成功を示す信号が出力部200に出力された場合、顔照合手段325は、出力部200を介して電気錠の解錠を行う。これにより認証成功となった対象人物は、入室することができる。なお、電気錠は、対象人物の入室が確認できた後にすみやかに、または所定時間経過後に自動的に施錠されるものとする。   When a signal indicating successful authentication is output to the output unit 200 in step S <b> 914, the face collating unit 325 unlocks the electric lock via the output unit 200. As a result, the target person who has succeeded in authentication can enter the room. It is assumed that the electric lock is locked immediately after the entry of the target person can be confirmed or automatically after a predetermined time has elapsed.

なお、ステップS911に示した類似度算出処理は、ステップS909及びS910に示した光源方向推定処理及び分類処理より前に実施してもよい。   Note that the similarity calculation processing shown in step S911 may be performed before the light source direction estimation processing and classification processing shown in steps S909 and S910.

以上説明してきたように、本発明を適用した顔画像認証装置は、顔領域画像を、推定された光源方向が略同方向の顔領域画像毎に複数のグループに分類し、各グループについてグループ類似度を算出し、グループ類似度が最も高くなるグループを選択する。そして、顔画像認証装置は、選択したグループの各顔領域画像と登録顔画像の類似度に基づいて顔照合処理を実施する。これにより、顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することができる。   As described above, the face image authentication apparatus to which the present invention is applied classifies face area images into a plurality of groups for each face area image whose estimated light source direction is substantially the same direction, and each group is similar to the group. The degree is calculated, and the group having the highest group similarity is selected. Then, the face image authentication device performs face matching processing based on the similarity between each face area image of the selected group and the registered face image. Thereby, the face image authentication device can reduce the influence of the illumination condition and authenticate the person with high accuracy.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、本実施形態では、顔検出手段が監視画像から顔領域を切り出して顔領域画像を作成し、照合部の各手段がその顔領域画像に対して各処理を実施する例を示したが、顔検出手段は顔領域画像を作成せずに、照合部の各手段は監視画像内の顔領域に対して各処理を実施してもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, in the present embodiment, the face detection unit cuts out the face region from the monitoring image to create a face region image, and each unit of the collation unit performs each process on the face region image. The face detection means may not create a face area image, and each means of the collation unit may perform each process on the face area in the monitoring image.

また、本実施形態では、顔照合処理として、対象人物の顔画像と記憶部に記憶された全ての登録顔画像とを照合する、いわゆる1対N照合を行う例を示したが、顔照合処理は、対象人物の顔画像と特定の登録顔画像とを照合する、いわゆる1対1照合でもよい。その場合、顔照合手段は、カードリーダ、テンキー等を備えた不図示の入力部を介して利用者により入力された登録人物IDを取得し、対象人物の顔画像をその登録人物IDに対応する登録顔画像と照合する。そして、グループ選択手段は、その登録人物IDの登録人物を認証候補人物及びグループ候補人物として各グループのグループ類似度を算出し、判定処理を実施するグループを選択する。   In the present embodiment, as the face matching process, an example of performing so-called 1-to-N matching in which the face image of the target person is matched with all registered face images stored in the storage unit has been described. May be a so-called one-to-one collation in which the face image of the target person is collated with a specific registered face image. In that case, the face collating means acquires a registered person ID input by the user via an input unit (not shown) provided with a card reader, a numeric keypad, etc., and corresponds the face image of the target person to the registered person ID. Match the registered face image. Then, the group selection unit calculates the group similarity of each group using the registered person with the registered person ID as the authentication candidate person and the group candidate person, and selects the group for which the determination process is to be performed.

また、各登録顔画像を取得したときの光源方向が予め分かっている場合は各登録顔画像とその光源方向を関連付けて記憶しておき、分類手段は、各顔領域画像を、認証候補人物の登録顔画像の光源方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段が分類処理を実施する前に、グループ選択手段が類似度の算出処理及び認証候補人物の特定処理を実施しておく。そして、分類手段は、光源方向が認証候補人物の登録顔画像の光源方向と略同方向の顔領域画像、すなわち認証候補人物の登録顔画像の光源方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。なお、各光源方向の差は、例えば各光源方向ベクトルの差のスカラー量、又は各光源方向ベクトルの単位ベクトルの差のスカラー量とすることができる。所定値は、顔画像認証装置の設置環境に応じて適宜設定され、例えば単位ベクトルのスカラー量の1/2とすることができる。
このように、各顔領域画像を、その光源方向が登録顔画像の光源方向と略同方向か否かにより分類することにより、登録顔画像との類似度が高い顔領域画像と、登録顔画像との類似度が低い顔領域画像とをより的確に分類でき、より高精度に顔照合処理を実施することができる。
なお、各登録顔画像を取得したときの光源方向が予め分かっていない場合は、光源方向推定手段が各登録顔画像の光源方向を求め、各登録顔画像とその光源方向を関連付けて記憶部に記憶するようにしてもよい。これにより、登録顔画像を取得したときに光源方向が分かっていない場合でも、登録顔画像の光源方向を特定することができる。
In addition, when the light source direction when each registered face image is acquired is known in advance, each registered face image and the light source direction are stored in association with each other, and the classifying unit stores each face area image of the authentication candidate person. You may classify | categorize into the 1st group corresponding to the light source direction of a registration face image, and a 2nd group other than that. In this case, before the classification unit performs the classification process, the group selection unit performs the similarity calculation process and the authentication candidate person identification process. Then, the classification means includes a face area image whose light source direction is substantially the same as the light source direction of the registered face image of the authentication candidate person, that is, the difference between the light source direction of the registered face image of the authentication candidate person and the light source direction of the face area image. Are classified into the first group, and face region images whose difference is greater than or equal to the predetermined value are classified into the second group. Note that the difference between the light source directions can be, for example, a scalar amount as a difference between the light source direction vectors or a scalar amount as a difference between unit vectors of the light source direction vectors. The predetermined value is appropriately set according to the installation environment of the face image authentication apparatus, and can be set to 1/2 of the scalar quantity of the unit vector, for example.
Thus, by classifying each face area image according to whether or not the light source direction is substantially the same as the light source direction of the registered face image, the face area image having a high similarity to the registered face image and the registered face image Can be classified more accurately, and the face matching process can be performed with higher accuracy.
If the light source direction when each registered face image is acquired is not known in advance, the light source direction estimating means obtains the light source direction of each registered face image and associates each registered face image with the light source direction in the storage unit. You may make it memorize | store. Thereby, even when the light source direction is not known when the registered face image is acquired, the light source direction of the registered face image can be specified.

また、頻繁に認証候補人物として特定される人物は、照合対象の人物との類似度が高く、その人物が照合対象の人物である可能性が高い。そのため、認証候補人物として特定された回数の最も多い人物の登録顔画像と光源方向が略同方向の顔領域画像のみを用いて顔照合処理を実施することにより、より本人を受理する可能性を高めることができる。そこで、分類手段は、顔追跡手段によって対応付けられた各顔領域画像を、認証候補人物として特定された回数の最も多い人物の登録顔画像の光源方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段は、例えば、顔追跡手段によって対応付けられた顔領域画像について所定フレーム(例えば、10フレーム)分の顔照合処理が実施された後に、認証候補人物として特定された回数の最も多い人物を特定する。そして、分類手段は、その特定した人物の登録顔画像の光源方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。   Further, a person who is frequently identified as an authentication candidate person has a high degree of similarity with the person to be collated, and there is a high possibility that the person is a person to be collated. Therefore, it is possible to accept the person more by performing the face matching process using only the registered face image of the person most frequently identified as the authentication candidate person and the face area image whose light source direction is substantially the same direction. Can be increased. Therefore, the classifying unit includes the first group corresponding to the light source direction of the registered face image of the person most frequently identified as the authentication candidate person for each face area image associated by the face tracking unit, and the others. The second group may be classified. In that case, for example, after the face matching process for a predetermined frame (for example, 10 frames) is performed on the face area image associated by the face tracking unit, the classifying unit is the largest number of times specified as an authentication candidate person. Identify many people. The classifying unit classifies the face area images in which the difference between the light source direction of the registered face image of the identified person and the light source direction of the face area image is less than a predetermined value into the first group, and the difference is predetermined. Face area images that are greater than or equal to the value are classified into the second group.

また、例えば、登録顔画像として社員証等の写真を用いている場合、各写真は同一の照明条件下で撮影されたものである可能性が高い。そのような場合、より多くの登録顔画像と光源方向が略同方向の顔領域画像のみを用いて顔照合処理を実施することにより、顔照合処理に用いる顔領域画像の照明条件を登録顔画像の照明条件にあわせることができる。そこで、分類手段は、各顔領域画像を、記憶部に記憶された全ての登録顔画像の光源方向が最も集中する最頻方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段は、例えば、光源方向ベクトルを規定する空間における原点からの全ての方向を複数のブロックに分割し、複数のブロックのうち、登録顔画像の光源方向が含まれる度数が最も多いブロックを最頻ブロックとし、最頻ブロックにおける中心方向を最頻方向とする。各ブロックは、例えば緯度方向及び経度方向にそれぞれ5°の幅を持つ範囲とすることができる。そして、分類手段は、求めた最頻方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。   For example, when a photograph such as an employee ID card is used as the registered face image, each photograph is likely to be taken under the same lighting conditions. In such a case, by performing the face matching process using only more registered face images and face area images having substantially the same light source direction, the illumination condition of the face area image used for the face matching process is registered. Can be adapted to the lighting conditions. Therefore, the classifying means classifies each face area image with a first group corresponding to the most frequent direction in which the light source directions of all registered face images stored in the storage unit are most concentrated, and other second groups. May be classified. In that case, for example, the classifying unit divides all directions from the origin in the space defining the light source direction vector into a plurality of blocks, and among the plurality of blocks, the frequency that includes the light source direction of the registered face image is the highest. The block is a mode block, and the center direction of the mode block is a mode direction. Each block can be a range having a width of 5 ° in the latitude direction and the longitude direction, for example. Then, the classifying unit classifies the face area images in which the difference between the obtained most frequent direction and the light source direction of the face area image is less than a predetermined value into the first group, and the face area in which the difference is not less than the predetermined value. Classify the images into a second group.

また、過去の顔照合処理において登録顔画像との類似度が高かった顔領域画像は顔照合処理に適した画像であり、その照明条件は好条件である可能性が高い。そのため、そのような顔領域画像と光源方向が略同方向の顔領域画像のみを用いることにより、より高精度に顔照合処理を実施することができる。そこで、判定手段は、登録顔画像に写っている人物と同一の人物と判定した人物毎に、その登録顔画像との類似度が最も高かった顔領域画像の光源方向を記憶部に記憶しておく。そして、分類手段は、過去に認証成功となった各人物の顔領域画像のうち、登録顔画像との類似度が最も高かった各顔領域画像の光源方向が最も集中する最頻方向に対応する第1のグループと、それ以外の第2のグループとに、現在の対象人物の各顔領域画像を分類してもよい。その場合、分類手段は、全ての登録顔画像の光源方向の最頻方向を求めたのと同様の方法により、登録顔画像との類似度が最も高かった各顔領域画像の光源方向の最頻方向を求める。そして、求めた最頻方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。   In addition, the face area image having a high similarity to the registered face image in the past face matching process is an image suitable for the face matching process, and the illumination condition is highly likely to be favorable. Therefore, by using only such a face area image and a face area image whose light source direction is substantially the same direction, face collation processing can be performed with higher accuracy. Therefore, the determination unit stores, in the storage unit, the light source direction of the face area image having the highest similarity to the registered face image for each person determined to be the same person as the person shown in the registered face image. deep. The classifying unit corresponds to the most frequent direction in which the light source directions of the face area images having the highest similarity to the registered face image are most concentrated among the face area images of the persons who have succeeded in authentication in the past. Each face area image of the current target person may be classified into a first group and a second group other than the first group. In that case, the classification means uses the same method as that for obtaining the most frequent direction of the light source directions of all registered face images, and the mode of the light source direction of each face area image having the highest similarity to the registered face image. Find the direction. Then, the face area images in which the difference between the obtained most frequent direction and the light source direction of the face area image is less than a predetermined value are classified into a first group, and face area images in which the difference is greater than or equal to a predetermined value are Classify into groups.

また、顔画像認証装置の監視領域において、複数のダウンライトが対象人物の進行方向に沿って一定間隔に設置されている場合、光源方向推定手段は、顔追跡手段によって対応付けられた全ての顔領域画像の顔部分の輝度の時間的な変化に基づいて、それぞれの顔領域画像の光源方向を推定してもよい。その場合、光源方向推定手段は、各顔領域画像毎に顔部分の輝度の平均値及び中央値のうちの何れか一つを算出し、算出した平均値又は中央値を時系列に並べて極大値及び極小値を抽出する。そして、極大値に対応する顔領域画像は、前方から光を受けていると判断して光源方向を前方と推定し、極小値に対応する顔領域画像は逆光を受けていると判断して光源方向を後方と推定する。分類手段は、顔追跡手段によって対応付けられた各顔領域画像を、前方の光源方向に対応する第1のグループと、後方の光源方向に対応する第2のグループと、それ以外の第3のグループとに分類する。この場合、分類手段は、光源方向が前方と推定された顔領域画像と時間的に近接する顔領域画像を第1のグループに分類し、光源方向が後方と推定された顔領域画像と時間的に近接する顔領域画像を第2のグループに分類し、それ以外の顔領域画像を第3のグループに分類する。例えば、分類手段は、各顔領域画像を、光源方向が前方の顔領域画像と光源方向が後方の顔領域画像との間で時間的に三等分に区切って、各グループに分類する。なお、各顔領域画像は、前方の光源方向に対応する第1のグループと、後方の光源方向に対応する第2のグループの二つのグループに分類してもよいし、四つ以上のグループに分類してもよい。   Further, in the monitoring area of the face image authentication device, when a plurality of downlights are installed at regular intervals along the traveling direction of the target person, the light source direction estimating means The light source direction of each face area image may be estimated based on the temporal change in luminance of the face portion of the area image. In that case, the light source direction estimating means calculates any one of the average value and the median of the brightness of the face part for each face area image, and arranges the calculated average value or median in time series to obtain a local maximum value. And the minimum value is extracted. Then, the face area image corresponding to the local maximum value is determined to receive light from the front and the light source direction is estimated to be forward, and the face area image corresponding to the local minimum value is determined to be receiving backlight. Estimate the direction backward. The classifying unit displays each face area image associated by the face tracking unit with a first group corresponding to the front light source direction, a second group corresponding to the rear light source direction, and a third group other than the first group. Classify into groups. In this case, the classifying unit classifies the face area image temporally close to the face area image whose light source direction is estimated to be forward into the first group, and temporally matches the face area image whose light source direction is estimated to be backward. The face area image close to is classified into the second group, and the other face area images are classified into the third group. For example, the classifying unit classifies each face area image into groups by dividing the face area image into three groups temporally between the face area image with the light source direction in front and the face area image with the light source direction in the rear. Each face area image may be classified into two groups, a first group corresponding to the front light source direction and a second group corresponding to the rear light source direction, or four or more groups. You may classify.

また、グループ選択手段は、分類手段によって分類された各グループについて、類似度が高い順に所定数(例えば5)の顔領域画像を選択し、顔領域画像が選択された数が最も多い認証候補人物をそのグループのグループ候補人物としてもよい。その場合、さらに、グループ選択手段は、グループ候補人物となった認証候補人物の類似度のうち、類似度が高い順に所定数の顔領域画像として選択された顔領域画像についての類似度のみを用いてグループ類似度を算出してもよい。これにより、類似度が最高となった枚数は多いが、各類似度自体の低い認証候補人物をグループ候補人物として選択することを抑制できる。   Further, the group selection means selects a predetermined number (for example, 5) of face area images in descending order of similarity for each group classified by the classification means, and the authentication candidate person having the largest number of face area images selected. May be a group candidate for that group. In that case, the group selection means further uses only the similarity of the face area images selected as a predetermined number of face area images in descending order of similarity among the similarities of the authentication candidate persons that are the group candidate persons. Thus, the group similarity may be calculated. Thereby, although the number of sheets with the highest similarity is large, it is possible to suppress selection of an authentication candidate person having a low degree of similarity as a group candidate person.

また、判定手段は、グループ選択手段によって選択されたグループの全ての顔領域画像に対する、認証候補人物と特定された顔領域画像の割合を登録人物検出率として算出し、算出した登録人物検出率に応じて認証閾値を決定してもよい。その場合、判定手段は、登録人物検出率が高いほど認証閾値を低くする。このように認証閾値を適応的に決定することにより、顔画像認証装置は、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保することができる。   The determination unit calculates a ratio of the face area image identified as the authentication candidate person with respect to all the face area images of the group selected by the group selection unit as a registered person detection rate, and calculates the calculated registered person detection rate. The authentication threshold may be determined accordingly. In this case, the determination unit lowers the authentication threshold as the registered person detection rate increases. Thus, by adaptively determining the authentication threshold value, the face image authentication device can ensure the user's acceptance even in a situation where the user authentication is difficult due to a change in facial expression, face orientation, and the like.

また、これまでに述べてきた実施の形態では、記憶部には複数の登録人物(例えば登録人物A、B、Cの3人)の顔画像が記憶されているとして説明した。
本発明にかかる顔画像認証装置は、登録人物が1名であっても全く同様の効果を得ることができる。
即ち、ダウンライトが対象人物の略直上や後方に位置する場合には、輝度分布を理由に認証には適さない顔領域画像が得られ、本人の登録顔画像との類似度を求めても、低い値にしかならない。そのため、仮に各時刻の顔領域画像と登録顔画像との類似度の全てについて、光源方向を考慮せずひとまとまりで認証判定を試みると、認証には適さない顔領域画像から求められた低い類似度が悪影響を及ぼし、認証閾値を越えず本人が棄却される事態が発生する。本人棄却を避けるために認証閾値を低くすると、他人が認証を試みた場合に認証成功となり他人受け入れとなるため、認証閾値を低くすることは好ましくない。
このような場合でも、本発明にかかる顔画像認証装置は、光源方向を考慮して顔領域画像を分類し、認証に適した光源方向のグループの顔領域画像から求められた類似度が高いことを利用してグループ類似度を算出し、認証判定する。そのため、顔画像認証装置は、本人棄却を避けて、正しい結果を得ることができる。
Further, in the embodiments described so far, the description has been made on the assumption that face images of a plurality of registered persons (for example, registered persons A, B, and C) are stored in the storage unit.
The face image authentication apparatus according to the present invention can achieve the same effect even if there is only one registered person.
That is, when the downlight is located almost directly above or behind the target person, a face area image that is not suitable for authentication is obtained because of the luminance distribution, and even if the similarity with the registered face image of the person is obtained, Only low. For this reason, if all the similarity between the face area image at each time and the registered face image is determined in a batch without considering the light source direction, the low similarity obtained from the face area image not suitable for authentication is used. The degree of adverse effects adversely affects the authentication threshold and does not exceed the authentication threshold. If the authentication threshold value is lowered in order to avoid the rejection of the principal, it is not preferable to lower the authentication threshold because the authentication succeeds and accepts another person when another person tries to authenticate.
Even in such a case, the face image authentication device according to the present invention classifies the face area images in consideration of the light source direction, and the similarity obtained from the face area images of the group in the light source direction suitable for authentication is high. Is used to calculate the group similarity and determine authentication. Therefore, the face image authentication apparatus can obtain correct results while avoiding the person's rejection.

また、これまでに述べてきた実施の形態では、光源方向推定手段は、顔検出手段が抽出した顔領域画像を用いて、その顔領域画像に写っている対象人物の顔から見た光源の方向を推定するとしていた。これに代えて、光源方向推定手段は局所的な顔領域からではなく、撮像部が取得した監視画像全体から、対象人物の体全体から見た光源方向を推定してもよい。即ち、いわば日時計のように、監視画像に写った対象人物の足下付近から伸びる影の方向を検出して、それとは反対の方向に光源があると判定することができる。
例えば、対象人物の足下から対象人物の背中の方向に影が伸びている場合には、光源方向は対象人物の前方かつ上方であると推定できる。同様に、対象人物の足下から対象人物の前方に影が伸びている場合には、光源方向は対象人物の後方かつ上方であると推定でき、影がほとんど検出できない場合には、光源方向は対象人物の略直上であると推定できる。この方法では、光源方向推定手段の説明の箇所で述べた方法よりも低い負荷でおおよその光源方向を推定できる。
In the embodiments described so far, the light source direction estimating means uses the face area image extracted by the face detecting means, and the direction of the light source viewed from the face of the target person in the face area image. Was going to be estimated. Instead of this, the light source direction estimation means may estimate the light source direction viewed from the entire body of the target person, not from the local face area but from the entire monitoring image acquired by the imaging unit. In other words, like a sundial, it is possible to detect the direction of the shadow extending from the vicinity of the target person's feet in the monitoring image and determine that the light source is in the opposite direction.
For example, when a shadow extends from the target person's feet toward the target person's back, the light source direction can be estimated to be in front of and above the target person. Similarly, if a shadow extends from the subject's feet to the front of the subject person, the light source direction can be estimated to be behind and above the subject person, and if almost no shadow can be detected, the light source direction is the subject It can be estimated that it is almost directly above the person. In this method, the approximate light source direction can be estimated with a lower load than the method described in the description of the light source direction estimating means.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

10 顔画像認証装置
100 撮像部
200 出力部
300 画像処理部
310 記憶部
320 照合部
321 顔検出手段
322 顔追跡手段
323 光源方向推定手段
324 分類手段
325 顔照合手段
326 グループ選択手段
327 判定手段
DESCRIPTION OF SYMBOLS 10 Face image authentication apparatus 100 Imaging part 200 Output part 300 Image processing part 310 Storage part 320 Collation part 321 Face detection means 322 Face tracking means 323 Light source direction estimation means 324 Classification means 325 Face collation means 326 Group selection means 327 Determination means

Claims (2)

監視領域内の人物を撮影した監視画像を順次取得する撮像部と、
予め複数の登録人物の登録顔画像を記憶する記憶部と、
前記監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、
順次取得される前記監視画像にて前記顔領域画像を追跡する顔追跡手段と、
前記監視画像から光源方向を推定する光源方向推定手段と、
前記顔領域画像を略同方向の前記光源方向毎に複数のグループに分類する分類手段と、
前記複数のグループのそれぞれについて、当該グループに含まれる前記顔領域画像と前記複数の登録顔画像との類似度を求め、前記顔領域画像ごとに当該類似度が最も高い登録顔画像を特定し、前記グループごとに当該特定された回数が最も多い登録顔画像を選択し、当該選択された登録顔画像と当該グループに含まれる顔領域画像との類似度の平均値であるグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、
前記選択されたグループの前記グループ類似度と所定の認証閾値とを比較して、前記監視領域内の人物と前記登録人物とが同一の人物か否かを判定する判定手段と、
を有することを特徴とする顔画像認証装置。
An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area;
A storage unit for storing registered face images of a plurality of registered persons in advance;
Face detection means for extracting a face area image including a face from the monitoring image each time the monitoring image is acquired;
Face tracking means for tracking the face area image in the monitoring images acquired sequentially;
Light source direction estimating means for estimating a light source direction from the monitoring image;
Classification means for classifying the face area image into a plurality of groups for each light source direction in substantially the same direction;
For each of the plurality of groups, obtain a similarity between the face area image included in the group and the plurality of registered face images, identify a registered face image having the highest similarity for each of the face area images, Select the registered face image with the most specified number of times for each group, and obtain a group similarity that is an average value of the similarity between the selected registered face image and the face area image included in the group, A group selection means for selecting the group having the highest group similarity,
A determination unit that compares the group similarity of the selected group with a predetermined authentication threshold to determine whether the person in the monitoring area and the registered person are the same person;
A face image authentication apparatus characterized by comprising:
監視領域内の人物を撮影した監視画像を順次取得する撮像部と、
予め複数の登録人物の登録顔画像を記憶する記憶部と、
前記監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、
順次取得される前記監視画像にて前記顔領域画像を追跡する顔追跡手段と、
前記監視画像から光源方向を推定する光源方向推定手段と、
前記顔領域画像を略同方向の前記光源方向毎に複数のグループに分類する分類手段と、
前記複数のグループのそれぞれについて、当該グループに含まれる前記顔領域画像のそれぞれについて前記複数の登録顔画像との類似度を求め、前記顔領域画像ごとの当該類似度の平均値が最も高い登録顔画像の前記平均値であるグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、
前記選択されたグループの前記グループ類似度と所定の認証閾値とを比較して、前記監視領域内の人物と前記登録人物とが同一の人物か否かを判定する判定手段と、
を有することを特徴とする顔画像認証装置。
An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area;
A storage unit for storing registered face images of a plurality of registered persons in advance;
Face detection means for extracting a face area image including a face from the monitoring image each time the monitoring image is acquired;
Face tracking means for tracking the face area image in the monitoring images acquired sequentially;
Light source direction estimating means for estimating a light source direction from the monitoring image;
Classification means for classifying the face area image into a plurality of groups for each light source direction in substantially the same direction;
For each of the plurality of groups, a similarity with the plurality of registered face images is obtained for each of the face area images included in the group, and the registered face having the highest average value of the similarities for each face area image A group selection means for obtaining a group similarity that is the average value of the images and selecting a group having the highest group similarity;
A determination unit that compares the group similarity of the selected group with a predetermined authentication threshold to determine whether the person in the monitoring area and the registered person are the same person;
A face image authentication apparatus characterized by comprising:
JP2012044349A 2012-02-29 2012-02-29 Face image authentication device Active JP5955031B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012044349A JP5955031B2 (en) 2012-02-29 2012-02-29 Face image authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012044349A JP5955031B2 (en) 2012-02-29 2012-02-29 Face image authentication device

Publications (3)

Publication Number Publication Date
JP2013182335A JP2013182335A (en) 2013-09-12
JP2013182335A5 JP2013182335A5 (en) 2015-03-26
JP5955031B2 true JP5955031B2 (en) 2016-07-20

Family

ID=49272956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012044349A Active JP5955031B2 (en) 2012-02-29 2012-02-29 Face image authentication device

Country Status (1)

Country Link
JP (1) JP5955031B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106133796B (en) * 2014-03-25 2019-07-16 苹果公司 For indicating the method and system of virtual objects in the view of true environment
JP6550642B2 (en) * 2014-06-09 2019-07-31 パナソニックIpマネジメント株式会社 Wrinkle detection device and wrinkle detection method
WO2017146160A1 (en) 2016-02-26 2017-08-31 日本電気株式会社 Facial verification system, facial verification method, and recording medium
CN111325059A (en) * 2018-12-14 2020-06-23 技嘉科技股份有限公司 Face recognition method, device and computer readable medium
JP6997140B2 (en) * 2019-07-03 2022-01-17 パナソニックi-PROセンシングソリューションズ株式会社 Information processing equipment, judgment method, and program
CN110022467B (en) * 2019-05-14 2023-04-07 北京中星讯达科技有限公司 Photoelectric tracking monitoring system integrating four light sources
JP7415640B2 (en) * 2020-02-17 2024-01-17 富士通株式会社 Authentication method, information processing device, and authentication program
JP7359044B2 (en) * 2020-03-09 2023-10-11 富士通株式会社 Authentication method, information processing device, and authentication program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4612969B2 (en) * 2001-07-05 2011-01-12 富士フイルム株式会社 Image comparison device, image comparison method, image comparison program, photographing device, and photographing method.
JP2007206833A (en) * 2006-01-31 2007-08-16 Toshiba Corp Biological collation method and device
JP2007334623A (en) * 2006-06-15 2007-12-27 Toshiba Corp Face authentication device, face authentication method, and access control device
JP5106459B2 (en) * 2009-03-26 2012-12-26 株式会社東芝 Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program
JP5642410B2 (en) * 2010-03-30 2014-12-17 パナソニック株式会社 Face recognition device and face recognition method
JP5618594B2 (en) * 2010-03-31 2014-11-05 セコム株式会社 Face image matching device

Also Published As

Publication number Publication date
JP2013182335A (en) 2013-09-12

Similar Documents

Publication Publication Date Title
JP5955031B2 (en) Face image authentication device
JP5010905B2 (en) Face recognition device
JP5955133B2 (en) Face image authentication device
JP4241763B2 (en) Person recognition apparatus and method
US7925093B2 (en) Image recognition apparatus
JP6222948B2 (en) Feature point extraction device
JP2000259814A (en) Image processor and method therefor
JP5127531B2 (en) Image monitoring device
JP2003178306A (en) Personal identification device and personal identification method
KR101172898B1 (en) Method for detecting liveness for face recognition system
JP2001331799A (en) Image processor and image processing method
US11714889B2 (en) Method for authentication or identification of an individual
JP2002507035A (en) How to authenticate the validity of an image recorded for personal identification
JP2012208610A (en) Face image authentication apparatus
JP5766096B2 (en) Face image authentication device
US20210256244A1 (en) Method for authentication or identification of an individual
JP6396357B2 (en) Face image authentication device
CN114270417A (en) Face recognition system and method capable of updating registered face template
US20240169763A1 (en) Compact system and method for iris recognition
JP5726595B2 (en) Image monitoring device
CN110069962A (en) A kind of biopsy method and system
JP6150491B2 (en) Face recognition device
JP2013210788A (en) Face image authentication device
JP5871765B2 (en) Face image authentication device
JP5955057B2 (en) Face image authentication device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160614

R150 Certificate of patent or registration of utility model

Ref document number: 5955031

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250