JP5955031B2 - Face image authentication device - Google Patents
Face image authentication device Download PDFInfo
- Publication number
- JP5955031B2 JP5955031B2 JP2012044349A JP2012044349A JP5955031B2 JP 5955031 B2 JP5955031 B2 JP 5955031B2 JP 2012044349 A JP2012044349 A JP 2012044349A JP 2012044349 A JP2012044349 A JP 2012044349A JP 5955031 B2 JP5955031 B2 JP 5955031B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- group
- person
- registered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 claims description 81
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 25
- 238000000034 method Methods 0.000 description 56
- 238000012545 processing Methods 0.000 description 28
- 238000005286 illumination Methods 0.000 description 15
- 239000000284 extract Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 241001247287 Pentalinon luteum Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、顔画像認証装置に関し、特に、予め登録している顔画像に基づいて利用者を認証する顔画像認証装置に関する。 The present invention relates to a face image authentication device, and more particularly to a face image authentication device that authenticates a user based on a pre-registered face image.
顔画像の照合によって人物を認証する顔画像認証装置は、監視画像から人物の顔を含む領域の画像を顔領域画像として抽出し、抽出した顔領域画像と予め登録された複数の登録顔画像のそれぞれとの照合スコア即ち類似度を算出する。そして、その顔領域画像の人物は、類似度が一定以上の登録顔画像の人物のうち、類似度が最も高い人物であると判定する。しかしながら、一枚の監視画像から抽出された顔領域画像で人物を判定する場合、監視画像を撮影した時の人物の表情、顔の向き等によっては、その顔領域画像とその人物の登録顔画像の類似度が低くなり、本人を正しく判定できないことがある。 A face image authentication device that authenticates a person by collating face images extracts an image of an area including the face of the person from the monitoring image as a face area image, and extracts the extracted face area image and a plurality of registered face images registered in advance. The collation score with each, that is, the similarity is calculated. Then, the person of the face area image is determined to be the person with the highest similarity among the persons of the registered face images having a certain degree of similarity. However, when a person is determined based on a face area image extracted from one monitoring image, the face area image and the registered face image of the person depending on the facial expression, face orientation, etc. when the monitoring image is captured The degree of similarity becomes lower and the person cannot be correctly determined.
そこで、特許文献1には、対象人物の顔画像を複数回撮像して人物を特定する人物特定装置が提案されている。この人物特定装置は、対象人物の顔画像を複数回撮像し、撮像した顔画像毎に各登録顔画像との類似度を算出する。そして、登録顔画像毎に、算出した複数の類似度の平均値、合計値又は乗算値を評価値として求め、評価値が最も高くなる登録顔画像について、その評価値が所定の基準値を上回る場合に、対象人物がその登録顔画像の人物であると特定する。
Thus,
特許文献1に記載された人物特定装置は、複数の顔画像に基づいて対象人物を特定するので、一枚の顔画像から人物を判定する場合よりも本人認証の失敗を低減することができる。
一方、監視領域内を歩行する人物を認証するために、監視画像を順次撮影し、撮影した各監視画像から抽出した顔領域画像と複数の登録顔画像のそれぞれとの類似度を時系列に算出するいわゆるウォークスルー型の顔画像認証装置が従来用いられている。ウォークスルー型の顔画像認証装置は、複数地点又は複数時点で歩行中の人物を撮影した画像から顔領域画像を抽出し、これらの顔領域画像と登録顔画像との類似度を算出する。このようなウォークスルー型の顔画像認証装置では、監視画像を撮影したときの人物の位置によって、その人物の顔に対する照明条件が異なり、顔領域画像と登録顔画像との類似度に影響を及ぼす場合がある。従って、ウォークスルー型の顔画像認証装置に特許文献1に記載された人物特定装置を適用した場合、照明条件が悪い時の類似度の影響を受けて評価値が所定の基準値以下となり、本人を正しく判定できないおそれがある。
Since the person specifying device described in
On the other hand, in order to authenticate a person walking in the monitoring area, the monitoring images are sequentially taken, and the similarity between the face area image extracted from each of the taken monitoring images and each of the plurality of registered face images is calculated in time series. A so-called walk-through type face image authentication apparatus is conventionally used. The walk-through type face image authentication device extracts face area images from images obtained by photographing a person walking at a plurality of points or time points, and calculates the similarity between these face area images and registered face images. In such a walk-through type face image authentication device, the illumination condition for the face of the person differs depending on the position of the person when the monitoring image is taken, and affects the similarity between the face area image and the registered face image. There is a case. Therefore, when the person identification device described in
照明条件の影響を低減するために、例えば監視画像を撮像する撮像装置側から高強度の照明で監視領域を照射することも考えられるが、その場合、別途照明装置が必要となる。また、その照明として可視光を用いる場合、監視領域内を歩行する人物にとってまぶしくなるという問題も生じる。 In order to reduce the influence of the illumination conditions, for example, it is conceivable to irradiate the monitoring area with high-intensity illumination from the side of the imaging device that captures the monitoring image, but in that case, a separate illumination device is required. In addition, when visible light is used as the illumination, there is a problem that it is dazzling for a person walking in the monitoring area.
本発明の目的は、照明条件の影響を低減して高精度に人物を認証することができる顔画像認証装置を提供することにある。 An object of the present invention is to provide a face image authentication apparatus capable of reducing the influence of illumination conditions and authenticating a person with high accuracy.
かかる課題を解決するための本発明は、顔画像認証装置を提供する。係る顔画像認証装置は、監視領域内の人物を撮影した監視画像を順次取得する撮像部と、予め登録人物の登録顔画像を記憶する記憶部と、監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、順次取得される監視画像にて顔領域画像を追跡する顔追跡手段と、監視画像から光源方向を推定する光源方向推定手段と、顔領域画像を略同方向の光源方向毎に複数のグループに分類する分類手段と、複数のグループのそれぞれについて、当該グループに含まれる顔領域と登録顔画像とが類似する度合いを表すグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、選択されたグループのグループ類似度と所定の認証閾値とを比較して、監視領域内の人物と登録人物とが同一の人物か否かを判定する判定手段と、を有する。 The present invention for solving this problem provides a face image authentication apparatus. Such a face image authentication apparatus includes an imaging unit that sequentially acquires a monitoring image obtained by photographing a person in a monitoring area, a storage unit that stores a registered face image of a registered person in advance, and the monitoring image every time a monitoring image is acquired. A face detection means for extracting a face area image including a face from the face, a face tracking means for tracking the face area image from the sequentially acquired monitoring images, a light source direction estimation means for estimating the light source direction from the monitoring images, and a face area Classifying means for classifying images into a plurality of groups for each light source direction in substantially the same direction, and for each of the plurality of groups, a group similarity indicating the degree of similarity between the face area included in the group and the registered face image is obtained. The group selection means for selecting the group having the highest group similarity, the group similarity of the selected group is compared with a predetermined authentication threshold, and the person in the monitoring area and the registered person are Having a determining means for determining whether or not one person.
また、本発明に係る顔画像認証装置において、記憶部は、予め複数の登録人物の登録顔画像を記憶し、グループ選択手段は、顔領域画像と複数の登録顔画像との類似度を求め、顔領域画像ごとに当該類似度が最も高い登録顔画像を特定し、グループごとに当該特定された回数が最も多い登録顔画像を選択し、当該選択された登録顔画像と当該グループに含まれる顔領域画像との類似度の平均値をグループ類似度とすることが好ましい。 Further, in the face image authentication device according to the present invention, the storage unit stores the registered face images of a plurality of registered persons in advance, and the group selection unit obtains the similarity between the face area image and the plurality of registered face images, A registered face image having the highest degree of similarity is identified for each face area image, a registered face image having the largest number of times of identification is selected for each group, and the selected registered face image and the faces included in the group are selected. It is preferable that the average value of the similarity with the region image is set as the group similarity.
また、本発明に係る顔画像認証装置において、記憶部は、予め複数の登録人物の登録顔画像を記憶し、グループ選択手段は、グループに含まれる顔領域画像のそれぞれについて複数の登録顔画像との類似度を求め、顔領域画像ごとの当該類似度の平均値が最も高い登録顔画像の平均値をグループ類似度とすることが好ましい。 In the face image authentication device according to the present invention, the storage unit stores in advance registered face images of a plurality of registered persons, and the group selection unit includes a plurality of registered face images for each of the face area images included in the group. It is preferable that the similarity value of the registered face images having the highest average similarity value for each face area image is determined as the group similarity.
本発明に係る顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することができるという効果を奏する。 The face image authentication apparatus according to the present invention has an effect of being able to authenticate a person with high accuracy by reducing the influence of illumination conditions.
以下、本発明の一実施形態である顔画像認証装置について図を参照しつつ説明する。
顔画像認証装置における認証において、照明条件の影響等により登録者本人の認証に失敗する場合がある。そこで、本発明を適用した顔画像認証装置は、監視領域を撮影した監視画像を順次取得するとともに、その順次取得した各監視画像から同一の人物の顔を含む顔領域画像を抽出する。そして、抽出した顔領域画像を光源方向が略同方向の顔領域画像毎に複数のグループに分類して、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を実施する。これにより、顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することを図る。
Hereinafter, a face image authentication apparatus according to an embodiment of the present invention will be described with reference to the drawings.
In the authentication in the face image authentication device, there are cases where the authentication of the registrant fails due to the influence of lighting conditions or the like. Therefore, the face image authentication apparatus to which the present invention is applied sequentially acquires monitoring images obtained by photographing the monitoring areas, and extracts face area images including the same person's face from the sequentially acquired monitoring images. Then, the extracted face area image is classified into a plurality of groups for each face area image whose light source direction is substantially the same direction, a group most suitable for face matching processing is selected, and the face area image of the selected group is used. Perform face matching processing. Thereby, the face image authentication device attempts to authenticate a person with high accuracy by reducing the influence of illumination conditions.
図1は、本発明を適用した顔画像認証装置10の概略構成を示す図である。図1に示すように、顔画像認証装置10は、撮像部100、出力部200及び画像処理部300を有する。以下、顔画像認証装置10の各部について詳細に説明する。
FIG. 1 is a diagram showing a schematic configuration of a face
撮像部100は、所定の監視領域を撮影する監視カメラであり、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に監視領域の像を結像するための結像光学系を有する。
撮像部100は、監視領域内を通行する人物(顔画像認証装置10による照合の対象となる監視領域内の人物を対象人物と称する)の顔を順次撮影できるように設置される。そして撮像部100は、監視領域を撮影した監視画像を、所定の時間間隔(例えば、200msec)ごとに取得する。撮像部100は、画像処理部300と接続され、取得した監視画像を画像処理部300へ渡す。
The
The
監視画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、監視画像を、横1280画素×縦960画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、監視画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。 The monitoring image can be a grayscale or color multi-tone image. In the present embodiment, the monitoring image is a color image having 1280 pixels by 960 pixels and having 8-bit luminance resolution for each of the RGB colors. However, a monitor image having a resolution and gradation other than this embodiment may be used.
図2に、顔画像認証装置10がオフィスビルの入り口に設置される場合の撮像部100の設置例を模式的に示す。図2に示すように、例えば、顔画像認証装置10がオフィスビルの入り口253に設置される場合、撮像部100は、入り口253に通じる通路を監視領域に含むよう、入り口253が設置された壁の上方または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。これにより撮像部100は、入り口253に向かう(進行方向254へ向かう)対象人物を所定の時間間隔で撮像することができる。なお図2では、撮像部100が、時刻t、t+1、t+2において入り口253に向かう同一の対象人物250、251、252を順次撮影する様子を示している。
FIG. 2 schematically shows an installation example of the
また図2に示すように、入り口253に通じる通路の天井には照明装置としてダウンライト260が、照射方向が下向きとなるように設置される。撮像部100から見ると、時刻tにおいて、対象人物250はダウンライト260より奥側に位置し、ダウンライト260により顔の前面が照射される。そして、時刻(t+1)において、対象人物251はダウンライト260の直下に位置し、ダウンライト260により頭上から照射される。そして、時刻(t+2)において、対象人物252はダウンライト260より手前側に位置し、ダウンライト260により背後から照射される。なお、図2に示す通路は、不図示の照明装置又は自然光により十分明るく、顔画像認証装置10は、対象人物を十分に識別できるものの、対象人物がダウンライト260に近いほど、対象人物の顔部分にあたる光量はダウンライト260の方が支配的になるとする。
As shown in FIG. 2, a
図3(a)〜(d)は、対象人物がそれぞれ特定の位置から照射された場合の画像の例を示す。
図3(a)は、図2の時刻tにおいて、対象人物250を撮像した画像350を示す。画像350において、対象人物250はダウンライト260の光が前方上方から照射され、ダウンライト260と、不図示の照明装置または自然光により顔全体が明るくなっている。一般に、顔照合処理では、対象人物の顔画像と予め記憶された登録顔画像とが類似するか否かにより対象人物が登録顔画像の人物であるか否かを判定する。そのため、対象人物の顔画像と登録顔画像は、何れも目、鼻、口等の顔の特徴的な部位の位置、形状及び皮膚部分等のテクスチャを適切に表していることが好ましい。画像350には、対象人物の顔部分に照合処理の障害となるものはなく、顔の特徴的な部位の位置、形状及び皮膚部分等のテクスチャが適切に表れているため、画像350は顔照合処理に適する。
3A to 3D show examples of images when the target person is irradiated from a specific position.
FIG. 3A shows an
図3(b)は、図2の時刻(t+1)において、対象人物251を撮像した画像351を示す。画像351において、対象人物251は略直上からダウンライト260の光が照射されている。人間の顔には凹凸が存在し、凹んでいる部分には直上からの光が当たらずに影になるため、額、頬上部及び鼻筋のみが明るくなり、眼窩付近、頬下部から顎にかけては暗くなっている。このように、画像351には顔上に明暗が生じ、顔のテクスチャ情報が本来のものと異なるものとなる。また、この明暗の境目が顔の特徴的な部位として誤って抽出されるおそれもある。そのため、画像351は顔照合処理には適さない。
FIG. 3B shows an
図3(c)は、図2の時刻(t+2)において、対象人物252を撮像した画像352を示す。画像352において、対象人物252は後方から照射され、ダウンライト260が逆光となり、対象人物252は顔全体が暗くなっている。そのため、画像352は、いわゆる黒つぶれにより顔部分の階調が失われて、顔のテクスチャ情報が欠落するおそれがあり、顔照合処理には適さない。仮に、別途輝度変換処理により対象人物252の顔部分を明るくしても、階調が失われているため、必要なコントラストが得られず、顔のテクスチャ情報が欠落したことにはかわりなく、顔照合処理には適さない。
FIG. 3C shows an
図3(a)〜(c)はダウンライト260が天井に設置され、略垂直方向からの光が照射されている場合であったが、同様なことは略水平方向から光が照射されている場合も起こる。図3(d)は、進行方向254に対して略水平方向から太陽光が照射している時に対象人物を撮像した画像353を示す。画像353において、対象人物の左側から光が当たり、左半面は明るいが右半面は暗い状態となり、顔の正中線に沿って明暗の差が生じている。そのため、画像353も図3(b)の画像351と同様に顔照合処理には適さない。このように、ダウンライトのような上方からの光だけでなく、対象人物が撮影される場所に窓があり、その窓から差し込む太陽光のような横方向からの光によっても顔照合処理に悪影響が及ぶおそれがある。
FIGS. 3A to 3C show the case where the
出力部200は、例えば電気錠、又は電気錠を制御する外部機器等に接続する通信インターフェース及びその制御回路を有する。そして出力部200は、画像処理部300から対象人物についての認証成功を示す信号を受け取ると、接続された機器へ、例えば電気錠の解錠を要求する信号を出力する。
The
画像処理部300は、例えば、いわゆるコンピュータにより構成される。そして画像処理部300は、撮像部100から受け取った監視画像から人物の顔を含む領域の画像を顔領域画像として抽出し、抽出した顔領域画像から、人物の顔から見た光源方向を推定する。そして、各顔領域画像を、推定した光源方向が略同方向の顔領域画像毎に複数のグループに分類し、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を実施する。そのために、画像処理部300は、記憶部310及び照合部320を有する。さらに、照合部320は、顔検出手段321、顔追跡手段322、光源方向推定手段323、分類手段324及び顔照合手段325を有する。
The
記憶部310は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。そして記憶部310には、顔画像認証装置10を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶される。また記憶部310は、一人以上の登録された人物(以降、登録人物と称する)のそれぞれについて、その登録人物の顔が写った登録顔画像を、その登録人物の登録人物IDと関連付けて予め記憶する。また記憶部310は、画像処理により生じた対象人物に関する情報を管理するための履歴テーブルを記憶する。この履歴テーブルの詳細については後述する。また記憶部310は、少なくとも一つの標準的な3次元顔形状モデルを記憶する。
The
照合部320の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。あるいは、これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成してもよい。以下、照合部320の各手段について詳細に説明する。
Each unit of the
顔検出手段321は、撮像部100から監視画像を受け取る度に、受け取った監視画像から対象人物の顔が写っている領域である顔領域を検出し、顔領域画像を抽出する。
顔領域を検出するために、顔検出手段321は、例えばフレーム間差分処理または背景差分処理を利用して、撮像部100によって取得される複数の監視画像において輝度値の時間的な変化のある変化領域を抽出する。そして顔検出手段321は、抽出した変化領域のうち、その変化領域の大きさ等の特徴量から人物らしいと考えられる変化領域を人物領域として抽出する。そして顔検出手段321は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔検出手段321は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を、顔領域として抽出する。この場合において、顔検出手段321は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。
Each time the
In order to detect a face area, the
あるいは顔検出手段321は、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.Violaと M.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001)を参照することができる。
そして顔検出手段321は、検出した顔領域を監視画像から切り出して顔領域画像を作成し、その顔領域画像及び監視画像における顔領域の座標情報を顔追跡手段322に出力する。
Alternatively, the
Then, the
顔追跡手段322は、所定の時間間隔で連続して取得される複数の監視画像のそれぞれから顔検出手段321により検出された顔領域に対して公知のトラッキング技術を利用して追跡処理を行い、顔領域画像の追跡を行う。
例えば、顔追跡手段322は、最新の監視画像から検出された顔領域(以降、現フレームの顔領域と称する)の重心位置と、1フレーム前の監視画像から検出された顔領域(以降、前フレームの顔領域と称する)の重心位置の距離を求めて、その距離が所定の閾値以下である場合に、その顔領域を同一人物によるものとして対応付ける。なお、対象人物が撮像部100から離れているときに一定の距離を移動した場合と撮像部100の近くにいるときに同じ距離を移動した場合とでは、その移動の前後において監視画像における顔領域の位置の差は異なる。そのため、例えば所定の閾値を顔領域の大きさとすることにより、監視領域内の対象人物の位置にかかわらず、現フレームの顔領域と前フレームの顔領域が同一人物によるものか否かを適切に評価することができる。複数の顔領域が抽出されている場合には、重心位置の距離が最も近い顔領域どうしが対応づくか否かを調べる。
The
For example, the
あるいは、顔追跡手段322は、オプティカルフロー、パーティクルフィルタ等の方法を用いて顔領域の追跡処理を行ってもよい。
Alternatively, the
顔追跡手段322は、顔領域の追跡処理を行うと、記憶部310に格納されている履歴テーブルを更新する。図4に履歴テーブルの例を示す。図4に示すように履歴テーブル400は、対象人物ごとに履歴データを管理する。履歴データは、履歴テーブル400の各行にあらわされるデータの組であり、顔追跡手段322は、履歴データのうち、試行番号401、対象人物ID402、開始時刻403、追跡フラグ404、顔画像データ405及び追跡位置情報406を更新する。
図4に示した履歴テーブル400において、試行番号401は、追跡中の対象人物の履歴データを他の履歴データと識別するための識別番号であり、対象人物が監視領域内に存在している間、つまり顔追跡手段322によって追跡がされている間、同一の識別番号が割り当てられ続ける。対象人物ID402は、追跡中の対象人物を他の対象人物と識別するための識別番号であり、試行番号401と1対1に対応する。対象人物ID402は、一意に定まるように付与されるものとなる。例えば、顔追跡手段322が追跡を開始した時刻を基に、乱数を発生させればよい。あるいは、対象人物ID402と試行番号401は1対1に対応するので、いずれかを省略してもよい。開始時刻403は、顔検出手段321がその対象人物について顔領域画像を最初に抽出し、顔追跡手段322が追跡処理を開始した時刻を表す。
追跡フラグ404は、その対象人物に対する追跡が継続しているか否かをあらわすフラグであり、顔追跡手段322がその対象人物の追跡を開始するとONになり、追跡を終了するとOFFになる。つまり、追跡フラグ404がONのときはその対象人物は監視領域内に存在し、追跡フラグ404がOFFのときはその対象人物が既に認証されて入室したか、又は認証されずに監視領域から離れたということになる。
顔画像データ405は、顔検出手段321によって作成され、顔追跡手段322によって追跡処理でその対象人物のものとして対応付けられた全ての顔領域画像のデータである。追跡位置情報406は、顔画像データ405として記憶された各顔画像データが切り出された監視画像内の顔領域の座標情報及び追跡処理がされた時刻を示す時刻情報である。
The
In the history table 400 shown in FIG. 4, the
The tracking
The
顔追跡手段322は、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができなかった場合、その現フレームの顔領域には新たに監視領域内に入ってきた対象人物が写っているものとして、履歴テーブル400にその対象人物についての履歴データを新たに追加し、初期化処理を行う。即ち顔追跡手段322は、その履歴データに新たな試行番号401及び対象人物ID402を割り当てるとともに、開始時刻403として現在時刻を記録し、追跡フラグ404をONに設定する。また顔追跡手段322は、顔画像データ405としてその現フレームの顔領域から作成された顔領域画像を記録するとともに、追跡位置情報406としてその顔領域の座標情報及び現在時刻を記録する。また顔追跡手段322は、認証フラグ408をOFFに設定し、新たに追加した履歴データを光源方向推定手段323及び顔照合手段325に出力する。
If the face area of the current frame of interest cannot be associated with the face area of the previous frame, the
一方、顔追跡手段322が、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができた場合、その対象人物についての履歴データは、既に履歴テーブル400に作成されている。そのため、顔追跡手段322は、履歴テーブル400の、対応する履歴データの顔画像データ405にその現フレームの顔領域から作成された顔領域画像を追加するとともに、追跡位置情報406にその顔領域の座標情報及び現在時刻を追加する更新処理を行う。そして顔追跡手段322は、その履歴データを光源方向推定手段323及び顔照合手段325に出力する。
On the other hand, when the
また、顔追跡手段322は、前フレームの顔領域について、全ての現フレームの顔領域と対応付けられなかったものがある場合、履歴テーブル400の、対応する履歴データの追跡フラグ404をOFFにして、その対象人物についての追跡処理を終了する。
Further, the
光源方向推定手段323は、顔追跡手段322から出力された履歴データのうち、図4に示した履歴テーブル400の追跡フラグ404がONかつ認証フラグ408がOFFとなっている履歴データの最新の顔領域画像と、予め記憶部310に記憶された3次元顔形状モデルとから、顔領域画像に写った顔に照射された光の光源方向を推定する。以下、光源方向とは、顔領域画像に写っている人物の顔から見た光源の方向とする。光源方向を推定するための方法として、公知の様々な方法を用いることができる。例えば、光源方向推定手段323は、以下の方法により顔領域画像における輝度分布から光源方向を推定する。
まず、顔表面は、その表面により拡散される光の強度がその表面の法線とのなす角の余弦に比例する均等拡散面(ランバート面)であると仮定する。この場合、顔領域画像の水平方向をx軸、垂直方向をy軸とし、左上の点を原点とすると、顔領域画像上の位置(x,y)における輝度E(x,y)は、次式により、顔の3次元形状、光源の方向及び顔表面の反射率で決定されると考えられる。
First, it is assumed that the face surface is a uniform diffusing surface (Lambertian surface) in which the intensity of light diffused by the surface is proportional to the cosine of the angle with the normal of the surface. In this case, assuming that the horizontal direction of the face area image is the x axis, the vertical direction is the y axis, and the upper left point is the origin, the luminance E (x, y) at the position (x, y) on the face area image is It is considered that the expression is determined by the three-dimensional shape of the face, the direction of the light source, and the reflectance of the face surface.
ここで、顔の皮膚は場所によらず同一の成分で構成されると仮定し、(1)式においてρ(x,y)は一定値αを有するものとする。この場合、(1)式は光源係数l0及び光源方向lを未知数とした方程式となる。そこで、光源方向推定手段323は、顔領域画像における顔の皮膚に相当する領域内の各画素において、(1)式を立てて連立方程式とし、この連立方程式を解くことによって各向き調整済み形状モデルごとの光源係数l0及び光源方向lを求めることができる。なお、一定値αは、顔領域画像における顔の皮膚に相当する領域の輝度値の平均値、最頻値または中央値若しくはその近傍値に設定することができる。 Here, it is assumed that the skin of the face is composed of the same component regardless of the location, and ρ (x, y) in Equation (1) has a constant value α. In this case, equation (1) is an equation with the light source coefficient l 0 and the light source direction l as unknowns. Therefore, the light source direction estimating means 323 sets the equation (1) as a simultaneous equation for each pixel in the region corresponding to the facial skin in the face region image, and solves the simultaneous equations for each orientation adjusted shape model. The light source coefficient l 0 and the light source direction l can be obtained for each. Note that the constant value α can be set to an average value, a mode value, a median value, or a value in the vicinity of the luminance value of the area corresponding to the skin of the face in the face area image.
あるいは、光源方向推定手段323は、予め様々な光源方向で人物の顔を撮影した標準的な顔画像若しくはシミュレーションにより求めた同等の顔画像を用意しておき、それらと顔領域画像とのパターンマッチングをおこなって、最も一致する顔画像を決定することにより、光源方向を推定してもよい。さらにまた、光源方向推定手段323は、照明光源と顔領域画像を取得したカメラの位置関係、または照明光源から照射される照明光の方向及びカメラの撮影方向の関係が予め分かっている場合、それらの関係に基づいて光源方向を決定してもよい。
光源方向推定手段323は、推定した光源方向を光源方向情報として分類手段324へ出力する。
Alternatively, the light source direction estimation means 323 prepares a standard face image obtained by photographing a person's face in various light source directions or an equivalent face image obtained by simulation, and pattern matching between them and the face area image. And the light source direction may be estimated by determining the most matching face image. Furthermore, the light source
The light source
分類手段324は、光源方向推定手段323から受け取った光源方向情報に基づいて、各顔領域画像を、光源方向が略同方向の顔領域画像毎に複数のグループに分類する。例えば、分類手段324は、図3(a)〜(c)のように、対象人物が前方から照射された顔領域画像のグループである「前方」グループと、直上から照射された顔領域画像のグループである「直上」グループと、後方から照射された顔領域画像のグループである「後方」グループとに分類する。
Based on the light source direction information received from the light source
図5に、図2に示した顔画像認証装置10が設置されたオフィスビルの入り口を進行方向254に向かって右側から見た図を模式的に示す。図5に示す対象人物250〜252及びダウンライト260は、図2に示す対象人物250〜252及びダウンライト260に対応する。
図5に示すように、時刻tにおいて、ダウンライト260は対象人物250から見て前方上方に位置し、進行方向254に対するダウンライト260の角度θは90°未満となる。一方、時刻(t+1)において、ダウンライト260は対象人物251の略直上に位置し、進行方向254に対するダウンライト260の角度θは略90°となる。また、時刻(t+2)において、ダウンライト260は対象人物250から見て後方上方に位置し、進行方向254に対するダウンライト260の角度θは90°より大きくなる。
FIG. 5 schematically shows a view of the entrance of the office building where the face
As shown in FIG. 5, at time t, the
分類手段324は、光源方向推定手段323が推定した光源方向から、進行方向254に対するダウンライト260の角度θを求め、求めた角度θに応じて、顔領域画像を前方グループ、直上グループ又は後方グループに分類する。なお、直上グループに含まれる角度θの境界値は、光源により顔領域画像に影ができる境界になる角度とする。例えば分類手段324は、角度θが85°≦θ≦92°となる顔領域画像を直上グループに分類し、角度θがθ<85°となる顔領域画像を前方グループに分類し、角度θがθ>92°となる顔領域画像を後方グループに分類する。なお、角度θが90°以下の場合、90°を十分に下回らなければ、図3(a)に示すような顔全体が明るく写っている画像にならないが、角度θが90°以上の場合、少しでも90°を上回ると、図3(c)に示すような顔全体が暗く写っている画像となる傾向にある。そのため、直上グループと後方グループの境界値を92°として、前方グループと直上グループの境界値である85°より90°に近い値としている。
なお、分類手段324は、顔領域画像を前方グループ、直上グループ及び後方グループの三つのグループよりさらに細かく分類してもよい。例えば、図3(d)の画像353のように、進行方向254に対して左右方向からの太陽光の照射等を考慮して、光源方向の進行方向254に対する左右方向の成分にも基づいて分類してもよい。
分類手段324は、顔領域画像を分類したグループを示すグループ情報を顔照合手段325に出力する。
The classifying
The classifying
The classifying
顔照合手段325は、グループ選択手段326及び判定手段327を有し、分類手段324によって分類されたグループのうち、顔照合処理に最も適したグループを選択し、選択したグループの顔領域画像を用いて顔照合処理を行う。また、履歴テーブル400の照合履歴407及び認証フラグ408を更新する。
The
照合履歴407は、各フレームの追跡位置情報406に対応するフレーム照合結果を保持する。図6にフレーム照合結果600の例を示す。
取得時刻601は、現フレームの顔領域画像が取得された時刻である。
光源方向グループ602は、分類手段324により分類された、各顔領域画像のグループを表し、分類手段324から出力されたグループ情報がセットされる。
認証候補人物603は、顔追跡手段322によって追跡された顔領域画像と記憶部310に記憶された複数の登録顔画像のそれぞれとの類似度(照合スコア)のうち、類似度が最高(1位)となった登録人物の識別IDである。
認証候補類似度604は、認証候補人物603を特定することになった照合スコアである。
The matching
The
The light
The
The
図4に戻り、認証フラグ408は、対象人物に対する認証が成功したか否かを表すフラグである。即ち対象人物が登録人物のいずれかであると判定手段327によって判定された場合にはONにセットされ、対象人物の追跡が始まったばかりの状態のように認証結果が判定手段327によって求められていない状態の場合又は対象人物が登録人物ではないと判定手段327によって判定された場合にはOFFにセットされる。
Returning to FIG. 4, the
グループ選択手段326は、顔追跡手段322から出力された履歴データのうち、図4に示した履歴テーブル400の追跡フラグ404がONかつ認証フラグ408がOFFとなっている履歴データの最新の顔領域画像に写っている顔と記憶部310に予め記憶された各登録顔画像に写っている顔との類似度を算出する。グループ選択手段326は、公知の顔照合技術を用いて類似度を算出する。例えば、グループ選択手段326は、顔領域画像と登録顔画像の位置をずらしながら顔領域画像に含まれる各画素と登録顔画像の対応画素の輝度値の差の二乗和を算出し、算出した二乗和のうち最も小さいものを顔領域画像に含まれる画素数で割って正規化した値の逆数を類似度として求める。
グループ選択手段326は、処理対象の顔領域画像との類似度が最も高い登録顔画像の登録人物、即ち認証候補人物を特定し、その情報(登録人物の識別ID)を認証候補人物603に記憶し、その類似度を認証候補類似度604に記憶する。また、グループ選択手段326は、分類手段324から出力されたグループ情報を光源方向グループ602に記憶する。
Of the history data output from the
The
さらに、グループ選択手段326は、分類手段324によって分類される複数のグループのそれぞれについて、そのグループに含まれる各顔領域画像と各登録顔画像との類似度に基づいて、そのグループに含まれる各顔領域画像に写っている顔と最も類似する顔が写っている登録顔画像をそのグループのグループ候補顔画像として選択する。そして、選択したグループ候補顔画像の登録人物をグループ候補人物とする。例えば、グループ選択手段326は、各グループについて、認証候補人物の顔画像として特定された回数の最も多い登録顔画像をグループ候補顔画像とし、そのグループ候補顔画像の人物をグループ候補人物とする。その場合、グループ選択手段326は、同一の光源方向グループ602について認証候補人物603として最も多く記録されている認証候補人物をグループ候補人物とする。あるいは、そのグループに含まれる各顔領域画像との各類似度の平均値、中央値又は四分位数が最も高い登録顔画像の登録人物をグループ候補人物としてもよい。
次に、グループ選択手段326は、分類手段324によって分類される複数のグループのそれぞれについて、グループ候補人物となった認証候補人物について記録されている認証候補類似度604からグループ類似度を算出する。グループ類似度は、そのグループに含まれる各顔領域画像とグループ候補顔画像との類似する度合いを表し、グループ候補人物となった認証候補人物についてのそれぞれの認証候補類似度604が高いほど高くなる。例えば、グループ候補人物となった認証候補人物についての全ての認証候補類似度604の平均値、中央値及び四分位数のうちの何れか一つをグループ類似度とする。
そして、グループ選択手段326は、算出したグループ類似度が最も高いグループを判定処理を実施するグループとして選択する。
Further, the
Next, the
Then, the
図7及び図8を用いて、グループ選択手段326によるグループ選択処理について詳細に説明する。
図7は、監視領域を通行する対象人物を時系列に表す模式図である。図7は、進行方向721へ向かう対象人物を示しており、撮像部100は、同一の対象人物701〜709をそれぞれ時刻t1〜t9において順次撮影する。また、監視領域の天井には進行方向721に沿って三つのダウンライト711〜713が設置される。ダウンライト711〜713は対象人物701、704、707を前方上方から照射し、対象人物702、705、708を直上から照射し、対象人物703、706、709を後方上方から照射する。
The group selection processing by the
FIG. 7 is a schematic diagram showing the target person passing through the monitoring area in time series. Figure 7 shows a target person toward the traveling
図8(a)〜(c)は、図7に示した対象人物に対する類似度について説明するためのグラフである。なお、以下では、顔画像認証装置10には、三人の登録人物A、B、Cの登録顔画像が記憶されているものとして説明する。
図8(a)は、対象人物701〜709についてグループ選択手段326が特定した認証候補人物と、算出した類似度とを示すグラフである。図8(a)において、横軸は時刻を、縦軸は類似度を表す。時刻801〜809は、それぞれ時刻t1〜t9であり、図7における対象人物701〜709が順次撮影された時刻にそれぞれ対応している。また、各時刻における各×印は、左側から順に、各時刻における対象人物についての顔領域画像と登録人物A、B、Cについての登録顔画像との類似度を表す。×印の上側にA、B又はCと表されている人物は、各時刻において類似度が最も高い登録人物であり、その登録人物がグループ選択手段326によって認証候補人物として特定される。つまり、時刻t1、t2、t4、t6、t7では登録人物Aが、時刻t3、t5、t8では登録人物Bが、時刻t9では登録人物Cが、それぞれ認証候補人物として特定される。
この図8(a)に示す例では、時刻t1、t4、t7において対象人物が前方から照射されており、その時刻における顔領域画像は顔照合処理に適した画像である。そのため、以下では時刻t1、t4、t7において認証候補人物として特定された登録人物Aが監視領域を通行する、真の対象人物であると仮定して説明する。
8A to 8C are graphs for explaining the similarity to the target person shown in FIG. In the following description, it is assumed that the registered face images of the three registered persons A, B, and C are stored in the face
FIG. 8A is a graph showing the authentication candidate person specified by the
In the example shown in FIG. 8A, the target person is illuminated from the front at times t 1 , t 4 , and t 7 , and the face area image at that time is an image suitable for face matching processing. Therefore, the following description will be made assuming that the registered person A identified as the authentication candidate person at the times t 1 , t 4 , and t 7 is a true target person who passes through the monitoring area.
図8(b)は、図8(a)の各時刻において認証候補人物として特定された人物についての類似度を、認証候補人物ごとに並べ替えたグラフである。図8(b)において、横軸は各認証候補人物を、縦軸は類似度を表す。認証候補人物811は登録人物Aであり、左側から順に時刻t1、t2、t4、t6、t7における類似度が表され、認証候補人物812は登録人物Bであり、左側から順に時刻t3、t5、t8における類似度が表され、認証候補人物813は登録人物Cであり、時刻t9における類似度が表されている。
図8(b)に示すように、登録人物A、すなわち認証候補人物811についての類似度の平均値821は、登録人物B、すなわち認証候補人物812についての類似度の平均値822、又は登録人物C、すなわち認証候補人物813についての類似度の平均値823より低くなっている。これは、認証候補人物811についての類似度の平均値821は、対象人物が直上から照射され、顔のテクスチャ情報を適切に抽出できない、時刻t2における顔領域画像から求められた極度に低い類似度の影響を受けているためである。
図8(b)に示したように、監視領域がダウンライト等により照射される場合、顔のテクスチャ情報を適切に抽出できない顔領域画像が得られる可能性がある。そのため、対象人物が監視領域内に存在する間に取得された各顔領域画像について特定された全ての認証候補人物のうち、類似度の平均値が最も高い認証候補人物が対象人物であると判定すると、判定を誤るおそれがある。
FIG. 8B is a graph in which the similarities of the persons specified as authentication candidate persons at each time of FIG. 8A are rearranged for each authentication candidate person. In FIG. 8B, the horizontal axis represents each authentication candidate person, and the vertical axis represents the similarity. The
As shown in FIG. 8B, the
As shown in FIG. 8B, when the monitoring area is illuminated by a downlight or the like, there is a possibility that a face area image that cannot properly extract facial texture information may be obtained. Therefore, it is determined that the authentication candidate person having the highest average similarity is the target person among all the authentication candidate persons specified for each face area image acquired while the target person exists in the monitoring area. Then, there is a risk of erroneous determination.
図8(c)は、図8(a)の各時刻においてにおいて認証候補人物として特定された人物についての類似度を、分類手段324によって分類されるグループごとに並べ替えたグラフである。図8(c)において、横軸は各グループを、縦軸は類似度を表す。グループ831は前方グループであり、左側から順に時刻t1、t4、t7における類似度が表され、グループ832は直上グループであり、左側から順に時刻t2、t5、t8における類似度が表され、グループ833は後方グループであり、左側から順に時刻t3、t6、t9における類似度が表されている。
各類似度をこのように分類すると、各グループには、複数の認証候補人物についての類似度が含まれる場合がある。そこで、上述した通り、グループ選択手段326は、各グループにおいて、認証候補人物として特定された回数の最も多い人物をそのグループのグループ候補人物とする。図8(c)では、前方グループ831については登録人物Aがグループ候補人物となり、直上グループ832については登録人物Bがグループ候補人物となる。なお、後方グループ833については、登録人物A、B、Cがそれぞれ一回ずつ認証候補人物として特定されている。顔画像認証では一定の確率で発生を避けられない「他人の空似」を考慮し、照合処理の精度を向上させるためには、所定回数(例えば、二回)以上、認証候補人物として特定されている人物をグループ候補人物とすることが好ましい。そこで、後方グループ833についてはグループ候補人物を選択しない。
図8(c)に示すように、前方グループ831のグループ候補人物Aについての類似度の平均値841は、直上グループ832のグループ候補人物Bについての類似度の平均値842より高い。これは、前方グループ831についての類似度は、全て顔のテクスチャ情報を適切に抽出できる顔領域画像から算出され、直上グループ832についての類似度は、全て顔のテクスチャ情報を適切に抽出できない顔領域画像から算出されるからである。
図8(c)に示す例では、グループ選択手段326は、グループ候補人物についての類似度の平均値が最も高い前方グループ831を判定処理を実施するグループとして選択する。
FIG. 8C is a graph in which the similarities of the persons specified as the authentication candidate person at each time of FIG. 8A are rearranged for each group classified by the classifying
If the similarities are classified in this way, each group may include similarities for a plurality of authentication candidate persons. Therefore, as described above, the
As illustrated in FIG. 8C, the
In the example illustrated in FIG. 8C, the
判定手段327は、グループ選択手段326によって選択されたグループに含まれる少なくとも一つの顔領域画像とグループ候補顔画像とを比較することにより、監視領域内を通行する対象人物と登録顔画像に写っている人物とが同一の人物か否かを判定する。そのために、判定手段327は、例えばグループ選択手段326によって選択されたグループのグループ類似度が認証閾値以上であるか否かを判定する。なお、認証閾値は、選択されたグループの各顔領域画像に含まれる顔がグループ候補人物の顔であるか否かを認証するための基準である。そして、グループ類似度が認証閾値以上である場合、判定手段327は、そのグループの各顔領域画像に含まれる顔がグループ候補人物として特定された登録人物の顔であると判定し、監視領域内を通行する対象人物がその登録人物であると判定する。そして、対応する履歴テーブル400において、追跡フラグ404をOFFに設定するとともに認証フラグ408をONに設定し、認証成功を示す信号を出力部200に出力する。
The
一方、所定時間(例えば、2秒)以上追跡を継続しているにもかかわらず、グループ類似度が認証閾値未満である場合、判定手段327は、認証失敗として対応する履歴テーブル400の認証フラグ408をOFFに設定する。また、追跡開始直後であり、グループ候補人物が選択されていない場合又は照合履歴407が所定フレーム(例えば、30フレーム)分取得されていない場合にも、判定手段327は、対応する履歴テーブル400の認証フラグ408をOFFに設定する。
On the other hand, when the group similarity is less than the authentication threshold even though the tracking is continued for a predetermined time (for example, 2 seconds) or more, the
以下、図9に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置10による認証処理の動作を説明する。なお、以下に説明する動作のフローは、画像処理部300を構成するマイクロプロセッサ上で動作し、顔画像認証装置10全体を制御する制御部(図示せず)により制御される。なお、以下に説明する処理の実施前に、履歴テーブル400は空白になるよう初期化される。また、以下に説明する動作は、監視画像を一つ取得するごとに実施される。
Hereinafter, the operation of the authentication process performed by the face
最初に、顔画像認証装置10は、撮像部100により、監視領域を撮影した監視画像を取得し、画像処理部300の照合部320へ送る(ステップS901)。次に、照合部320の顔検出手段321は、取得された監視画像から、対象人物の顔が写っている顔領域を検出し、その顔領域を監視画像から切り出して顔領域画像を作成する(ステップS902)。次に、顔検出手段321は、一つ以上の顔領域が検出されたか否か判定する(ステップS903)。顔領域が全く検出されなかった場合、ステップS901へ移行し、顔領域が検出されるまでステップS901〜S903の処理を繰り返す。
First, the face
一方、ステップS903において、一つ以上の顔領域が検出され、顔領域画像が作成された場合、顔追跡手段322は、検出された全ての顔領域について、図4に示した履歴テーブル400における追跡フラグ404がONとなっている対象人物ID402との対応付けを実施する(ステップS904)。そして顔追跡手段322は、追跡フラグ404がONとなっている対象人物ID402について、現フレームの顔領域のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS905)。現フレームの顔領域のいずれとも対応付けられなかったものがない場合、ステップS907へ移行する。一方、現フレームの顔領域のいずれとも対応付けられなかった、追跡フラグ404がONとなっている対象人物ID402がある場合、その対象人物ID402の対象人物は、認証成功となって入室したか、又は認証されずに監視領域から離れたと考えられる。そのためその場合、顔追跡手段322は、現フレームの顔領域のいずれとも対応付けられなかった対象人物ID402の追跡フラグ404をOFFにして、以後その顔領域に対する追跡処理を実施しないようにする(ステップS906)。
On the other hand, if one or more face areas are detected and a face area image is created in step S903, the
そして顔追跡手段322は、現フレームの顔領域について、追跡フラグ404がONとなっている対象人物ID402と対応付けることができなかったものがあるか否かを判定する(ステップS907)。追跡フラグ404がONとなっている対象人物ID402と対応付けることができなかったものがある場合、顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての履歴データを履歴テーブル400に新たに追加する。即ち顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての履歴データに新たな試行番号401及び対象人物ID402を割り当てるとともに、開始時刻403として現在の時刻を記録し、追跡フラグ404をONに設定する(ステップS908)。また顔追跡手段322は、顔画像データ405として現フレームの顔領域から作成された顔領域画像を記録するとともに、対応付けることができなかった顔領域の座標情報及び取得時刻を追跡位置情報406として記録し、認証フラグ408をOFFに設定する。
Then, the
なお、現フレームの顔領域について、追跡フラグ404がONとなっている対象人物ID402と対応付けることができた場合、顔追跡手段322は、対応付けることができた顔領域の座標情報及び取得時刻を、対応する履歴データの追跡位置情報406に追加する更新処理を行う。そして顔追跡手段322は、更新した履歴データを光源方向推定手段323及び顔照合手段325に出力する。
When the face area of the current frame can be associated with the
以下のステップS909〜S914の処理は、追跡フラグ404がONであり、かつ認証フラグ408がOFFである履歴データごとに行われる。追跡フラグ404がONである履歴データのうち認証フラグ408がONである履歴データを処理対象としないのは、既に認証がなされているためである。
光源方向推定手段323は、処理対象の履歴データの最新の顔領域画像について、光源方向を推定し、推定した光源方向を光源方向情報として分類手段324へ出力する(ステップS909)。次に、分類手段324は、光源方向推定手段323から受け取った光源方向情報に基づいて、処理対象の履歴データの最新の顔領域画像を、光源方向が略同方向の顔領域画像毎に複数のグループに分類する(ステップS910)。
The following steps S909 to S914 are performed for each history data in which the tracking
The light source
次に、顔照合手段325は、照合履歴407にフレーム照合結果600を蓄積する。フレーム照合結果600はそれぞれ、各フレームにおける追跡位置情報406と一対一で対応するものであり、追跡位置情報406の時刻情報を取得時刻601に記憶する。なお、取得時刻601を、追跡位置情報406の時刻情報と同一であるとして省略してもよい。
次に、グループ選択手段326は、処理対象の履歴データの最新の顔領域画像に対して、記憶部310に記憶された全ての登録顔画像との間で類似度を算出し、類似度が最高となった登録顔画像の登録人物を認証候補人物として特定する。そして、その情報を認証候補人物603に記憶し、その類似度を認証候補類似度604に記憶する(ステップS911)。さらに、グループ選択手段326は、分類手段324が分類したグループ情報を光源方向グループ602に記憶する。
Next, the
Next, the group selection means 326 calculates the similarity between all the registered face images stored in the
次に、グループ選択手段326は、各グループについてグループ候補人物を特定し、グループ類似度を算出し、算出したグループ類似度が最も高くなるグループを判定処理を実施するグループとして選択する(ステップS912)。
なお、顔追跡手段322による追跡を開始したばかりのときには、照合履歴407に蓄積されたフレーム数が少なく、グループ選択手段326が選択するグループが一つのフレームの結果に大きく左右されるので、判定処理を行わないようにする必要がある。このために、判定処理に必要なフレーム数が照合履歴407に蓄積されたか否かの判定を、例えば、ステップS912で行い、判定処理に必要なフレーム数が照合履歴407に蓄積されていない場合には、判定処理を禁止し、ステップS901へ移行するようにするのが好ましい。判定処理に必要なフレーム数は、顔画像認証装置10の設置環境に応じて適宜設定される。
Next, the
When the tracking by the
次に、判定手段327は、グループ選択手段326により選択されたグループのグループ類似度が認証閾値以上であるか否かを判定する(ステップS913)。グループ類似度が認証閾値未満である場合、追跡フラグ404がON、かつ認証フラグ408がOFFの履歴データがまだあるならばステップS909へ移行し、ないならばステップS901へ移行する。一方、グループ類似度が認証閾値以上である場合、判定手段327は、監視領域内を通行する対象人物がそのグループ候補人物として特定された登録人物であると判定する。そして、対応する履歴テーブル400において、追跡フラグ404をOFFに設定するとともに認証フラグ408をONに設定し、認証成功を示す信号を出力部200に出力する(ステップS914)。
Next, the
ステップS914で認証成功を示す信号が出力部200に出力された場合、顔照合手段325は、出力部200を介して電気錠の解錠を行う。これにより認証成功となった対象人物は、入室することができる。なお、電気錠は、対象人物の入室が確認できた後にすみやかに、または所定時間経過後に自動的に施錠されるものとする。
When a signal indicating successful authentication is output to the
なお、ステップS911に示した類似度算出処理は、ステップS909及びS910に示した光源方向推定処理及び分類処理より前に実施してもよい。 Note that the similarity calculation processing shown in step S911 may be performed before the light source direction estimation processing and classification processing shown in steps S909 and S910.
以上説明してきたように、本発明を適用した顔画像認証装置は、顔領域画像を、推定された光源方向が略同方向の顔領域画像毎に複数のグループに分類し、各グループについてグループ類似度を算出し、グループ類似度が最も高くなるグループを選択する。そして、顔画像認証装置は、選択したグループの各顔領域画像と登録顔画像の類似度に基づいて顔照合処理を実施する。これにより、顔画像認証装置は、照明条件の影響を低減して高精度に人物を認証することができる。 As described above, the face image authentication apparatus to which the present invention is applied classifies face area images into a plurality of groups for each face area image whose estimated light source direction is substantially the same direction, and each group is similar to the group. The degree is calculated, and the group having the highest group similarity is selected. Then, the face image authentication device performs face matching processing based on the similarity between each face area image of the selected group and the registered face image. Thereby, the face image authentication device can reduce the influence of the illumination condition and authenticate the person with high accuracy.
以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。例えば、本実施形態では、顔検出手段が監視画像から顔領域を切り出して顔領域画像を作成し、照合部の各手段がその顔領域画像に対して各処理を実施する例を示したが、顔検出手段は顔領域画像を作成せずに、照合部の各手段は監視画像内の顔領域に対して各処理を実施してもよい。 The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. For example, in the present embodiment, the face detection unit cuts out the face region from the monitoring image to create a face region image, and each unit of the collation unit performs each process on the face region image. The face detection means may not create a face area image, and each means of the collation unit may perform each process on the face area in the monitoring image.
また、本実施形態では、顔照合処理として、対象人物の顔画像と記憶部に記憶された全ての登録顔画像とを照合する、いわゆる1対N照合を行う例を示したが、顔照合処理は、対象人物の顔画像と特定の登録顔画像とを照合する、いわゆる1対1照合でもよい。その場合、顔照合手段は、カードリーダ、テンキー等を備えた不図示の入力部を介して利用者により入力された登録人物IDを取得し、対象人物の顔画像をその登録人物IDに対応する登録顔画像と照合する。そして、グループ選択手段は、その登録人物IDの登録人物を認証候補人物及びグループ候補人物として各グループのグループ類似度を算出し、判定処理を実施するグループを選択する。 In the present embodiment, as the face matching process, an example of performing so-called 1-to-N matching in which the face image of the target person is matched with all registered face images stored in the storage unit has been described. May be a so-called one-to-one collation in which the face image of the target person is collated with a specific registered face image. In that case, the face collating means acquires a registered person ID input by the user via an input unit (not shown) provided with a card reader, a numeric keypad, etc., and corresponds the face image of the target person to the registered person ID. Match the registered face image. Then, the group selection unit calculates the group similarity of each group using the registered person with the registered person ID as the authentication candidate person and the group candidate person, and selects the group for which the determination process is to be performed.
また、各登録顔画像を取得したときの光源方向が予め分かっている場合は各登録顔画像とその光源方向を関連付けて記憶しておき、分類手段は、各顔領域画像を、認証候補人物の登録顔画像の光源方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段が分類処理を実施する前に、グループ選択手段が類似度の算出処理及び認証候補人物の特定処理を実施しておく。そして、分類手段は、光源方向が認証候補人物の登録顔画像の光源方向と略同方向の顔領域画像、すなわち認証候補人物の登録顔画像の光源方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。なお、各光源方向の差は、例えば各光源方向ベクトルの差のスカラー量、又は各光源方向ベクトルの単位ベクトルの差のスカラー量とすることができる。所定値は、顔画像認証装置の設置環境に応じて適宜設定され、例えば単位ベクトルのスカラー量の1/2とすることができる。
このように、各顔領域画像を、その光源方向が登録顔画像の光源方向と略同方向か否かにより分類することにより、登録顔画像との類似度が高い顔領域画像と、登録顔画像との類似度が低い顔領域画像とをより的確に分類でき、より高精度に顔照合処理を実施することができる。
なお、各登録顔画像を取得したときの光源方向が予め分かっていない場合は、光源方向推定手段が各登録顔画像の光源方向を求め、各登録顔画像とその光源方向を関連付けて記憶部に記憶するようにしてもよい。これにより、登録顔画像を取得したときに光源方向が分かっていない場合でも、登録顔画像の光源方向を特定することができる。
In addition, when the light source direction when each registered face image is acquired is known in advance, each registered face image and the light source direction are stored in association with each other, and the classifying unit stores each face area image of the authentication candidate person. You may classify | categorize into the 1st group corresponding to the light source direction of a registration face image, and a 2nd group other than that. In this case, before the classification unit performs the classification process, the group selection unit performs the similarity calculation process and the authentication candidate person identification process. Then, the classification means includes a face area image whose light source direction is substantially the same as the light source direction of the registered face image of the authentication candidate person, that is, the difference between the light source direction of the registered face image of the authentication candidate person and the light source direction of the face area image. Are classified into the first group, and face region images whose difference is greater than or equal to the predetermined value are classified into the second group. Note that the difference between the light source directions can be, for example, a scalar amount as a difference between the light source direction vectors or a scalar amount as a difference between unit vectors of the light source direction vectors. The predetermined value is appropriately set according to the installation environment of the face image authentication apparatus, and can be set to 1/2 of the scalar quantity of the unit vector, for example.
Thus, by classifying each face area image according to whether or not the light source direction is substantially the same as the light source direction of the registered face image, the face area image having a high similarity to the registered face image and the registered face image Can be classified more accurately, and the face matching process can be performed with higher accuracy.
If the light source direction when each registered face image is acquired is not known in advance, the light source direction estimating means obtains the light source direction of each registered face image and associates each registered face image with the light source direction in the storage unit. You may make it memorize | store. Thereby, even when the light source direction is not known when the registered face image is acquired, the light source direction of the registered face image can be specified.
また、頻繁に認証候補人物として特定される人物は、照合対象の人物との類似度が高く、その人物が照合対象の人物である可能性が高い。そのため、認証候補人物として特定された回数の最も多い人物の登録顔画像と光源方向が略同方向の顔領域画像のみを用いて顔照合処理を実施することにより、より本人を受理する可能性を高めることができる。そこで、分類手段は、顔追跡手段によって対応付けられた各顔領域画像を、認証候補人物として特定された回数の最も多い人物の登録顔画像の光源方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段は、例えば、顔追跡手段によって対応付けられた顔領域画像について所定フレーム(例えば、10フレーム)分の顔照合処理が実施された後に、認証候補人物として特定された回数の最も多い人物を特定する。そして、分類手段は、その特定した人物の登録顔画像の光源方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。 Further, a person who is frequently identified as an authentication candidate person has a high degree of similarity with the person to be collated, and there is a high possibility that the person is a person to be collated. Therefore, it is possible to accept the person more by performing the face matching process using only the registered face image of the person most frequently identified as the authentication candidate person and the face area image whose light source direction is substantially the same direction. Can be increased. Therefore, the classifying unit includes the first group corresponding to the light source direction of the registered face image of the person most frequently identified as the authentication candidate person for each face area image associated by the face tracking unit, and the others. The second group may be classified. In that case, for example, after the face matching process for a predetermined frame (for example, 10 frames) is performed on the face area image associated by the face tracking unit, the classifying unit is the largest number of times specified as an authentication candidate person. Identify many people. The classifying unit classifies the face area images in which the difference between the light source direction of the registered face image of the identified person and the light source direction of the face area image is less than a predetermined value into the first group, and the difference is predetermined. Face area images that are greater than or equal to the value are classified into the second group.
また、例えば、登録顔画像として社員証等の写真を用いている場合、各写真は同一の照明条件下で撮影されたものである可能性が高い。そのような場合、より多くの登録顔画像と光源方向が略同方向の顔領域画像のみを用いて顔照合処理を実施することにより、顔照合処理に用いる顔領域画像の照明条件を登録顔画像の照明条件にあわせることができる。そこで、分類手段は、各顔領域画像を、記憶部に記憶された全ての登録顔画像の光源方向が最も集中する最頻方向に対応する第1のグループと、それ以外の第2のグループとに分類してもよい。その場合、分類手段は、例えば、光源方向ベクトルを規定する空間における原点からの全ての方向を複数のブロックに分割し、複数のブロックのうち、登録顔画像の光源方向が含まれる度数が最も多いブロックを最頻ブロックとし、最頻ブロックにおける中心方向を最頻方向とする。各ブロックは、例えば緯度方向及び経度方向にそれぞれ5°の幅を持つ範囲とすることができる。そして、分類手段は、求めた最頻方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。 For example, when a photograph such as an employee ID card is used as the registered face image, each photograph is likely to be taken under the same lighting conditions. In such a case, by performing the face matching process using only more registered face images and face area images having substantially the same light source direction, the illumination condition of the face area image used for the face matching process is registered. Can be adapted to the lighting conditions. Therefore, the classifying means classifies each face area image with a first group corresponding to the most frequent direction in which the light source directions of all registered face images stored in the storage unit are most concentrated, and other second groups. May be classified. In that case, for example, the classifying unit divides all directions from the origin in the space defining the light source direction vector into a plurality of blocks, and among the plurality of blocks, the frequency that includes the light source direction of the registered face image is the highest. The block is a mode block, and the center direction of the mode block is a mode direction. Each block can be a range having a width of 5 ° in the latitude direction and the longitude direction, for example. Then, the classifying unit classifies the face area images in which the difference between the obtained most frequent direction and the light source direction of the face area image is less than a predetermined value into the first group, and the face area in which the difference is not less than the predetermined value. Classify the images into a second group.
また、過去の顔照合処理において登録顔画像との類似度が高かった顔領域画像は顔照合処理に適した画像であり、その照明条件は好条件である可能性が高い。そのため、そのような顔領域画像と光源方向が略同方向の顔領域画像のみを用いることにより、より高精度に顔照合処理を実施することができる。そこで、判定手段は、登録顔画像に写っている人物と同一の人物と判定した人物毎に、その登録顔画像との類似度が最も高かった顔領域画像の光源方向を記憶部に記憶しておく。そして、分類手段は、過去に認証成功となった各人物の顔領域画像のうち、登録顔画像との類似度が最も高かった各顔領域画像の光源方向が最も集中する最頻方向に対応する第1のグループと、それ以外の第2のグループとに、現在の対象人物の各顔領域画像を分類してもよい。その場合、分類手段は、全ての登録顔画像の光源方向の最頻方向を求めたのと同様の方法により、登録顔画像との類似度が最も高かった各顔領域画像の光源方向の最頻方向を求める。そして、求めた最頻方向とその顔領域画像の光源方向との差が所定値未満になる顔領域画像を第1のグループに分類し、その差が所定値以上になる顔領域画像を第2のグループに分類する。 In addition, the face area image having a high similarity to the registered face image in the past face matching process is an image suitable for the face matching process, and the illumination condition is highly likely to be favorable. Therefore, by using only such a face area image and a face area image whose light source direction is substantially the same direction, face collation processing can be performed with higher accuracy. Therefore, the determination unit stores, in the storage unit, the light source direction of the face area image having the highest similarity to the registered face image for each person determined to be the same person as the person shown in the registered face image. deep. The classifying unit corresponds to the most frequent direction in which the light source directions of the face area images having the highest similarity to the registered face image are most concentrated among the face area images of the persons who have succeeded in authentication in the past. Each face area image of the current target person may be classified into a first group and a second group other than the first group. In that case, the classification means uses the same method as that for obtaining the most frequent direction of the light source directions of all registered face images, and the mode of the light source direction of each face area image having the highest similarity to the registered face image. Find the direction. Then, the face area images in which the difference between the obtained most frequent direction and the light source direction of the face area image is less than a predetermined value are classified into a first group, and face area images in which the difference is greater than or equal to a predetermined value are Classify into groups.
また、顔画像認証装置の監視領域において、複数のダウンライトが対象人物の進行方向に沿って一定間隔に設置されている場合、光源方向推定手段は、顔追跡手段によって対応付けられた全ての顔領域画像の顔部分の輝度の時間的な変化に基づいて、それぞれの顔領域画像の光源方向を推定してもよい。その場合、光源方向推定手段は、各顔領域画像毎に顔部分の輝度の平均値及び中央値のうちの何れか一つを算出し、算出した平均値又は中央値を時系列に並べて極大値及び極小値を抽出する。そして、極大値に対応する顔領域画像は、前方から光を受けていると判断して光源方向を前方と推定し、極小値に対応する顔領域画像は逆光を受けていると判断して光源方向を後方と推定する。分類手段は、顔追跡手段によって対応付けられた各顔領域画像を、前方の光源方向に対応する第1のグループと、後方の光源方向に対応する第2のグループと、それ以外の第3のグループとに分類する。この場合、分類手段は、光源方向が前方と推定された顔領域画像と時間的に近接する顔領域画像を第1のグループに分類し、光源方向が後方と推定された顔領域画像と時間的に近接する顔領域画像を第2のグループに分類し、それ以外の顔領域画像を第3のグループに分類する。例えば、分類手段は、各顔領域画像を、光源方向が前方の顔領域画像と光源方向が後方の顔領域画像との間で時間的に三等分に区切って、各グループに分類する。なお、各顔領域画像は、前方の光源方向に対応する第1のグループと、後方の光源方向に対応する第2のグループの二つのグループに分類してもよいし、四つ以上のグループに分類してもよい。 Further, in the monitoring area of the face image authentication device, when a plurality of downlights are installed at regular intervals along the traveling direction of the target person, the light source direction estimating means The light source direction of each face area image may be estimated based on the temporal change in luminance of the face portion of the area image. In that case, the light source direction estimating means calculates any one of the average value and the median of the brightness of the face part for each face area image, and arranges the calculated average value or median in time series to obtain a local maximum value. And the minimum value is extracted. Then, the face area image corresponding to the local maximum value is determined to receive light from the front and the light source direction is estimated to be forward, and the face area image corresponding to the local minimum value is determined to be receiving backlight. Estimate the direction backward. The classifying unit displays each face area image associated by the face tracking unit with a first group corresponding to the front light source direction, a second group corresponding to the rear light source direction, and a third group other than the first group. Classify into groups. In this case, the classifying unit classifies the face area image temporally close to the face area image whose light source direction is estimated to be forward into the first group, and temporally matches the face area image whose light source direction is estimated to be backward. The face area image close to is classified into the second group, and the other face area images are classified into the third group. For example, the classifying unit classifies each face area image into groups by dividing the face area image into three groups temporally between the face area image with the light source direction in front and the face area image with the light source direction in the rear. Each face area image may be classified into two groups, a first group corresponding to the front light source direction and a second group corresponding to the rear light source direction, or four or more groups. You may classify.
また、グループ選択手段は、分類手段によって分類された各グループについて、類似度が高い順に所定数(例えば5)の顔領域画像を選択し、顔領域画像が選択された数が最も多い認証候補人物をそのグループのグループ候補人物としてもよい。その場合、さらに、グループ選択手段は、グループ候補人物となった認証候補人物の類似度のうち、類似度が高い順に所定数の顔領域画像として選択された顔領域画像についての類似度のみを用いてグループ類似度を算出してもよい。これにより、類似度が最高となった枚数は多いが、各類似度自体の低い認証候補人物をグループ候補人物として選択することを抑制できる。 Further, the group selection means selects a predetermined number (for example, 5) of face area images in descending order of similarity for each group classified by the classification means, and the authentication candidate person having the largest number of face area images selected. May be a group candidate for that group. In that case, the group selection means further uses only the similarity of the face area images selected as a predetermined number of face area images in descending order of similarity among the similarities of the authentication candidate persons that are the group candidate persons. Thus, the group similarity may be calculated. Thereby, although the number of sheets with the highest similarity is large, it is possible to suppress selection of an authentication candidate person having a low degree of similarity as a group candidate person.
また、判定手段は、グループ選択手段によって選択されたグループの全ての顔領域画像に対する、認証候補人物と特定された顔領域画像の割合を登録人物検出率として算出し、算出した登録人物検出率に応じて認証閾値を決定してもよい。その場合、判定手段は、登録人物検出率が高いほど認証閾値を低くする。このように認証閾値を適応的に決定することにより、顔画像認証装置は、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保することができる。 The determination unit calculates a ratio of the face area image identified as the authentication candidate person with respect to all the face area images of the group selected by the group selection unit as a registered person detection rate, and calculates the calculated registered person detection rate. The authentication threshold may be determined accordingly. In this case, the determination unit lowers the authentication threshold as the registered person detection rate increases. Thus, by adaptively determining the authentication threshold value, the face image authentication device can ensure the user's acceptance even in a situation where the user authentication is difficult due to a change in facial expression, face orientation, and the like.
また、これまでに述べてきた実施の形態では、記憶部には複数の登録人物(例えば登録人物A、B、Cの3人)の顔画像が記憶されているとして説明した。
本発明にかかる顔画像認証装置は、登録人物が1名であっても全く同様の効果を得ることができる。
即ち、ダウンライトが対象人物の略直上や後方に位置する場合には、輝度分布を理由に認証には適さない顔領域画像が得られ、本人の登録顔画像との類似度を求めても、低い値にしかならない。そのため、仮に各時刻の顔領域画像と登録顔画像との類似度の全てについて、光源方向を考慮せずひとまとまりで認証判定を試みると、認証には適さない顔領域画像から求められた低い類似度が悪影響を及ぼし、認証閾値を越えず本人が棄却される事態が発生する。本人棄却を避けるために認証閾値を低くすると、他人が認証を試みた場合に認証成功となり他人受け入れとなるため、認証閾値を低くすることは好ましくない。
このような場合でも、本発明にかかる顔画像認証装置は、光源方向を考慮して顔領域画像を分類し、認証に適した光源方向のグループの顔領域画像から求められた類似度が高いことを利用してグループ類似度を算出し、認証判定する。そのため、顔画像認証装置は、本人棄却を避けて、正しい結果を得ることができる。
Further, in the embodiments described so far, the description has been made on the assumption that face images of a plurality of registered persons (for example, registered persons A, B, and C) are stored in the storage unit.
The face image authentication apparatus according to the present invention can achieve the same effect even if there is only one registered person.
That is, when the downlight is located almost directly above or behind the target person, a face area image that is not suitable for authentication is obtained because of the luminance distribution, and even if the similarity with the registered face image of the person is obtained, Only low. For this reason, if all the similarity between the face area image at each time and the registered face image is determined in a batch without considering the light source direction, the low similarity obtained from the face area image not suitable for authentication is used. The degree of adverse effects adversely affects the authentication threshold and does not exceed the authentication threshold. If the authentication threshold value is lowered in order to avoid the rejection of the principal, it is not preferable to lower the authentication threshold because the authentication succeeds and accepts another person when another person tries to authenticate.
Even in such a case, the face image authentication device according to the present invention classifies the face area images in consideration of the light source direction, and the similarity obtained from the face area images of the group in the light source direction suitable for authentication is high. Is used to calculate the group similarity and determine authentication. Therefore, the face image authentication apparatus can obtain correct results while avoiding the person's rejection.
また、これまでに述べてきた実施の形態では、光源方向推定手段は、顔検出手段が抽出した顔領域画像を用いて、その顔領域画像に写っている対象人物の顔から見た光源の方向を推定するとしていた。これに代えて、光源方向推定手段は局所的な顔領域からではなく、撮像部が取得した監視画像全体から、対象人物の体全体から見た光源方向を推定してもよい。即ち、いわば日時計のように、監視画像に写った対象人物の足下付近から伸びる影の方向を検出して、それとは反対の方向に光源があると判定することができる。
例えば、対象人物の足下から対象人物の背中の方向に影が伸びている場合には、光源方向は対象人物の前方かつ上方であると推定できる。同様に、対象人物の足下から対象人物の前方に影が伸びている場合には、光源方向は対象人物の後方かつ上方であると推定でき、影がほとんど検出できない場合には、光源方向は対象人物の略直上であると推定できる。この方法では、光源方向推定手段の説明の箇所で述べた方法よりも低い負荷でおおよその光源方向を推定できる。
In the embodiments described so far, the light source direction estimating means uses the face area image extracted by the face detecting means, and the direction of the light source viewed from the face of the target person in the face area image. Was going to be estimated. Instead of this, the light source direction estimation means may estimate the light source direction viewed from the entire body of the target person, not from the local face area but from the entire monitoring image acquired by the imaging unit. In other words, like a sundial, it is possible to detect the direction of the shadow extending from the vicinity of the target person's feet in the monitoring image and determine that the light source is in the opposite direction.
For example, when a shadow extends from the target person's feet toward the target person's back, the light source direction can be estimated to be in front of and above the target person. Similarly, if a shadow extends from the subject's feet to the front of the subject person, the light source direction can be estimated to be behind and above the subject person, and if almost no shadow can be detected, the light source direction is the subject It can be estimated that it is almost directly above the person. In this method, the approximate light source direction can be estimated with a lower load than the method described in the description of the light source direction estimating means.
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.
10 顔画像認証装置
100 撮像部
200 出力部
300 画像処理部
310 記憶部
320 照合部
321 顔検出手段
322 顔追跡手段
323 光源方向推定手段
324 分類手段
325 顔照合手段
326 グループ選択手段
327 判定手段
DESCRIPTION OF
Claims (2)
予め複数の登録人物の登録顔画像を記憶する記憶部と、
前記監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、
順次取得される前記監視画像にて前記顔領域画像を追跡する顔追跡手段と、
前記監視画像から光源方向を推定する光源方向推定手段と、
前記顔領域画像を略同方向の前記光源方向毎に複数のグループに分類する分類手段と、
前記複数のグループのそれぞれについて、当該グループに含まれる前記顔領域画像と前記複数の登録顔画像との類似度を求め、前記顔領域画像ごとに当該類似度が最も高い登録顔画像を特定し、前記グループごとに当該特定された回数が最も多い登録顔画像を選択し、当該選択された登録顔画像と当該グループに含まれる顔領域画像との類似度の平均値であるグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、
前記選択されたグループの前記グループ類似度と所定の認証閾値とを比較して、前記監視領域内の人物と前記登録人物とが同一の人物か否かを判定する判定手段と、
を有することを特徴とする顔画像認証装置。 An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area;
A storage unit for storing registered face images of a plurality of registered persons in advance;
Face detection means for extracting a face area image including a face from the monitoring image each time the monitoring image is acquired;
Face tracking means for tracking the face area image in the monitoring images acquired sequentially;
Light source direction estimating means for estimating a light source direction from the monitoring image;
Classification means for classifying the face area image into a plurality of groups for each light source direction in substantially the same direction;
For each of the plurality of groups, obtain a similarity between the face area image included in the group and the plurality of registered face images, identify a registered face image having the highest similarity for each of the face area images, Select the registered face image with the most specified number of times for each group, and obtain a group similarity that is an average value of the similarity between the selected registered face image and the face area image included in the group, A group selection means for selecting the group having the highest group similarity,
A determination unit that compares the group similarity of the selected group with a predetermined authentication threshold to determine whether the person in the monitoring area and the registered person are the same person;
A face image authentication apparatus characterized by comprising:
予め複数の登録人物の登録顔画像を記憶する記憶部と、
前記監視画像が取得される度に当該監視画像から顔を含む顔領域画像を抽出する顔検出手段と、
順次取得される前記監視画像にて前記顔領域画像を追跡する顔追跡手段と、
前記監視画像から光源方向を推定する光源方向推定手段と、
前記顔領域画像を略同方向の前記光源方向毎に複数のグループに分類する分類手段と、
前記複数のグループのそれぞれについて、当該グループに含まれる前記顔領域画像のそれぞれについて前記複数の登録顔画像との類似度を求め、前記顔領域画像ごとの当該類似度の平均値が最も高い登録顔画像の前記平均値であるグループ類似度を求め、当該グループ類似度が最も高いグループを選択するグループ選択手段と、
前記選択されたグループの前記グループ類似度と所定の認証閾値とを比較して、前記監視領域内の人物と前記登録人物とが同一の人物か否かを判定する判定手段と、
を有することを特徴とする顔画像認証装置。 An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area;
A storage unit for storing registered face images of a plurality of registered persons in advance;
Face detection means for extracting a face area image including a face from the monitoring image each time the monitoring image is acquired;
Face tracking means for tracking the face area image in the monitoring images acquired sequentially;
Light source direction estimating means for estimating a light source direction from the monitoring image;
Classification means for classifying the face area image into a plurality of groups for each light source direction in substantially the same direction;
For each of the plurality of groups, a similarity with the plurality of registered face images is obtained for each of the face area images included in the group, and the registered face having the highest average value of the similarities for each face area image A group selection means for obtaining a group similarity that is the average value of the images and selecting a group having the highest group similarity;
A determination unit that compares the group similarity of the selected group with a predetermined authentication threshold to determine whether the person in the monitoring area and the registered person are the same person;
A face image authentication apparatus characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044349A JP5955031B2 (en) | 2012-02-29 | 2012-02-29 | Face image authentication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012044349A JP5955031B2 (en) | 2012-02-29 | 2012-02-29 | Face image authentication device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013182335A JP2013182335A (en) | 2013-09-12 |
JP2013182335A5 JP2013182335A5 (en) | 2015-03-26 |
JP5955031B2 true JP5955031B2 (en) | 2016-07-20 |
Family
ID=49272956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012044349A Active JP5955031B2 (en) | 2012-02-29 | 2012-02-29 | Face image authentication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5955031B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106133796B (en) * | 2014-03-25 | 2019-07-16 | 苹果公司 | For indicating the method and system of virtual objects in the view of true environment |
JP6550642B2 (en) * | 2014-06-09 | 2019-07-31 | パナソニックIpマネジメント株式会社 | Wrinkle detection device and wrinkle detection method |
WO2017146160A1 (en) | 2016-02-26 | 2017-08-31 | 日本電気株式会社 | Facial verification system, facial verification method, and recording medium |
CN111325059A (en) * | 2018-12-14 | 2020-06-23 | 技嘉科技股份有限公司 | Face recognition method, device and computer readable medium |
JP6997140B2 (en) * | 2019-07-03 | 2022-01-17 | パナソニックi-PROセンシングソリューションズ株式会社 | Information processing equipment, judgment method, and program |
CN110022467B (en) * | 2019-05-14 | 2023-04-07 | 北京中星讯达科技有限公司 | Photoelectric tracking monitoring system integrating four light sources |
JP7415640B2 (en) * | 2020-02-17 | 2024-01-17 | 富士通株式会社 | Authentication method, information processing device, and authentication program |
JP7359044B2 (en) * | 2020-03-09 | 2023-10-11 | 富士通株式会社 | Authentication method, information processing device, and authentication program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4612969B2 (en) * | 2001-07-05 | 2011-01-12 | 富士フイルム株式会社 | Image comparison device, image comparison method, image comparison program, photographing device, and photographing method. |
JP2007206833A (en) * | 2006-01-31 | 2007-08-16 | Toshiba Corp | Biological collation method and device |
JP2007334623A (en) * | 2006-06-15 | 2007-12-27 | Toshiba Corp | Face authentication device, face authentication method, and access control device |
JP5106459B2 (en) * | 2009-03-26 | 2012-12-26 | 株式会社東芝 | Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program |
JP5642410B2 (en) * | 2010-03-30 | 2014-12-17 | パナソニック株式会社 | Face recognition device and face recognition method |
JP5618594B2 (en) * | 2010-03-31 | 2014-11-05 | セコム株式会社 | Face image matching device |
-
2012
- 2012-02-29 JP JP2012044349A patent/JP5955031B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013182335A (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5955031B2 (en) | Face image authentication device | |
JP5010905B2 (en) | Face recognition device | |
JP5955133B2 (en) | Face image authentication device | |
JP4241763B2 (en) | Person recognition apparatus and method | |
US7925093B2 (en) | Image recognition apparatus | |
JP6222948B2 (en) | Feature point extraction device | |
JP2000259814A (en) | Image processor and method therefor | |
JP5127531B2 (en) | Image monitoring device | |
JP2003178306A (en) | Personal identification device and personal identification method | |
KR101172898B1 (en) | Method for detecting liveness for face recognition system | |
JP2001331799A (en) | Image processor and image processing method | |
US11714889B2 (en) | Method for authentication or identification of an individual | |
JP2002507035A (en) | How to authenticate the validity of an image recorded for personal identification | |
JP2012208610A (en) | Face image authentication apparatus | |
JP5766096B2 (en) | Face image authentication device | |
US20210256244A1 (en) | Method for authentication or identification of an individual | |
JP6396357B2 (en) | Face image authentication device | |
CN114270417A (en) | Face recognition system and method capable of updating registered face template | |
US20240169763A1 (en) | Compact system and method for iris recognition | |
JP5726595B2 (en) | Image monitoring device | |
CN110069962A (en) | A kind of biopsy method and system | |
JP6150491B2 (en) | Face recognition device | |
JP2013210788A (en) | Face image authentication device | |
JP5871765B2 (en) | Face image authentication device | |
JP5955057B2 (en) | Face image authentication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5955031 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |