JP5955133B2 - Face image authentication device - Google Patents

Face image authentication device Download PDF

Info

Publication number
JP5955133B2
JP5955133B2 JP2012147529A JP2012147529A JP5955133B2 JP 5955133 B2 JP5955133 B2 JP 5955133B2 JP 2012147529 A JP2012147529 A JP 2012147529A JP 2012147529 A JP2012147529 A JP 2012147529A JP 5955133 B2 JP5955133 B2 JP 5955133B2
Authority
JP
Japan
Prior art keywords
face
person
image
area image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012147529A
Other languages
Japanese (ja)
Other versions
JP2014010686A (en
Inventor
高田 直幸
直幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012147529A priority Critical patent/JP5955133B2/en
Publication of JP2014010686A publication Critical patent/JP2014010686A/en
Application granted granted Critical
Publication of JP5955133B2 publication Critical patent/JP5955133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、予め登録している顔画像に基づいて人物を認証する顔画像認証装置に関する。   The present invention relates to a face image authentication apparatus that authenticates a person based on a face image registered in advance.

従来、予め登録している顔画像に基づいて人物を認証する顔画像認証装置が出入管理システムなどに利用されている。この顔画像認証装置は、人物を撮影した画像から抽出したその人物の顔が写っている顔領域画像と、予め登録された登録顔画像との類似度を算出し、その人物が予め登録された登録者であるか否かを判定する。
このような顔画像認証装置において、登録されていない未登録者が登録者の顔写真または登録顔画像を引き延ばして印刷した紙を自分の顔の前に掲げることにより、登録者と判定されようとする不正行為を試みるようなことが想定される。
2. Description of the Related Art Conventionally, a face image authentication device that authenticates a person based on a pre-registered face image is used in an access control system. This face image authentication device calculates a similarity between a face area image that shows a person's face extracted from an image of a person and a registered face image registered in advance, and the person is registered in advance. Determine whether you are a registrant.
In such a face image authentication apparatus, an unregistered unregistered person tries to be determined as a registrant by holding up a printed face image of the registrant's face or a registered face image in front of his / her face. It is assumed that they try to cheat.

例えば、特許文献1には、カメラの前に停止した人物を撮影した画像を用いてその人物を認証する個人認証装置について、顔写真または顔を印刷した印刷物を使用した不正行為に対するセキュリティ性を向上させるための技術が提案されている。この個人認証装置は、認証対象者を撮像するカメラと、認証対象者を右側及び左側からそれぞれ照らす2台の照明を備えている。個人認証装置は、認証対象者により照合ボタンが押下されると、認証対象者を右側から照らす照明のみを点灯させて認証対象者を撮像し、続けて認証対象者を左側から照らす照明のみを点灯させて認証対象者を撮像する。そして、個人認証装置は、撮像した両方の画像において、照明を照らした側の領域の平均輝度から照明を照らしていない側の領域の平均輝度を引いた差が閾値以上であれば、撮像対象が人間であると判別し、そうでなければ撮像対象が写真または印刷物であると判別する。
しかしながら、特許文献1にかかる個人認証装置は、予め認証対象者に顔の位置を特定させ、その上で照明を制御しなければならず、使い勝手が悪い上、装置コストが高いという問題がある。
For example, Patent Document 1 discloses a personal authentication device that authenticates a person using an image of a person who has stopped in front of a camera, and improves security against fraud using a face photograph or a printed material on which a face is printed. A technique for making this happen has been proposed. This personal authentication device includes a camera that captures an image of the person to be authenticated and two lights that illuminate the person to be authenticated from the right side and the left side. When the verification button is pressed by the person to be authenticated, the personal authentication device illuminates only the light that illuminates the person to be authenticated from the right side, images the person to be authenticated, and then lights only the light that illuminates the person to be authenticated from the left side. And image the person to be authenticated. Then, in both of the captured images, if the difference obtained by subtracting the average luminance of the non-illuminated area from the average luminance of the non-illuminated area is equal to or greater than a threshold value, It is determined that the person is a human, otherwise it is determined that the object to be imaged is a photograph or printed matter.
However, the personal authentication device according to Patent Document 1 has a problem that the face of the person to be authenticated must be specified in advance, and the illumination must be controlled on that, which is inconvenient and expensive.

特開2003−242491号公報Japanese Patent Laid-Open No. 2003-242491

ところで、歩行する人物を撮影した画像に基づいて人物を認証するいわゆるウォークスルー型の顔画像認証装置が開発されている。ウォークスルー型の顔画像認証装置は、人物が通行する通路等を順次撮影して入力画像を取得し、各入力画像から抽出した人物が写っている人物領域を追跡する。そして、同一の人物が写っている人物領域毎に、その人物領域から抽出した人物の顔が写っている顔領域画像と、予め登録された登録顔画像との類似度を算出し、その人物が予め登録された登録者であるか否かを判定する。
このようなウォークスルー型の顔画像認証装置では、人物の歩行にともなって入力画像に写っている人物の位置が変わるので、入力画像ごとに、人物と照明との位置関係・人物とカメラの位置関係など撮影条件が異なる。
他方、写真は、照明方向、カメラから顔までの距離、アングル、使用カメラの性能など写真撮影時に撮影条件が定められ、顔を撮影したときの撮影条件が固定される。つまり、顔が写っている写真をカメラで撮影した場合、写された顔部分は、先の写真撮影時における顔の撮影条件が残存することになる。
発明者は、写真に写った顔画像が先の写真を撮影した時の撮影条件が残っているのに対し、実際の顔を撮影した顔画像は、実際の撮影時における撮影条件が顔画像に表れることを見出した。
By the way, a so-called walk-through type face image authentication device for authenticating a person based on an image obtained by photographing a walking person has been developed. The walk-through face image authentication device sequentially captures passages and the like through which a person passes to acquire input images, and tracks a person area in which a person extracted from each input image is shown. Then, for each person area in which the same person is shown, the similarity between the face area image in which the face of the person extracted from the person area is shown and the registered face image registered in advance is calculated. It is determined whether or not the registrant is registered in advance.
In such a walk-through face image authentication device, the position of the person shown in the input image changes as the person walks. Therefore, for each input image, the positional relationship between the person and the lighting, and the position of the person and the camera The shooting conditions are different.
On the other hand, photographing conditions such as illumination direction, distance from the camera to the face, angle, and performance of the camera used are determined for the photograph, and the photographing condition when the face is photographed is fixed. That is, when a photograph showing a face is taken by a camera, the face photographing conditions at the time of the previous photography remain in the photographed face portion.
The inventor found that the face image captured in the photograph had the shooting conditions when the previous photograph was taken, whereas the face image obtained by shooting the actual face has the shooting conditions at the time of actual shooting changed to the face image. I found out that it appears.

本発明の目的は、ウォークスルー型の顔画像認証装置では、認証を試みる人物が歩行している間に撮影した顔画像はその撮影条件がそれぞれ異なることと、顔写真を用いた不正行為の場合の顔画像は先の撮影条件が残っていることを利用し、顔写真を用いた不正行為を防止する顔画像認証装置を提供することにある。   An object of the present invention is a walk-through type face image authentication apparatus, in which face images taken while a person who is trying to authenticate are walking are different in shooting conditions, and in the case of fraud using a face photograph. It is an object of the present invention to provide a face image authentication apparatus that prevents fraud using a face photograph by utilizing the fact that the previous photographing condition remains.

かかる課題を解決するための本発明は、所定の撮影領域を撮影した入力画像に写っている人物の顔画像と、予め登録された人物の登録顔画像に基づき人物を認証する顔画像認証装置であって、撮影領域を撮影した入力画像を順次取得する画像取得手段と、入力画像から人物領域画像を抽出する人物検出手段と、順次取得される複数の入力画像から抽出された人物領域画像を追跡し、追跡できた人物領域画像を対応付けた系列データを生成する追跡手段と、人物領域画像における顔領域画像から顔の撮影時における撮影条件を示す特徴を算出する顔撮影条件算出手段と、系列データごとに、当該系列データに含まれる人物領域画像の撮影条件を示す特徴が略同一とされる所定範囲内か否かを判定する不正行為判定手段と、不正行為判定手段にて所定範囲内と判定されると、不正行為と認証する認証手段を有する顔画像認証装置を提供する。   The present invention for solving such a problem is a face image authentication device for authenticating a person based on a face image of a person shown in an input image obtained by photographing a predetermined photographing region and a registered face image of a person registered in advance. An image acquisition unit that sequentially acquires an input image obtained by capturing a shooting area, a person detection unit that extracts a person area image from the input image, and a person area image extracted from a plurality of sequentially acquired input images A tracking unit that generates sequence data in which the tracked person area image is associated, a face shooting condition calculation unit that calculates a feature indicating a shooting condition at the time of shooting a face from the face area image in the person area image, and a sequence For each data, the fraud determination means for determining whether or not the characteristics indicating the photographing condition of the person area image included in the series data are within a predetermined range that is substantially the same, and the fraud determination means If it is determined that the constant range, providing a face image authentication device having an authentication means for authenticating a fraud.

また、本発明に係る顔画像認証装置において、人物抽出手段は、人物領域画像として顔領域画像を抽出することが好適である。   In the face image authentication apparatus according to the present invention, it is preferable that the person extracting means extracts a face area image as a person area image.

また、本発明に係る顔画像認証装置において、顔撮影条件算出手段は、顔領域画像から光源方向を求めて、撮影条件を示す特徴に少なくとも当該光源方向を含めることが好適である。また、本発明に係る顔画像認証装置において、顔撮影条件算出手段は、顔領域画像から輝度値の分散を求めて、撮影条件を示す特徴に少なくとも当該分散を含めることが好適である。   In the face image authentication apparatus according to the present invention, it is preferable that the face photographing condition calculating means obtains the light source direction from the face area image and includes at least the light source direction in the feature indicating the photographing condition. In the face image authentication apparatus according to the present invention, it is preferable that the face photographing condition calculation unit obtains a variance of luminance values from the face area image and includes at least the variance in the feature indicating the photographing condition.

また、本発明に係る顔画像認証装置において、人物を直接撮影したサンプル顔領域画像と顔が写っている写真を撮影したサンプル顔領域画像を用いた学習により求めた、人物を直接撮影したサンプル顔領域画像と写真を撮影したサンプル顔領域画像とを識別可能な部分空間を予め記憶している記憶部を更に設け、顔撮影条件算出手段は、顔領域画像を前記部分空間に投影したときの部分空間における位置を求めて、撮影条件を示す特徴に前記部分空間の位置を含めることが好適である。   Further, in the face image authentication apparatus according to the present invention, a sample face obtained by directly photographing a person obtained by learning using a sample face area image obtained by directly photographing a person and a sample face area image obtained by photographing a photograph of the face. A storage unit that preliminarily stores a partial space that can discriminate between the region image and the sample face region image in which the photograph was taken is further provided, and the face photographing condition calculation unit is a portion when the face region image is projected onto the partial space. It is preferable to obtain the position in the space and include the position of the partial space in the feature indicating the photographing condition.

本発明に係るウォークスルー型の顔画像認証装置は、顔写真を用いた不正行為の有無を適切に判定することができるという効果を奏する。   The walk-through type face image authentication device according to the present invention has an effect of being able to appropriately determine the presence or absence of fraud using a face photograph.

(a)及び(b)は、本発明を適用した顔画像認証装置が部屋の入口に設置される場合の撮像部の設置例を表す模式図である。(A) And (b) is a schematic diagram showing the example of installation of an imaging part in case the face image authentication apparatus to which this invention is applied is installed in the entrance of a room. (a)、(b)及び(c)は、写真画策を実施していない人物が特定の位置から照明光を照射された場合の画像の例を示す概略図であり、(d)、(e)及び(f)は、写真画策を実施している人物が特定の位置から照明光を照射された場合の画像の例を示す概略図である。(A), (b), and (c) are schematic views showing examples of images when a person who is not implementing a photographic plan is irradiated with illumination light from a specific position, and (d), (e) ) And (f) are schematic diagrams illustrating an example of an image when a person who is executing a photographic plan is irradiated with illumination light from a specific position. 本発明を適用した顔画像認証装置の概略構成図である。It is a schematic block diagram of the face image authentication apparatus to which this invention is applied. 本発明を適用した顔画像認証装置の処理フローを示す図である。It is a figure which shows the processing flow of the face image authentication apparatus to which this invention is applied. 本発明を適用した顔画像認証装置の処理フローを示す図である。It is a figure which shows the processing flow of the face image authentication apparatus to which this invention is applied. (a)及び(b)は、光源方向の算出方法を説明する図である。(A) And (b) is a figure explaining the calculation method of a light source direction. 履歴テーブルの模式図である。It is a schematic diagram of a history table. (a)、(b)、(c)、(d)、(e)及び(f)は、顔領域画像の例を示す図である。(A), (b), (c), (d), (e), and (f) are figures which show the example of a face area image.

以下、本発明を出入管理システムに適用した場合の一実施形態である顔画像認証装置について図を参照しつつ説明する。
本発明を適用した顔画像認証装置は、歩行する人物を順次撮影した複数の入力画像のそれぞれから同一の人物の顔が写っている領域を抽出して顔領域画像とする。各顔領域画像について、顔領域画像に写っている人物の顔に照射されている光源方向を求める。この顔領域画像から求められる光源方向は、凹凸のある実際の顔を撮影した時の光源方向を表している。ところで、実際に歩行している人物の顔を撮影した際の顔領域画像では、歩行に伴う照明位置の変化によって、顔に存在する鼻や唇等の凹凸によって生じる顔領域画像に現れる陰影が変化し、これにより求まる光源方向も変化する。他方、顔写真を撮影した際の顔領域画像では、かかる顔写真を撮影した時の光源方向は、歩行に伴う照明位置が変化しても、写真に写った顔領域画像に現れる全体的な明暗は変化するが、陰影は基本的に変化せず、これにより求まる光源方向も基本的に変化しない。すなわち、かかる光源方向は、顔撮影時の撮影条件を示す特徴の一つである。そこで、顔画像認証装置は、各入力画像から抽出された顔領域画像についての撮影条件を示す特徴の一つである光源方向が、同一人物として追跡された顔領域画像の中で変化していなければ、顔領域画像に写っているのが顔写真であると判定する。これにより、顔画像認証装置は、顔写真を使用した不正行為の有無の適切な判定を図る。
Hereinafter, a face image authentication apparatus according to an embodiment when the present invention is applied to an access control system will be described with reference to the drawings.
The face image authentication device to which the present invention is applied extracts a region in which the same person's face is shown from each of a plurality of input images obtained by sequentially photographing a walking person and uses it as a face region image. For each face area image, the direction of the light source applied to the face of the person shown in the face area image is obtained. The light source direction obtained from the face region image represents the light source direction when an actual face having an uneven surface is photographed. By the way, in the face area image when photographing the face of a person who is actually walking, the shadow appearing in the face area image caused by unevenness such as nose and lips present on the face changes due to the change of the illumination position accompanying walking As a result, the light source direction obtained also changes. On the other hand, in the face area image when a face photograph is taken, the light source direction when the face photograph is taken is the overall light and darkness that appears in the face area image shown in the photograph even if the illumination position changes due to walking. Changes, but the shadow basically does not change, and the direction of the light source obtained thereby does not change basically. That is, the light source direction is one of the characteristics indicating the shooting conditions at the time of face shooting. Therefore, in the face image authentication device, the light source direction, which is one of the characteristics indicating the shooting conditions for the face area image extracted from each input image, must be changed in the face area image tracked as the same person. For example, it is determined that the face photograph is in the face area image. As a result, the face image authenticating apparatus appropriately determines the presence or absence of fraud using a face photograph.

図1(a)及び図1(b)に、部屋の入口の出入を管理するために、顔画像認証装置1に接続される撮像部3の設置例を模式的に示し、撮像部3が撮影する撮影領域の状態を説明する。図1(a)及び図1(b)に示すように、顔画像認証装置1が部屋の入口100の出入を管理する。この場合、撮像部3は、入口100に通じる通路を撮影領域として撮影できるように入口100の近傍の壁面または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。これにより撮像部3は、進行方向101に沿って入口100に向かう人物を撮像することができる。また、入口100に通じる通路の天井には照明装置としてダウンライト102が、照射方向が下向きとなるように設置される。
図1(a)では、撮像部3が、所定時間間隔の時刻(t1)、(t1+1)、(t1+2)において入口100に向かう同一の人物110、111、112を順次撮影する様子を示している。一方、図1(b)では、撮像部3が、所定時間間隔の時刻(t2)、(t2+1)、(t2+2)において入口100に向かう同一の人物120、121、122を順次撮影する様子を示している。この人物120、121、122は、顔画像認証装置1に登録されていない未登録者であり、顔画像認証装置1に予め登録されている登録者の顔写真103を自分の顔の前に掲げている。つまり、この人物は、自分の顔の代わりに、登録者の顔写真103を撮像部3に撮影させて、登録者の顔写真103により認証を受けようとする不正行為を行っている様子を示している。このような顔写真を用いた不正行為を以下では写真画策と称する。
FIG. 1A and FIG. 1B schematically show an installation example of the imaging unit 3 connected to the face image authentication device 1 in order to manage entrance / exit of the room. The state of the shooting area to be performed will be described. As shown in FIGS. 1A and 1B, the face image authentication device 1 manages the entrance and exit of the entrance 100 of the room. In this case, the imaging unit 3 is attached to the wall surface or ceiling near the entrance 100 so that the shooting direction is directed slightly downward and toward the passage side so that the passage leading to the entrance 100 can be taken as a shooting region. As a result, the imaging unit 3 can image a person heading toward the entrance 100 along the traveling direction 101. In addition, a downlight 102 is installed on the ceiling of the passage leading to the entrance 100 so that the irradiation direction is downward.
In FIG. 1A, the imaging unit 3 sequentially photographs the same person 110, 111, 112 heading for the entrance 100 at times (t1), (t1 + 1), and (t1 + 2) at predetermined time intervals. Is shown. On the other hand, in FIG. 1B, the imaging unit 3 sequentially photographs the same person 120, 121, 122 heading for the entrance 100 at times (t2), (t2 + 1), and (t2 + 2) at predetermined time intervals. It shows how to do. These persons 120, 121, and 122 are unregistered persons who are not registered in the face image authentication apparatus 1, and the registered person's face photograph 103 registered in advance in the face image authentication apparatus 1 is placed in front of his / her face. ing. That is, this person shows a state of performing an illegal act in which the imaging unit 3 is photographed in place of his / her face by the imaging unit 3 and authentication is attempted by the registrant's facial photograph 103. ing. Such fraud using a face photograph is hereinafter referred to as a photographic plan.

以下、撮像部3の撮影条件の一つである、通路を歩行する人物とダウンライト102との位置関係、即ち光源方向の時間的な変化について説明する。図1(a)では、撮像部3から見ると、時刻(t1)において、人物110はダウンライト102より奥側に位置し、ダウンライト102により顔の前面が照射される。そして、時刻(t1+1)において、人物111はダウンライト102の直下に位置し、ダウンライト102により頭上から照射される。そして、時刻(t1+2)において、人物112はダウンライト102より手前側に位置し、ダウンライト102により背後から照射される。
同様に、図1(b)では、撮像部3から見ると、時刻(t2)において、人物120はダウンライト102より奥側に位置し、ダウンライト102により登録者の顔写真103の前面が照射される。そして、時刻(t2+1)において、人物121はダウンライト102の直下に位置し、ダウンライト102により頭上から照射されるが、写真103には背面が照射されている。そして、時刻(t2+2)において、人物122はダウンライト102より手前側に位置し、ダウンライト102により背後から照射され、写真103の背面が照射されている。
Hereinafter, a positional relationship between the person walking in the passage and the downlight 102, that is, a temporal change in the light source direction, which is one of the imaging conditions of the imaging unit 3, will be described. In FIG. 1A, when viewed from the imaging unit 3, the person 110 is positioned behind the downlight 102 at the time (t1), and the front of the face is illuminated by the downlight 102. At time (t1 + 1), the person 111 is positioned immediately below the downlight 102 and is irradiated from above the head by the downlight 102. At time (t1 + 2), the person 112 is positioned on the front side of the downlight 102 and is irradiated from behind by the downlight 102.
Similarly, in FIG. 1B, when viewed from the imaging unit 3, at time (t2), the person 120 is positioned behind the downlight 102, and the front face of the registrant's face photograph 103 is illuminated by the downlight 102. Is done. At time (t2 + 1), the person 121 is positioned immediately below the downlight 102 and is irradiated from above by the downlight 102, but the back surface of the photograph 103 is irradiated. At time (t2 + 2), the person 122 is positioned on the front side of the downlight 102 and is illuminated from behind by the downlight 102, and the back surface of the photograph 103 is illuminated.

図2は、撮像部3が撮影した入力画像から人物領域を抽出した人物領域画像を示している。
図2(a)、(b)、(c)は、図1(a)における写真画策を行っていない人物110,111,112がそれぞれの位置にてダウンライト102から照射されている時に撮影された入力画像から抽出した人物領域画像の例を示し、図2(d)、(e)、(f)は、図1(b)における写真画策を行っている人物120,121,122がそれぞれの位置にてダウンライト102から照射されているときに撮影された入力画像から抽出した人物領域画像の例を示している。同図では、照明による陰影を右上方から左斜め下方への斜線で示し、陰影が濃いほど斜線を太くしている。
FIG. 2 shows a person area image obtained by extracting a person area from an input image taken by the imaging unit 3.
2 (a), 2 (b), and 2 (c) are taken when the persons 110, 111, and 112 who have not performed the photography plan in FIG. 1 (a) are irradiated from the downlight 102 at the respective positions. 2 (d), 2 (e), and 2 (f) show examples of person area images extracted from the input image. The figure shows an example of a person area image extracted from an input image photographed when being illuminated from the downlight 102 at a position. In the figure, the shadows due to illumination are indicated by diagonal lines from the upper right to the lower left, and the darker the shadows are, the thicker the diagonal lines are.

図2(a)は、図1(a)の時刻(t1)において、人物110を撮影した入力画像から抽出した人物領域画像200を示す。人物領域画像200は、人物110はダウンライト102の光が前方上方から照射しているので、顔領域が明るく眉毛や鼻などの顔の凹凸による陰影も少ない画像となっている。
図2(b)は、図1(a)の時刻(t1+1)において、人物111を撮影した入力画像から抽出した人物領域画像201を示す。人物領域画像201は、人物111は略直上からダウンライト102の光が照射されている。人間の顔には凹凸が存在し、凹んでいる部分には直上からの光が当たらずに陰影が生じるため、額、頬上部及び鼻筋のみが明るくなり、眼窩付近、頬下部から顎にかけて陰影が生じている。このように、人物領域画像201は、顔上に人物領域画像201と異なる陰影が表れた画像となっている。
図2(c)は、図1(a)の時刻(t1+2)において、人物112を撮影した入力画像から抽出した人物領域画像202を示す。人物領域画像202は、人物112は後方から照射され、ダウンライト102が逆光となり、人物領域画像201や人物領域画像202とは異なり全体が照明の影となり、全体的な陰影が生じている。
FIG. 2A shows a person region image 200 extracted from an input image obtained by photographing the person 110 at time (t1) in FIG. The person area image 200 is an image in which the person 110 is irradiated with the light of the downlight 102 from the upper front, so that the face area is bright and there is little shading due to facial irregularities such as eyebrows and nose.
FIG. 2B shows a person region image 201 extracted from an input image obtained by photographing the person 111 at time (t1 + 1) in FIG. In the person area image 201, the person 111 is irradiated with light from the downlight 102 from substantially above. Since the human face has irregularities and the concave part is not exposed to light from directly above, shadows are generated, so only the forehead, upper cheeks and nose are brightened, and there are shadows near the orbit, from the lower cheeks to the chin Has occurred. Thus, the person area image 201 is an image in which a shadow different from the person area image 201 appears on the face.
FIG. 2C shows a person area image 202 extracted from an input image obtained by photographing the person 112 at time (t1 + 2) in FIG. In the person area image 202, the person 112 is illuminated from behind, the downlight 102 is backlit, and unlike the person area image 201 and the person area image 202, the entire area becomes a shadow of illumination, and an overall shadow is generated.

図2(d)は、図1(b)の時刻(t2)において、人物120が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像203を示す。人物120は、自分の顔の前に顔写真103を掲げているので、人物領域画像203は、顔写真103部分についてダウンライト102による陰影が生じないので、顔領域204のように顔写真に写っているままの陰影がそのまま撮影されている。図2(e)は、図1(b)の時刻(t2+1)において、人物121が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像205を示す。人物121は、自分の顔の前に顔写真103を掲げており、人物領域画像205は、人物121の直上から照明が照射されるが平面物である顔写真103には一様に背後から照射されることとなり、顔領域206の全体に陰影が生じている。顔写真103の全体に陰影が生じているが写真撮影時の陰影はそのまま保存されている。つまり、顔写真103は平面であり、人間の顔のような凹凸は存在しないため、顔領域206には、図2(b)の場合のような顔の凹凸による陰影は生じない。この顔写真103はダウンライト102により背面に光が照射されているため、顔領域206では、図2(d)の場合ほど明るくならず、写真全体がやや暗くなっている。
図2(f)は、図1(b)の時刻(t2+2)において、人物122が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像207を示す。人物122は、自分の顔の前に顔写真103を掲げているので、人物領域画像207には、顔写真103が顔領域208のように写っている。人物領域画像207は、顔写真103は後方から光を照射され、ダウンライト102が逆光となり、顔領域208の全体に陰影が生じている。図2(e)の場合と同様に、顔写真103の全体に陰影が生じているが写真撮影時の陰影はそのまま保存されている。この顔領域208には、図2(b)の場合のような顔の凹凸による新たな陰影は生じず、写真全体が暗くなる。
FIG. 2D shows a person area image extracted from an input image taken with the person 120 holding the registrant's face photograph 103 in front of his / her face at time (t2) in FIG. 1B. 203 is shown. Since the person 120 holds the face photograph 103 in front of his / her face, the person area image 203 is not reflected by the downlight 102 in the face photograph 103 portion. The shadows are taken as they are. FIG. 2 (e) shows a person extracted from an input image taken at a time (t2 + 1) in FIG. 1 (b) with the person 121 holding the registrant's face photograph 103 in front of his / her face. An area image 205 is shown. The person 121 holds the face photograph 103 in front of his / her face, and the person area image 205 is illuminated from directly above the person 121, but the face photograph 103 which is a flat object is uniformly illuminated from behind. As a result, the entire face area 206 is shaded. Although a shadow is generated in the entire face photograph 103, the shadow at the time of photographing is stored as it is. That is, since the face photograph 103 is a flat surface and has no unevenness like a human face, the face region 206 is not shaded by the unevenness of the face as in FIG. Since the face photo 103 is illuminated by the downlight 102 on the back, the face region 206 is not as bright as in FIG. 2D, and the entire photo is slightly dark.
FIG. 2 (f) shows a person extracted from an input image taken at a time (t2 + 2) in FIG. 1 (b) with the person 122 holding the registrant's face photograph 103 in front of his / her face. An area image 207 is shown. Since the person 122 has the face picture 103 in front of his / her face, the face picture 103 is shown in the person area image 207 as a face area 208. In the person area image 207, the face photograph 103 is irradiated with light from behind, the downlight 102 is backlit, and the entire face area 208 is shaded. As in the case of FIG. 2 (e), a shadow is generated in the entire face photograph 103, but the shadow at the time of photographing is stored as it is. In this face area 208, a new shadow due to the unevenness of the face as in the case of FIG. 2B does not occur, and the entire photograph becomes dark.

つまり、写真画策が行われていない場合は、人物の移動にともなって、その人物の顔を照射するダウンライト102の顔との相対的な位置が変化、即ち撮影した時の光源方向が変化するので、撮影した画像に写っている人物の顔の凹凸による陰影が変化する。一方、写真画策が行われている場合、その人物が掲げる顔写真に写っている顔に生じている陰影は、全体が明るく或いは暗くなるような変化は出るが、その写真を撮影した時の光源による陰影がそのまま保存されている。つまり、人物が移動しても、その人物が掲げる顔写真に写っている顔において、その顔写真を撮影した時の撮影条件を示す特徴の一つである光源方向は変化することがないので、顔写真に写っている人物の顔の凹凸による陰影は基本的に変化しない。そこで、顔画像認証装置は、撮影した各画像から同一の人物が写っている領域を追跡し、各領域に写っているその人物の顔における陰影から推定される光源方向が、変化しなければ写真画策が行われていると判定し、変化すれば写真画策が行われていないと判定することができる。   In other words, when no photographic scheme is performed, the relative position of the downlight 102 that irradiates the face of the person changes with the movement of the person, that is, the direction of the light source at the time of shooting changes. Therefore, the shading due to the unevenness of the face of the person in the photographed image changes. On the other hand, when a photographic plan is being implemented, the shadow that appears on the face in the face photo that the person raises changes so that the whole image becomes brighter or darker, but the light source when the photograph was taken The shade by is saved as it is. In other words, even if a person moves, the light source direction, which is one of the characteristics indicating the shooting conditions when shooting the face photo, does not change in the face reflected in the face photo that the person raises. The shading caused by the unevenness of the person's face in the face photo is basically unchanged. Therefore, the face image authentication device tracks an area in which the same person is captured from each captured image, and if the light source direction estimated from the shadow on the face of the person in each area does not change, the photograph It can be determined that the plotting is being performed, and if the plan is changed, it can be determined that no photographic plotting is being performed.

以下、図3を参照し、顔画像認証装置1について詳細に説明する。図3は、本発明を適用した顔画像認証装置1の概略構成を示す図である。顔画像認証装置1は、画像処理部10、出力部20及び記憶部30から構成されている。   Hereinafter, the face image authentication device 1 will be described in detail with reference to FIG. FIG. 3 is a diagram showing a schematic configuration of the face image authentication apparatus 1 to which the present invention is applied. The face image authentication device 1 includes an image processing unit 10, an output unit 20, and a storage unit 30.

ここで、撮像部3について説明する。撮像部3は、図1に示したように所定の領域を撮影する監視カメラである。以下、撮像部3が撮影する所定の領域を撮影領域と称する。撮像部3は、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に撮影領域の像を結像するための結像光学系を有する。撮像部3は、撮影領域内を通行する人物の顔を順次撮影できるように人物の通行方向の略正面に設置される。そして撮像部3は、所定の時間間隔(例えば、200msec)ごとに、撮影領域を撮影して入力画像を取得する。入力画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、入力画像を、横1280画素×縦960画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、入力画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。撮像部3は、顔画像認証装置1と接続され、取得した入力画像を画像処理部10へ渡す。   Here, the imaging unit 3 will be described. The imaging unit 3 is a surveillance camera that captures a predetermined area as shown in FIG. Hereinafter, the predetermined area that the imaging unit 3 captures is referred to as an imaging area. The imaging unit 3 is, for example, a two-dimensional array of photoelectric conversion elements (for example, a CCD sensor, a C-MOS, etc.) that outputs an electrical signal corresponding to the amount of received light, and an image of a shooting area on the photoelectric conversion element. An image forming optical system for forming an image. The imaging unit 3 is installed substantially in front of the person's passing direction so that the face of the person passing through the shooting area can be sequentially shot. And the imaging part 3 image | photographs an imaging | photography area | region and acquires an input image for every predetermined time interval (for example, 200 msec). The input image can be a grayscale or color multi-tone image. In this embodiment, the input image is a color image having 1280 pixels wide × 960 pixels vertically and having a luminance resolution of 8 bits for each of the RGB colors. However, an input image having a resolution and gradation other than this embodiment may be used. The imaging unit 3 is connected to the face image authentication device 1 and passes the acquired input image to the image processing unit 10.

記憶部30は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。
記憶部30には入口100の通行を許可されている人物の氏名、登録者ID及び登録顔画像などの登録者データ31、入力画像から抽出した人物の追跡データの履歴情報である履歴テーブル32、および人物の標準的な顔形状をモデル化した3次元顔形状モデル33を記憶している。記憶部30には、図示していないが顔画像認証装置1を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶されている。
The storage unit 30 includes a semiconductor memory such as a ROM and a RAM, or a magnetic recording medium and its access device or an optical recording medium and its access device.
In the storage unit 30, registrant data 31 such as the name, registrant ID, and registered face image of a person permitted to pass through the entrance 100, a history table 32 that is history information of person tracking data extracted from the input image, And a three-dimensional face shape model 33 in which a standard face shape of a person is modeled. Although not shown, the storage unit 30 stores in advance a computer program and various parameters for controlling the face image authentication apparatus 1.

出力部20は、外部の接続機器である電気錠、認証結果表示ランプ等と接続するインターフェース及びその制御回路である。そして出力部20は、画像処理部10から人物についての認証成功を示す信号を受け取ると、接続されている電気錠に対して解錠制御を行なう信号を出力する。また、出力部20は、画像処理部10が認証OK、認証NGまたは不正行為(写真画策)との認証結果を得ると、その結果に応じて不図示の認証結果表示ランプを点灯または消灯させる。あるいは、認証結果を監視センタ装置へ出力するように構成しても良い。   The output unit 20 is an interface connected to an electric lock, an authentication result display lamp or the like, which is an external connection device, and a control circuit thereof. When the output unit 20 receives a signal indicating successful authentication of the person from the image processing unit 10, the output unit 20 outputs a signal for performing unlocking control on the connected electric lock. Further, when the image processing unit 10 obtains an authentication result of authentication OK, authentication NG, or fraud (photographing plan), the output unit 20 turns on or turns off an authentication result display lamp (not shown) according to the result. Alternatively, the authentication result may be output to the monitoring center device.

画像処理部10は、例えば、いわゆるコンピュータにより構成され、撮像部3からの入力画像に対し記憶部30を参照等しながら各種処理を実行し、出力部20からその結果を外部へ出力させる。具体的に画像処理部10は、画像取得手段11、人物検出手段12、顔抽出手段13、追跡手段14、顔撮影条件算出手段15、不正行為判定手段16、顔照合手段17、認証手段18、結果出力手段19から構成されている。
画像処理部10の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成してもよい。以下、画像処理部10の各手段について詳細に説明する。
The image processing unit 10 is configured by, for example, a so-called computer, and executes various processes on the input image from the imaging unit 3 while referring to the storage unit 30 and outputs the result from the output unit 20 to the outside. Specifically, the image processing unit 10 includes an image acquisition unit 11, a person detection unit 12, a face extraction unit 13, a tracking unit 14, a face photographing condition calculation unit 15, an illegal act determination unit 16, a face collation unit 17, an authentication unit 18, The result output means 19 is comprised.
Each means of the image processing unit 10 is a functional module implemented by a microprocessor, a memory, a peripheral circuit thereof, and software operating on the microprocessor. These means may be integrated by firmware. Moreover, you may comprise some or all of these means with an independent electronic circuit, firmware, a microprocessor, etc. Hereinafter, each unit of the image processing unit 10 will be described in detail.

画像取得手段11は、撮像部3にて撮影した入力画像を画像処理部10にて処理する可能にするためのインターフェースであり、撮像部3の入力画像を直接取り込めるような場合には不要となる。本実施の形態では、撮像部3から撮影順に画像が順次入力されるので、入力画像を入力順に処理可能な画像データに変換して人物検出手段12へ渡す。なお、本実施の形態では、撮像部3が撮影した順に入力画像を出力しているが、ハードディスク等の媒体から入力画像を取得する際は、撮影時順に媒体から入力画像を取得する機能を付加させてもよい。   The image acquisition unit 11 is an interface for enabling the image processing unit 10 to process an input image captured by the imaging unit 3 and is not necessary when the input image of the imaging unit 3 can be directly captured. . In the present embodiment, since images are sequentially input from the imaging unit 3 in the order of shooting, the input images are converted into image data that can be processed in the order of input and passed to the person detection means 12. In the present embodiment, the input images are output in the order in which the image capturing unit 3 took the images. However, when acquiring the input images from a medium such as a hard disk, a function of acquiring the input images from the medium in the order of shooting is added. You may let them.

人物検出手段12は、画像取得手段11から入力画像を取得する度に、取得した入力画像から人物が写っている領域が存在するか否かを判定し、存在すればその人物領域画像を抽出する。なお、人物が写っている領域が存在するか否かは、フレーム差分法により変化領域を抽出し、その変化領域の大きさや縦横比等を用いて人物か否かを判定する。なお、人物検出の方法は、背景差分法、識別器の利用など種々存在しており、本発明としてはいかなる方法を採用しても良い。ここでは、人物の検出方法については、本発明の本質的部分ではないので詳細な説明は割愛する。   Each time the person detection unit 12 acquires an input image from the image acquisition unit 11, the person detection unit 12 determines whether or not there is a region in which a person is captured from the acquired input image, and if there is, extracts the person region image. . Whether there is an area in which a person is present or not is determined by extracting a change area by a frame difference method and determining whether the area is a person by using the size, aspect ratio, and the like of the change area. There are various human detection methods such as a background subtraction method and the use of a discriminator, and any method may be adopted as the present invention. Here, since the person detection method is not an essential part of the present invention, a detailed description thereof will be omitted.

顔抽出手段13は、人物領域画像から人物の顔が写っている領域である顔領域を検出し、その顔領域を含むように矩形状に切り取り、図8に示すような顔領域画像を抽出する。具体的には、顔抽出手段13は、人物領域画像に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔抽出手段13は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を基に顔領域画像を抽出する。
この場合において、顔抽出手段13は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。なお、顔領域画像の抽出方法は、種々存在するので適宜、他の方法を採用しても良い。例えば、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.Violaと M.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001)を参照することができる。
The face extraction means 13 detects a face area that is an area in which a person's face is reflected from the person area image, cuts it into a rectangular shape so as to include the face area, and extracts a face area image as shown in FIG. . Specifically, the face extracting means 13 performs edge pixel extraction on the person region image using a Sobel filter or the like so that the inclination direction of the luminance change can be known. Then, the face extracting means 13 detects an elliptical edge distribution having a predetermined size and approximating the contour shape of the head from the extracted edge pixels, and the face area is based on the area surrounded by the edge distribution. Extract images.
In this case, the face extraction unit 13 can detect an elliptical edge distribution using, for example, a generalized Hough transform. Since there are various face area image extraction methods, other methods may be employed as appropriate. For example, the face area may be detected using an Adaboost classifier. This method is described in a paper by P. Viola and M. Jones “Rapid Object Detection Using a Boosted Cascade of Simple Features” (Proc. The IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001). ) Can be referred to.

ところで、本実施の形態では、顔抽出手段13は、人物検出手段12が抽出した人物領域画像に対して顔領域抽出の処理を行っているが、入力画像から直接顔領域抽出の処理を実行してもよい。そして、顔抽出手段13にて抽出した顔領域画像を人物領域画像として、追跡処理などの処理をするようにしても良い。この場合、顔抽出手段13が人物検出手段12の役割を兼ねることとなる。   By the way, in the present embodiment, the face extraction unit 13 performs a face region extraction process on the person region image extracted by the person detection unit 12, but directly executes a face region extraction process from the input image. May be. Then, the face area image extracted by the face extraction unit 13 may be used as a person area image to perform processing such as tracking processing. In this case, the face extraction unit 13 also serves as the person detection unit 12.

追跡手段14は、人物検出手段12が抽出した人物領域画像について、公知のトラッキング技術を用いて追跡処理を実行する。そして、順次処理する入力画像にて同一人物として追跡された人物領域画像を履歴テーブル32の人物領域画像74に、撮像部3における入力画像の撮影時刻を時刻72に、画像上の人物領域の位置情報を追跡位置73に記憶させる。なお、履歴テーブル32の系列データの詳細については、図7を参照して後述する。
追跡手段14は、所定の時間間隔で順次取得される現フレームの入力画像の人物領域画像それぞれについて、前フレームの入力画像(1時点前の入力画像)から抽出された人物領域画像との対応関係を用いてトラッキングを実行する。例えば、人物領域ごとに、現フレームの人物領域画像の重心位置と前フレームの人物領域画像の重心位置との距離を求めて、その距離が所定の閾値以下である場合に、その人物領域を同一人物によるものとして系列データとして対応付ける。また、追跡手段321は、人物領域と対応付けることができなかった場合、その現フレームの人物領域は、新たに撮影領域内に入ってきた人物が写っているものとして、履歴テーブル32にその人物についての系列データとして、試行番号70の行を新たに追加する。
なお、トラッキング技術には、重心位置ばかりでなく、色の類似度、形状の類似度、移動速度など種々のパラメータを用いたものが数多く存在するが、本発明にとって本質ではないので詳細の説明は省略する。なお、人物領域の追跡を行なえる方式であればオプティカルフロー、パーティクルフィルタ等の方法などいかなる方式を採用しても良い。
The tracking unit 14 performs tracking processing on the person region image extracted by the person detection unit 12 using a known tracking technique. Then, the person area image tracked as the same person in the input image to be processed sequentially is the person area image 74 of the history table 32, the shooting time of the input image in the imaging unit 3 is the time 72, and the position of the person area on the image Information is stored in the tracking position 73. Details of the series data in the history table 32 will be described later with reference to FIG.
The tracking unit 14 correlates each person area image of the input image of the current frame that is sequentially acquired at a predetermined time interval with the person area image extracted from the input image of the previous frame (the input image one point before). Perform tracking using. For example, for each person area, the distance between the centroid position of the person area image of the current frame and the centroid position of the person area image of the previous frame is obtained, and if the distance is equal to or less than a predetermined threshold, the person area is the same Corresponding as a series of data by a person. If the tracking unit 321 cannot associate the person with the person area, the person area of the current frame is assumed to include a person who has newly entered the shooting area, and the person is recorded in the history table 32. As a series data, a new row of trial number 70 is added.
There are many tracking techniques that use not only the center of gravity position but also various parameters such as color similarity, shape similarity, movement speed, etc., but these are not essential to the present invention and will not be described in detail. Omitted. Note that any method such as an optical flow method, a particle filter method, or the like may be adopted as long as the method can track a person area.

顔撮影条件算出手段15は、顔抽出手段13にて抽出した顔領域画像から顔が撮影された際の撮影条件を示す特徴を算出する手段である。本実施の形態では、顔領域画像にある顔の陰影から顔を撮影した時の光源方向を推定する。なお、ここで言う「顔」とは、3次元の形状を有している実物の顔を指しており、写真を意味しているわけではない。   The face photographing condition calculating means 15 is a means for calculating a feature indicating a photographing condition when a face is photographed from the face area image extracted by the face extracting means 13. In the present embodiment, the light source direction when a face is photographed is estimated from the shadow of the face in the face area image. The “face” here refers to a real face having a three-dimensional shape, and does not mean a photograph.

顔撮影条件算出手段15は、顔抽出手段13によって抽出された顔領域画像に対して、その顔領域画像に写っている顔とその顔に陰影を与える光源との位置関係を表す光源方向を求める。
先ず、顔撮影条件算出手段15は、記憶部30に記憶されている3次元顔形状モデル33に回転、拡大/縮小などの処理をしつつ、3次元顔形状モデル33が有する複数の顔形状特徴点と、当該顔形状特徴点に相当する顔領域画像における特徴点との位置合わせを行ない、図6に示すような位置合わせされた位置合わせ済み形状モデル600を作成する。
The face photographing condition calculation unit 15 obtains a light source direction representing a positional relationship between a face shown in the face region image and a light source that gives a shadow to the face with respect to the face region image extracted by the face extraction unit 13. .
First, the face photographing condition calculation unit 15 performs a process such as rotation, enlargement / reduction, and the like on the three-dimensional face shape model 33 stored in the storage unit 30, and a plurality of face shape features included in the three-dimensional face shape model 33. A point and a feature point in the face area image corresponding to the face shape feature point are aligned, and an aligned shape model 600 as shown in FIG. 6 is created.

次に、図6を参照し、光源方向の算出方法について説明する。図6(a)は、位置合わせ済み形状モデル600に対して光源601から光を照射し、陰影(斜線)を付けた状況の概念図である。また、顔撮影条件算出手段15は、図6(a)の陰影が付けられた位置合わせ済み形状モデル600から二次元の平面画像に射影した図6(b)に示す陰影画像を生成する。
顔撮影条件算出手段15は、位置合わせ済み形状モデル600に対して種々の光源方向から光を照射した際に生じる顔の凹凸に起因する位置合わせ済み形状モデル600における陰影画像を求める。また、当該陰影画像ごとに、陰影が付けられたときの光源601への方向ベクトルを光源方向として記憶している。
そして、顔撮影条件算出手段15は、顔抽出手段13が抽出した顔領域画像と図6(b)の光源方向ごとに生成された陰影画像と比較し、陰影が略合致する位置合わせ済み形状モデルを特定する。そして、対応する位置合わせ済み形状モデル600の光源方向を履歴テーブル32の光源方向75に記憶させる。
Next, a method for calculating the light source direction will be described with reference to FIG. FIG. 6A is a conceptual diagram of a situation in which light is applied from the light source 601 to the aligned shape model 600 and is shaded (hatched). Further, the face photographing condition calculation unit 15 generates a shadow image shown in FIG. 6B, which is projected from the aligned shape model 600 with the shadow shown in FIG. 6A onto a two-dimensional planar image.
The face photographing condition calculation unit 15 obtains a shadow image in the aligned shape model 600 caused by the unevenness of the face that is generated when light is irradiated from various light source directions to the aligned shape model 600. Further, for each shadow image, the direction vector to the light source 601 when the shadow is added is stored as the light source direction.
Then, the face photographing condition calculation means 15 compares the face region image extracted by the face extraction means 13 with the shadow image generated for each light source direction in FIG. Is identified. Then, the light source direction of the corresponding registered shape model 600 is stored in the light source direction 75 of the history table 32.

なお、光源方向は、位置合わせ済み形状モデルの3次元の正規直交座標系(X,Y,Z)で表されるベクトルとしている。図6に示すように、この座標系では、位置合わせ済み形状モデル600の重心を原点とし、位置合わせ済み形状モデル600の水平方向をX軸、垂直方向をY軸、X軸及びY軸と直交する方向をZ軸とする。光源方向は、X軸成分lX、Y軸成分lY及びZ軸成分lZを用いて(lX,lY,lZ)と表される。かかる光源方向は、顔を撮影した際の撮影条件を示す特徴としての性質を有する。
なお、光源方向を推定するための方法は、これに限られるものではなく、種々の公知な方法を用いることができる。
The light source direction is a vector represented by a three-dimensional orthonormal coordinate system (X, Y, Z) of the aligned shape model. As shown in FIG. 6, in this coordinate system, the center of gravity of the aligned shape model 600 is the origin, the horizontal direction of the aligned shape model 600 is the X axis, the vertical direction is the Y axis, and the X axis and the Y axis are orthogonal. The direction to do is the Z axis. The light source direction is expressed as (l X , l Y , l Z ) using the X-axis component l X , the Y-axis component l Y and the Z-axis component l Z. Such a light source direction has a characteristic as a feature indicating a photographing condition when a face is photographed.
Note that the method for estimating the light source direction is not limited to this, and various known methods can be used.

不正行為判定手段16は、追跡中の人物領域画像にかかる記憶部30の履歴テーブル32の同一の系列データにおける光源方向75を参照し、系列データに記憶されている光源方向をすべて読み出す。そして、不正行為判定手段16は、読み出した光源方向のレコードが3レコード以上存在するか否かを判定し、3以上存在すれば、それらの光源方向が±5度の範囲内(所定範囲の例)に収まっているか否かを更に判定する。3以上存在しない場合は、不正行為判定手段16は、±5度の範囲内に収まっているかの判断はしない。そして、所定範囲内に収まっていれば写真画策が行なわれたと判定し、認証手段18に写真画策の旨を認証手段18へ出力する。他方、所定範囲内に収まっていなければ特別の処理は行なわない。
ここで、所定の範囲とは、光源方向の算出誤差の範囲と考えられる程度の範囲が好ましい。この範囲は、撮像部3の設置が想定される環境での光源方向の変動量と、顔撮影条件算出手段15での算出誤差の程度を考慮し、これらを区別可能な程度に実験または経験から予め設定される。
なお、本実施の形態では、光源方向のレコードが3レコード以上で判断しているが、2レコードでもよいし、それ以上の数としてもよい。これは、認証結果を出すにあたっての必要な時間的な制約や物理的な制約等に応じて設定する。
The fraud determination means 16 refers to the light source direction 75 in the same series data in the history table 32 of the storage unit 30 related to the person area image being tracked, and reads all the light source directions stored in the series data. Then, the fraud determination means 16 determines whether or not there are three or more records of the read light source direction, and if there are three or more, the light source direction is within a range of ± 5 degrees (an example of a predetermined range). ) Is further determined. If there are not three or more, the fraud determination means 16 does not determine whether it is within a range of ± 5 degrees. Then, if it is within the predetermined range, it is determined that the photographic plan has been taken, and the effect of the photographic plan is output to the authentication unit 18 to the authentication unit 18. On the other hand, if it is not within the predetermined range, no special processing is performed.
Here, the predetermined range is preferably a range that can be considered as a range of calculation error in the light source direction. This range takes into account the amount of variation in the light source direction in the environment where the image pickup unit 3 is assumed to be installed and the degree of calculation error in the face photographing condition calculation means 15, and from experiments or experience to the extent that these can be distinguished. It is set in advance.
In the present embodiment, it is determined that the number of records in the light source direction is three or more. However, the number of records may be two or more. This is set according to the time constraint and physical constraint necessary for issuing the authentication result.

顔照合手段17は、顔抽出手段13が抽出した顔領域画像と記憶部30の登録者データ31に記憶されているすべての登録顔画像を照合し、それぞれ登録顔画像との類似度を算出し、最も高い値の類似度を履歴テーブル32の類似度76に記憶させ、当該登録顔画像の登録人物の登録者IDを履歴テーブル32の候補人物ID77に記憶させる。なお、類似度の算出方法として、顔抽出手段13が抽出した顔領域画像と登録顔画像のそれぞれから顔の特徴点を抽出し、対応する特徴点どうしの位置関係の一致の程度から類似度を求める方法を採用する。その他、顔画像同士の似ている度合いを算出できるものであれば如何なる方法を採用しても良い。   The face collating unit 17 collates the face area image extracted by the face extracting unit 13 with all the registered face images stored in the registrant data 31 of the storage unit 30, and calculates the degree of similarity with each registered face image. The highest degree of similarity is stored in the similarity 76 of the history table 32, and the registrant ID of the registered person of the registered face image is stored in the candidate person ID 77 of the history table 32. As a similarity calculation method, facial feature points are extracted from each of the face area image and the registered face image extracted by the face extraction unit 13, and the similarity is calculated based on the degree of coincidence of the positional relationships between corresponding feature points. Adopt the desired method. In addition, any method may be employed as long as the degree of similarity between face images can be calculated.

認証手段18は、不正行為判定手段16にて写真画策と判定を受けると、結果出力手段19に出力部から警報ランプの点灯信号を出力させるとともに、履歴テーブル32の追跡フラグ71をOFFにする。
認証手段18は、履歴テーブル32を参照し、追跡フラグ71がONとなっている系列データにおける候補人物ID77ごとの平均類似度を算出し、平均類似度が認証閾値、例えば「0.9」を超えていれば当該IDの登録者であると判定し、認証OKとの認証結果を履歴テーブル32に記憶する。また、平均類似度が認証閾値以下であれば、認証NGとの認証結果として、履歴テーブル32に記憶する。
更に、登録者と判定すると、結果出力手段19に出力部20から電気錠の解錠信号を出力させるとともに、履歴テーブル32の追跡フラグ71をOFFにする。他方、登録者と判定できなければ、履歴テーブル32における系列データが作成された時刻から所定の認証時間が経過したか判定し、認証時間が経過していれば、認証失敗信号を結果出力手段19から出力部20に出力させ、履歴テーブル32の追跡フラグ71をOFFにする。認証時間が経過していなければ、特段の処理は行なわない。
When the authentication unit 18 receives the determination as a photo measure by the fraud determination unit 16, the authentication unit 18 causes the result output unit 19 to output a warning lamp lighting signal from the output unit and turns off the tracking flag 71 of the history table 32.
The authentication unit 18 refers to the history table 32, calculates the average similarity for each candidate person ID 77 in the series data in which the tracking flag 71 is ON, and the average similarity is an authentication threshold, for example, “0.9”. If it exceeds, it is determined that the user is a registrant of the ID, and the authentication result with authentication OK is stored in the history table 32. If the average similarity is equal to or lower than the authentication threshold value, it is stored in the history table 32 as an authentication result with the authentication NG.
Further, when it is determined that the user is a registrant, the result output means 19 outputs the unlocking signal of the electric lock from the output unit 20 and turns off the tracking flag 71 of the history table 32. On the other hand, if it is not determined that the user is a registrant, it is determined whether a predetermined authentication time has elapsed from the time when the series data in the history table 32 was created. If the authentication time has elapsed, an authentication failure signal is output as the result output means 19. Are output to the output unit 20 and the tracking flag 71 of the history table 32 is turned OFF. If the authentication time has not passed, no special processing is performed.

ここで、図7を参照し、記憶部30に記憶される履歴テーブル32について説明する。図7は、履歴テーブル32の内容を示している。図7において、履歴テーブル32は、試行番号70、追跡フラグ71、時刻72、追跡位置73、人物領域画像74、光源方向75、類似度76、候補人物ID77、認証結果78を追跡中の人物毎に対応付けたテーブルである。   Here, the history table 32 stored in the storage unit 30 will be described with reference to FIG. FIG. 7 shows the contents of the history table 32. 7, the history table 32 includes a trial number 70, a tracking flag 71, a time 72, a tracking position 73, a person area image 74, a light source direction 75, a similarity 76, a candidate person ID 77, and an authentication result 78 for each person being tracked. Is a table associated with

試行番号70は、追跡中の人物の系列データを他の人物の系列データと識別するための識別番号であり、撮影領域に人物領域画像が最初に出現してから消失するまで追跡手段14によって追跡がされた人物毎の系列データを識別するための番号である。
追跡フラグ71は、追跡中の人物に対する追跡が継続しているか否かをあらわすフラグを記憶する領域であり、追跡対象の人物領域の系列ごとに追跡手段14がその人物の追跡を開始するとONになり、追跡を終了するとOFFに設定される。
時刻72は、人物領域画像を抽出した入力画像を撮像部3が取得した時刻を記憶する領域である。追跡手段14にて抽出した追跡対象の人物領域画像ごとに記憶される。
追跡位置73は、人物領域画像が入力画像内に所在する位置座標を記憶する領域であって、追跡対象の人物領域画像ごとに記憶される。
人物領域画像74は、追跡対象となっている人物領域画像を記憶する領域である。追跡手段14による追跡処理で1フレーム前の人物領域画像と同一人物のものとして対応付けられた人物領域画像を同一の系列データとして記憶している。
光源方向75は、顔撮影条件算出手段15にて人物領域画像の顔領域画像から算出した光源方向を記憶する領域である。
類似度76は、顔照合手段17にて算出したその顔領域画像と複数の登録顔画像のそれぞれとの類似度のうち、最も値が高かった類似度(照合スコア)を記憶する領域である。
認証候補人物77は、顔照合手段17にて算出した顔領域画像と複数の登録顔画像のそれぞれとの類似度のうち、最も値が高かった類似度を示した登録顔画像を持つ登録者データ31における登録者の識別ID(登録者ID)を記憶する領域である。
認証結果78は、認証手段18にて認証処理をした結果である認証OK、認証NGまたは不正行為の何れかを記憶する領域である。
The trial number 70 is an identification number for distinguishing the series data of the person being tracked from the series data of other persons, and is tracked by the tracking unit 14 until the person area image first appears in the shooting area and disappears. This is a number for identifying the series data for each person who is marked.
The tracking flag 71 is an area for storing a flag indicating whether or not the tracking of the person being tracked is continued, and turns ON when the tracking unit 14 starts tracking the person for each series of person areas to be tracked. When the tracking is finished, it is set to OFF.
The time 72 is an area for storing the time when the imaging unit 3 acquires the input image obtained by extracting the person area image. It is stored for each person area image to be tracked extracted by the tracking means 14.
The tracking position 73 is an area for storing position coordinates where the person area image is located in the input image, and is stored for each person area image to be tracked.
The person area image 74 is an area for storing a person area image to be tracked. The person area image associated with the person area image one frame before in the tracking process by the tracking means 14 is stored as the same series data.
The light source direction 75 is an area for storing the light source direction calculated from the face area image of the person area image by the face photographing condition calculation means 15.
The similarity 76 is an area for storing the similarity (matching score) having the highest value among the similarities between the face area image calculated by the face matching unit 17 and each of the plurality of registered face images.
The authentication candidate person 77 has registrant data having a registered face image showing the highest similarity among the similarities between the face area image calculated by the face matching unit 17 and each of the plurality of registered face images. This is an area for storing the identification ID (registrant ID) of the registrant in 31.
The authentication result 78 is an area for storing any one of authentication OK, authentication NG, and fraud that is the result of the authentication process performed by the authentication unit 18.

以下、図4及び図5に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置1による認証処理の動作を説明する。なお、以下に説明する動作のフローは、画像処理部10を構成するマイクロプロセッサ上で動作し、顔画像認証装置1全体を制御する制御部(図示せず)により制御される。なお、以下に説明する処理の実施前に、履歴テーブル32は空白になるよう初期化される。また、以下に説明する動作は、入力画像を一つ取得するごとに実行される。   The operation of the authentication process by the face image authentication apparatus 1 to which the present invention is applied will be described below with reference to the flowcharts shown in FIGS. The flow of operations described below is controlled by a control unit (not shown) that operates on the microprocessor constituting the image processing unit 10 and controls the face image authentication apparatus 1 as a whole. Note that the history table 32 is initialized to be blank before the processing described below is performed. The operation described below is executed every time one input image is acquired.

最初に、顔画像認証装置1の画像取得手段11は、撮像部3が撮影領域を撮影した入力画像を取得する(ステップS801)。画像取得手段11が入力画像を取得すると、人物検出手段12は、取得された入力画像から、人物が写っている人物領域画像を抽出する(ステップS802)。次に、人物検出手段12は、一つ以上の人物領域画像が検出されたか否か判定する(ステップS803)。人物領域画像が全く検出されなかった場合、ステップS801へ処理を移行し、人物領域画像が検出されるまでステップS801〜S803の処理を繰り返す。   First, the image acquisition unit 11 of the face image authentication device 1 acquires an input image obtained by the imaging unit 3 capturing an imaging region (step S801). When the image acquisition unit 11 acquires an input image, the person detection unit 12 extracts a person area image in which a person is shown from the acquired input image (step S802). Next, the person detection means 12 determines whether or not one or more person area images have been detected (step S803). If no person area image is detected, the process proceeds to step S801, and the processes of steps S801 to S803 are repeated until a person area image is detected.

一方、ステップS803において、一つ以上の人物領域画像が検出された場合、追跡手段14は、検出された全ての人物領域画像について、履歴テーブル33における追跡フラグ71がONとなっている系列データにおける最新のレコード(時刻72が最新となっている行のレコードを指す。)との対応付けを実施する(ステップS804)。そして追跡手段14は、追跡フラグ71がONとなっている系列データについて、現フレームの人物領域画像のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS805)。現フレームの人物領域画像のいずれとも対応付けられなかった、追跡フラグ71がONとなっている系列データがある場合、その系列データの人物は、認証成功となって入室したか、又は認証されずに撮影領域から離れたと考えられる。そのため、追跡手段14は、現フレームの人物領域画像のいずれとも対応付けられなかった系列データの追跡フラグ71をOFFに設定して、以後その系列データに対する追跡処理を実施しないようにする(ステップS806)。一方、現フレームの人物領域画像のいずれとも対応付けられなかったものがない場合、追跡手段14はステップS807へ進む。   On the other hand, when one or more person area images are detected in step S803, the tracking unit 14 in the series data in which the tracking flag 71 in the history table 33 is ON for all the detected person area images. Correspondence with the latest record (refers to the record in the row with the latest time 72) is performed (step S804). Then, the tracking unit 14 determines whether there is any series data in which the tracking flag 71 is ON that is not associated with any of the person area images of the current frame (step S805). If there is series data in which the tracking flag 71 is ON that is not associated with any of the person area images of the current frame, the person of the series data has entered the room with authentication success or is not authenticated. It is thought that he was away from the shooting area. Therefore, the tracking unit 14 sets the tracking flag 71 of the sequence data that is not associated with any of the person area images of the current frame to OFF, and thereafter does not perform the tracking process for the sequence data (step S806). ). On the other hand, if there is no image associated with any of the person area images in the current frame, the tracking unit 14 proceeds to step S807.

次に、追跡手段14は、現フレームの人物領域画像すべてについて、追跡フラグ71がONとなっている系列データと対応付けることができなかったものがあるか否かを判定する(ステップS807)。追跡フラグ71がONとなっている系列データと対応付けることができなかったものがある場合、追跡手段14は、対応付けることができなかった人物領域画像についての系列データを履歴テーブル32に新たな系列データを追加する。すなわち追跡手段14は、対応付けることができなかった人物領域画像についての系列データに新たな試行番号70を割り当てる。そして、追跡フラグ71をONに設定、入力画像の撮影時刻を時刻72に設定、入力画像上の人物領域画像の位置情報を追跡位置73に記憶、更に人物領域画像を人物領域画像73に記憶させる(ステップS808)。一方、ステップS807にて追跡フラグ71がONとなっている系列データと対応付けることができなかったものがない場合、追跡手段14はステップ809に進む。   Next, the tracking unit 14 determines whether or not all the person area images in the current frame have been associated with the series data for which the tracking flag 71 is ON (step S807). If there is any data that could not be associated with the series data for which the tracking flag 71 is ON, the tracking unit 14 adds the series data for the person area image that could not be associated to the history table 32 as new series data. Add That is, the tracking unit 14 assigns a new trial number 70 to the series data for the person area image that could not be associated. Then, the tracking flag 71 is set to ON, the shooting time of the input image is set to time 72, the position information of the person area image on the input image is stored in the tracking position 73, and the person area image is stored in the person area image 73. (Step S808). On the other hand, if there is no data that could not be associated with the series data for which the tracking flag 71 is ON in step S807, the tracking unit 14 proceeds to step 809.

そして、現フレームの人物領域画像について、追跡フラグ71がONとなっている系列データと対応付けることができた系列データについて、追跡手段14は入力画像の撮影時刻を時刻72に設定、入力画像上の人物領域画像の位置情報を追跡位置73に記憶、更に人物領域画像を人物領域画像73に追加記憶させる(ステップS809)。
以上のステップS801〜S809の処理を実施することで、同一の人物を追跡した系列データが履歴テーブル33記憶される。
The tracking means 14 sets the shooting time of the input image at time 72 for the sequence data that can be associated with the sequence data for which the tracking flag 71 is ON for the person region image of the current frame, The position information of the person area image is stored in the tracking position 73, and the person area image is additionally stored in the person area image 73 (step S809).
By carrying out the processes in steps S801 to S809 described above, series data tracking the same person is stored in the history table 33.

図5に示す以下のステップS810〜S817の処理は、追跡フラグ71がONである系列データごとに行われる。
顔抽出手段13は、処理対象の系列データの最新の人物領域画像から顔領域を検出し、その顔領域を人物領域画像から切り出して顔領域画像を抽出する(ステップS810)。
次に、顔照合手段17は、顔領域画像と登録者データ31に記憶されている登録顔画像との類似度を算出し、最も高い類似度を類似度76に記憶するとともに、当該登録顔画像の登録者IDを候補人物ID77に記憶する(ステップS811)。
次に、顔撮影条件算出手段15は、顔抽出手段13が抽出した顔領域画像について、それが撮影されたときの撮影条件を示す特徴として光源方向を算出し、履歴テーブル32の光源方向75に記憶する(ステップS812)。
The following steps S810 to S817 shown in FIG. 5 are performed for each series data in which the tracking flag 71 is ON.
The face extraction unit 13 detects a face area from the latest person area image of the processing target sequence data, extracts the face area from the person area image, and extracts the face area image (step S810).
Next, the face collating means 17 calculates the similarity between the face area image and the registered face image stored in the registrant data 31, stores the highest similarity in the similarity 76, and the registered face image Are registered in the candidate person ID 77 (step S811).
Next, the face photographing condition calculating unit 15 calculates the light source direction as a feature indicating the photographing condition when the face region image extracted by the face extracting unit 13 is photographed, and the light source direction 75 in the history table 32 is calculated. Store (step S812).

次に、不正行為判定手段16は、その系列データにおいて算出された光源方向のレコード数が3以上であるか否かを判定する(ステップS813)。その系列データにおいて算出された光源方向のレコード数が3未満である場合、不正行為判定手段16は、その系列データについては特に処理を実施せずに次の系列データの処理に移行する。一方、その系列データにおいて算出された光源方向のレコード数が3以上である場合、不正行為判定手段16は、それらの光源方向が略同一と判断できる±5度程度の範囲に収まっているか判定する(ステップS814)。   Next, the fraud determination means 16 determines whether or not the number of records in the light source direction calculated in the series data is 3 or more (step S813). If the number of records in the light source direction calculated in the series data is less than 3, the fraud determination means 16 proceeds to processing of the next series data without performing any particular process on the series data. On the other hand, when the number of records in the light source direction calculated in the series data is 3 or more, the fraud determination means 16 determines whether the light source directions are within a range of about ± 5 degrees where the light source directions can be determined to be substantially the same. (Step S814).

そして、ステップS814にて、±5度程度の範囲に収まっていると判定した場合、不正行為判定手段16は、履歴テーブル32の認証結果78に不正行為として当該系列データの認証結果として記憶させるとともに、追跡フラグをOFFに設定する(ステップS815)。ステップS815では更に、認証手段18が履歴テーブル32にて認証結果78に不正行為との結果が記録されると、写真画策が行われたと判定し、写真画策が行われたことを示す信号を出力部20に出力する。写真画策が行われたことを示す信号が出力部20に出力された場合、出力部20を介して不図示の警報ランプの点灯、不図示のブザーの鳴動等が行われる。あるいは、出力部20を介して、その写真画策が行われたことを示す信号が不図示の監視センタ装置へ出力される。これにより監視センタ装置は、写真画策が行われたことを管理者に通知し、またその履歴を記録することができる。   If it is determined in step S 814 that it is within the range of about ± 5 degrees, the fraud determination means 16 stores the authentication result 78 of the history table 32 as an authentication result of the relevant series data as an illegal activity. The tracking flag is set to OFF (step S815). In step S815, when the authentication means 18 records the result of fraud in the authentication result 78 in the history table 32, the authentication means 18 determines that the photographic scheme has been performed and outputs a signal indicating that the photographic scheme has been performed. To the unit 20. When a signal indicating that the photographic scheme has been performed is output to the output unit 20, an alarm lamp (not shown) is turned on, a buzzer (not shown) is sounded, and the like via the output unit 20. Alternatively, a signal indicating that the photograph plan has been performed is output to the monitoring center device (not shown) via the output unit 20. As a result, the monitoring center apparatus can notify the administrator that the photo plan has been taken, and can record the history.

一方、ステップS814にて、±5度程度の範囲に収まっていないと判定した場合、認証手段18は、履歴テーブル32の類似度76及び候補人物ID77を読み出し、候補人物IDに記憶されている登録人物IDが同一である類似度の平均値を求める。そして、当該類似度の平均値が認証閾値である「0.9」を超えているか判断する(ステップS816)。
ステップS816にて、認証閾値を超えていると判断すると、ステップS817にて当該登録人物であると判定し、認証OKを認証結果78に記憶するともに追跡フラグ71をOFFに設定する。そして、結果出力手段19から出力部20を介して電気錠への解錠信号及び認証結果OK信号を出力させる。
他方、ステップS816にて認証閾値を超えていないと判断すると、ステップS818にて、認証手段18は時刻72を参照し、系列データが作成された最初の時刻から本フレームの時刻までの経過時間である認証時間が既定の時間以上か判定する。この既定の時間は、撮影条件を示す特徴の変化を判定する程度の時間は経過していても顔認証に充分なだけの人物領域画像を得られるようにするための時間である。充分な時間が経過していれば、ステップS819に進み、認証NGを認証結果78に記憶するとともに追跡フラグ71をOFFに設定する。他方、ステップS818にて既定の時間未満であれば次の系列データの処理に移行する。
全ての系列データについて処理が終わると、図4のステップS801に戻り、次の入力画像の処理を繰り返す。
On the other hand, if it is determined in step S814 that the value is not within the range of about ± 5 degrees, the authentication unit 18 reads the similarity 76 and the candidate person ID 77 of the history table 32, and the registration stored in the candidate person ID. An average value of similarities having the same person ID is obtained. And it is judged whether the average value of the said similarity exceeds "0.9" which is an authentication threshold value (step S816).
If it is determined in step S816 that the authentication threshold has been exceeded, it is determined in step S817 that the person is a registered person, authentication OK is stored in the authentication result 78, and the tracking flag 71 is set to OFF. Then, the result output means 19 outputs an unlock signal to the electric lock and an authentication result OK signal via the output unit 20.
On the other hand, if it is determined in step S816 that the authentication threshold has not been exceeded, in step S818, the authentication unit 18 refers to the time 72, and the elapsed time from the initial time when the series data is created to the time of this frame. It is determined whether a certain authentication time is longer than a predetermined time. This predetermined time is a time for obtaining a human region image sufficient for face authentication even when a time for determining a change in the characteristic indicating the photographing condition has passed. If sufficient time has passed, the process proceeds to step S819, where the authentication NG is stored in the authentication result 78 and the tracking flag 71 is set to OFF. On the other hand, if it is less than the predetermined time in step S818, the process proceeds to processing of the next series data.
When the process is completed for all the series data, the process returns to step S801 in FIG. 4 to repeat the process for the next input image.

次に、図7に示す履歴テーブルについて、本発明にかかる顔画像認証装置の各手段により、どのように処理されたのかの例を、図1に示す撮影場所の模式図、図2に示す人物領域画像を用いて説明する。
なお、以下では、説明を容易にするため、入力画像は1秒間隔で取得され、図7の履歴テーブル32もそれに応じて1秒間隔で更新されるものとする。
Next, an example of how the history table shown in FIG. 7 is processed by each unit of the face image authentication apparatus according to the present invention is shown in the schematic diagram of the shooting location shown in FIG. 1 and the person shown in FIG. This will be described using region images.
In the following, for ease of explanation, it is assumed that input images are acquired at 1-second intervals, and the history table 32 in FIG. 7 is also updated accordingly at 1-second intervals.

まず、登録者が撮影された場合について説明する。当該人物は、履歴テーブル33において、試行番号70が「1」で示されている。
図1(a)に示すように、時刻t1において人物110は撮像部3により撮影され、画像取得手段11を経由して入力画像が取得される。本実施例では、入力画像が取得された時刻t1は「2012/06/20 10:12:35」であるので、時刻72にはその時刻が記録される。
そして人物検出手段12は、入力画像から人物110の人物領域画像を抽出して、追跡手段14は入力画像中での位置、即ち人物領域画像の重心位置を求めて、追跡位置73に記録する。本実施の形態では、入力画像の座標は、左上を原点とし、右に向かってX座標が増え、下に向かってY座標が増えるよう定義してあり、人物110の位置は「(610,320)」として、その座標値が追跡位置73に記録される。
また、人物検出手段12により抽出された人物領域画像は、履歴テーブル33の人物領域画像74に記録される。記録される人物領域画像は図2(a)に示すものである。
First, a case where a registrant is photographed will be described. The trial number 70 of the person is indicated by “1” in the history table 33.
As shown in FIG. 1A, the person 110 is photographed by the imaging unit 3 at time t <b> 1 and an input image is obtained via the image obtaining unit 11. In this embodiment, since the time t1 when the input image is acquired is “2012/06/20 10:12:35”, the time 72 is recorded.
Then, the person detection unit 12 extracts the person area image of the person 110 from the input image, and the tracking unit 14 obtains the position in the input image, that is, the center of gravity position of the person area image, and records it in the tracking position 73. In the present embodiment, the coordinates of the input image are defined such that the upper left is the origin, the X coordinate increases toward the right, and the Y coordinate increases toward the bottom, and the position of the person 110 is “(610, 320)”. The coordinate value is recorded at the tracking position 73.
The person area image extracted by the person detecting means 12 is recorded in the person area image 74 of the history table 33. The recorded person area image is as shown in FIG.

顔撮影条件算出手段15は、人物領域画像から抽出された顔領域画像から撮影条件を示す特徴を算出する。本実施の形態では、光源方向を表す方向ベクトル(大きさ1)の座標情報を算出する。
図1(a)に示すように、時刻t1における人物110の場合、ダウンライト102は人物110のやや左前方かつ上方に位置している。光源方向を表す方向ベクトルのXYZ座標は「(0.09,0.87,-0.5)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が人物110に対し、水平方向から60度上方向のピッチ角(仰角)、人物110から見た正面方向から10度左方向のヨー角の方向に位置していることに対応するものである。
The face photographing condition calculation means 15 calculates a feature indicating the photographing condition from the face area image extracted from the person area image. In the present embodiment, coordinate information of a direction vector (size 1) representing the light source direction is calculated.
As shown in FIG. 1A, in the case of a person 110 at time t1, the downlight 102 is located slightly to the left and above the person 110. Since the XYZ coordinates of the direction vector representing the light source direction are “(0.09, 0.87, −0.5)”, the coordinate value is stored in the light source direction 75. The values of the XYZ coordinates are located in the direction of the pitch angle (elevation angle) 60 degrees upward from the horizontal direction with respect to the person 110 and the yaw angle 10 degrees to the left from the front direction viewed from the person 110. It corresponds to being.

顔照合手段17は、類似度を求め、その結果を類似度76に記憶する。本実施の形態では、人物110の位置において照明条件などは好適なものであるので、類似度を0から1に正規化した結果において「0.98」という高い類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」が記録される。
The face collating means 17 obtains the similarity and stores the result in the similarity 76. In the present embodiment, since the lighting conditions and the like are suitable at the position of the person 110, a high similarity of “0.98” is required as a result of normalizing the similarity from 0 to 1.
The face matching unit 17 records “A” as an ID representing the registrant in the registered face image for which the similarity is obtained.

次に、1時刻が経過して時刻t1+1において、符号111に示す位置に人物が移動したとする。本実施例では、入力画像が取得された時刻t1+1は、上記説明の時刻より1秒が経過した場合として「2012/06/20 10:12:36」が時刻72に記録される。
そして時刻t1と同様に人物領域画像の重心位置の座標として「(630,530)」が追跡位置73に記録される。
また人物領域画像74に記録される人物領域画像は図2(b)に示すものである。
Next, it is assumed that a person has moved to the position indicated by reference numeral 111 at time t1 + 1 after one time has passed. In this embodiment, at time t1 + 1 when the input image is acquired, “2012/06/20 10:12:36” is recorded at time 72 when one second has elapsed from the time described above.
Then, “(630,530)” is recorded at the tracking position 73 as the coordinates of the center of gravity position of the person area image in the same manner as at time t1.
The person area image recorded in the person area image 74 is as shown in FIG.

時刻t1と同様に顔撮影条件算出手段15は、抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t1+1における人物111の場合、ダウンライト102は人物111の略直上に位置している。この場合、方向ベクトルのXYZ座標は「(0,1,0)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が登録者111に対し、水平方向から90度上方向のピッチ角(仰角)、人物111から見た正面方向から0度のヨー角の方向に位置していることに対応するものである。
Similar to the time t1, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the person 111 at the time t1 + 1, the downlight 102 is positioned substantially immediately above the person 111. In this case, since the XYZ coordinates of the direction vector are “(0,1,0)”, the coordinate values are stored in the light source direction 75. The values of the XYZ coordinates are such that the downlight 102 is positioned with respect to the registrant 111 in a pitch angle (elevation angle) 90 degrees upward from the horizontal direction and a yaw angle of 0 degrees from the front direction viewed from the person 111. It corresponds to being.

顔照合手段17は、時刻t1と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、登録者111の略直上に照明装置があるため、図2(b)に示すように、顔部分には不自然な明暗差が生じており、時刻t1の場合ほどには高い類似度は求まらないものの、登録されている人物であるので、「0.85」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして、「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the time t 1 and stores the result in the similarity 76. In this embodiment, since there is a lighting device almost directly above the registrant 111, an unnatural difference in brightness occurs in the face portion as shown in FIG. 2 (b). Although a high degree of similarity cannot be obtained, since it is a registered person, a degree of similarity of “0.85” is required.
Further, the face collating unit 17 records “A” in the candidate person ID 77 as the ID representing the registrant in the registered face image for which the similarity is obtained.

次に、さらに1時刻が経過して時刻t1+2において、符号112に示す位置に人物が移動したとする。本実施例では、時刻t1+2は、上記説明の時刻よりさらに1秒が経過して入力画像が取得された場合として「2012/06/20 10:12:37」が時刻72に記録される。
そして時刻t1と同様に人物領域画像の重心位置の座標として「(620,710)」が追跡位置73に記録される。
また人物領域画像74に記録される人物領域画像は図2(c)に示すものである。
Next, it is assumed that one time has passed and the person has moved to the position indicated by reference numeral 112 at time t1 + 2. In the present embodiment, at time t1 + 2, “2012/06/20 10:12:37” is recorded at time 72 when one second has elapsed from the time described above and the input image has been acquired.
Then, “(620,710)” is recorded at the tracking position 73 as the coordinates of the center of gravity position of the person area image in the same manner as at time t1.
The person area image recorded in the person area image 74 is as shown in FIG.

時刻t1と同様に顔撮影条件算出手段15は、抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t1+2における登録者112の場合、ダウンライト102は人物112の後方かつ上方に位置している。この場合、方向ベクトルのXYZ座標は「(0,0.98,0.17)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が人物112に対し、水平方向から100度上方向のピッチ角(仰角)、人物112から見た正面方向から0度のヨー角の方向に位置していることに対応するものである。
Similar to the time t1, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the registrant 112 at time t1 + 2, the downlight 102 is located behind and above the person 112. In this case, since the XYZ coordinates of the direction vector are “(0, 0.98, 0.17)”, the coordinate values are stored in the light source direction 75. The values of the XYZ coordinates are such that the downlight 102 is positioned with respect to the person 112 at a pitch angle (elevation angle) 100 degrees upward from the horizontal direction and a yaw angle of 0 degrees from the front direction viewed from the person 112. It corresponds to that.

顔照合手段17は、時刻t1と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、人物112の後方かつ上方に照明装置があるため、図2(c)に示すように、顔部分は全体的に暗く、撮像部3のダイナミックレンジの都合で顔のテクスチャ情報が多少欠落していることもあり、時刻t1の場合ほどには高い類似度は求まらない。しかし登録されている人物であるので、「0.91」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして、「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the time t 1 and stores the result in the similarity 76. In the present embodiment, since the lighting device is behind and above the person 112, the face portion is entirely dark as shown in FIG. 2C, and the texture information of the face is taken into account due to the dynamic range of the imaging unit 3. May be somewhat missing, and a high degree of similarity is not obtained as at time t1. However, since it is a registered person, a similarity of “0.91” is required.
Further, the face collating unit 17 records “A” in the candidate person ID 77 as the ID representing the registrant in the registered face image for which the similarity is obtained.

不正行為判定手段16は、試行番号70が「1」の光源方向75を参照して、光源方向の変化の様子を把握する。本実施の形態では、t1、t1+1、t1+2では、水平方向を基準にした仰角がそれぞれ60度、90度、100度と、実際の光源であるダウンライト102との位置関係の変化に応じた値となっている。
従って、不正行為判定手段16は、試行番号70が「1」の人物は不正行為を行っていないと判定し、その旨認証手段18に出力する。
The fraud determination means 16 refers to the light source direction 75 whose trial number 70 is “1” and grasps the change of the light source direction. In the present embodiment, at t1, t1 + 1, and t1 + 2, the elevation angles based on the horizontal direction are 60 degrees, 90 degrees, and 100 degrees, respectively, and values according to changes in the positional relationship with the downlight 102 that is the actual light source. It has become.
Therefore, the fraud determination means 16 determines that the person whose trial number 70 is “1” does not perform the fraud, and outputs the fact to the authentication means 18.

認証手段18は、試行番号70が「1」の類似度76と候補人物ID77を参照して、撮影されている人物を特定する。即ち、本実施の形態では、時刻t1、t1+1、t1+2の3時刻の何れにおいても、登録者のIDが「A」の人物との類似度が最も高いという結果が得られており、3時刻分の類似度の平均を求めると、0.91である。これは認証判定のための閾値0.9を超えている。よって、認証手段18は、試行番号70が「1」の人物は登録者のIDが「A」であると判定して、認証結果78に「認証OK(A)」を記録する。   The authentication means 18 refers to the similarity 76 having the trial number 70 of “1” and the candidate person ID 77 to identify the person being photographed. That is, in the present embodiment, the result that the similarity with the person whose registrant's ID is “A” is the highest is obtained at any of the three times of time t1, t1 + 1, and t1 + 2. The average of the similarities is 0.91. This exceeds the threshold value 0.9 for authentication determination. Therefore, the authentication unit 18 determines that the person whose trial number 70 is “1” has the registrant's ID “A”, and records “authentication OK (A)” in the authentication result 78.

次に、不審者が写真画策をしている場合について説明する。当該不審者は、履歴テーブル33において、試行番号70が「2」で示されている。
図1(b)に示すように、人物120は登録者の顔写真103を自らの顔の前に掲げている。本実施例では、入力画像が取得された時刻t2は「2012/06/20 11:25:14」であるので、時刻72にはその時刻が記録される。
そして試行番号70が「1」の人物と同様に、人物領域画像の重心位置の座標として「(580,310)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(d)に示すものである。
Next, a case where a suspicious person is taking a picture plan will be described. The suspicious person has a trial number 70 indicated by “2” in the history table 33.
As shown in FIG. 1B, the person 120 holds the registrant face photograph 103 in front of his / her face. In the present embodiment, the time t2 when the input image is acquired is “2012/06/20 11:25:14”, so that time 72 is recorded.
As in the case of the person whose trial number 70 is “1”, “(580,310)” is recorded in the tracking position 73 as the coordinates of the center of gravity of the person area image. The person area image recorded in the person area image 74 is shown in FIG. 2 (d).

顔撮影条件算出手段15は、当該抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2における人物120の場合、方向ベクトルのXYZ座標は「(0.99,0.09,-0.09)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.09,-0.09)」という値は、顔領域画像204に写っている顔から見た光源方向が、水平方向から5度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の85度のヨー角の方向に位置していることに対応するものである。尚、このXYZ座標の値は、図2(d)に示す人物領域画像の顔部分である顔領域画像204から求められているものの、当該顔領域画像204に表れている陰影情報は、人物120が掲げる写真が撮影されたときの陰影情報であり、それに基づいて方向ベクトルのXYZ座標の値が求まっているものである。これは、以下に述べるt2+1とt2+2でも同様である。
The face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the person 120 at time t2, the XYZ coordinates of the direction vector are “(0.99, 0.09, −0.09)”, and the coordinate value is stored in the light source direction 75. The value of the XYZ coordinates “(0.99, 0.09, −0.09)” of the direction vector indicates that the light source direction viewed from the face shown in the face area image 204 is a pitch angle (elevation angle) 5 degrees upward from the horizontal direction, This corresponds to the fact that it is located in the direction of the yaw angle of 85 degrees almost directly to the left from the front direction seen from the face. Although the value of the XYZ coordinates is obtained from the face area image 204 which is the face portion of the person area image shown in FIG. 2D, the shadow information appearing in the face area image 204 is the person 120. Is the shadow information when the photograph is taken, and the value of the XYZ coordinates of the direction vector is obtained based on the shadow information. The same applies to t2 + 1 and t2 + 2 described below.

顔照合手段17は類似度を求め、その結果を類似度76に記憶する。本実施の形態では、顔領域画像204は登録されている人物であるので、「0.92」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」が記録される。
The face collating means 17 obtains the similarity and stores the result in the similarity 76. In the present embodiment, since the face area image 204 is a registered person, a similarity of “0.92” is required.
The face matching unit 17 records “A” as an ID representing the registrant in the registered face image for which the similarity is obtained.

次に、1時刻が経過して時刻t2+1において、写真103を同じく掲げつつ符号121に示す位置に人物が移動したとする。本実施例では、時刻t2+1は、上記説明の時刻より1秒が経過して入力画像が取得された場合として「2012/06/20 11:25:15」が時刻72に記録される。
そして試行番号70が「1」の人物と同様に、人物領域画像の重心位置の座標として「(590,500)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(e)に示すものである。
Next, it is assumed that at time t2 + 1 after one time has passed, the person has moved to the position indicated by reference numeral 121 while holding the photograph 103 in the same manner. In the present embodiment, at time t2 + 1, “2012/06/20 11:25:15” is recorded at time 72 as a case where one second has elapsed from the time described above and the input image has been acquired.
As in the case of the person whose trial number 70 is “1”, “(590,500)” is recorded at the tracking position 73 as the coordinates of the center of gravity of the person area image. The person area image recorded on the person area image 74 is shown in FIG. 2 (e).

時刻t2と同様に、顔撮影条件算出手段15は、当該抽出された顔領域画像206から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2+1における人物121の場合の方向ベクトルのXYZ座標は「(0.99,0.10,-0.09)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.10,-0.09)」という値は、顔領域画像206に写っている顔から見た光源方向が、水平方向から6度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の85度のヨー角の方向に位置していることに対応するものである。
Similarly to time t2, the face photographing condition calculation unit 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image 206.
Since the XYZ coordinates of the direction vector in the case of the person 121 at time t2 + 1 are “(0.99, 0.10, −0.09)”, the coordinate values are stored in the light source direction 75. The value of the XYZ coordinates “(0.99, 0.10, −0.09)” of the direction vector is such that the light source direction viewed from the face shown in the face area image 206 is 6 degrees above the horizontal direction and the pitch angle (elevation angle). This corresponds to the fact that it is located in the direction of the yaw angle of 85 degrees almost directly to the left from the front direction seen from the face.

顔照合手段17は、時刻t2と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、不審者121の略直上に照明装置があるため、図2(e)に示すように、写真を写した顔部分は逆光気味でやや暗く、時刻t2の場合ほどには高い類似度は求まらないものの、登録されている人物を写した写真であるので、「0.84」という類似度が求められている。
また顔照合手段は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the time t 2 and stores the result in the similarity 76. In the present embodiment, since there is a lighting device almost directly above the suspicious person 121, the face portion where the photograph is taken is slightly dark with backlight and is as high as at time t2, as shown in FIG. Although the degree of similarity is not obtained, it is a photograph of a registered person, and therefore a degree of similarity of “0.84” is required.
Further, the face collating unit records “A” in the candidate person ID 77 as an ID representing the registrant in the registered face image for which the similarity is obtained.

次に、さらに1時刻が経過して時刻t2+2において、写真103を同じく掲げつつ符号122に示す位置に人物が移動したとする。本実施例では、時刻t2+2は、上記説明の時刻よりさらに1秒が経過して入力画像が取得された場合として「2012/06/20 11:25:16」が時刻72に記録される。
そして時刻t2と同様に、人物領域画像の重心位置の座標として「(595,650)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(f)に示すものである。
Next, assume that one more time has passed and at time t2 + 2, the person has moved to the position indicated by reference numeral 122 while holding the photograph 103 in the same manner. In the present embodiment, at time t2 + 2, “2012/06/20 11:25:16” is recorded at time 72 when one second has passed from the time described above and the input image has been acquired.
Similarly to the time t2, “(595,650)” is recorded at the tracking position 73 as the coordinates of the center of gravity position of the person area image. The person area image recorded on the person area image 74 is as shown in FIG. It is.

時刻t2と同様に顔撮影条件算出手段15は、光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2+2における人物122の場合の方向ベクトルのXYZ座標は「(0.99,0.09,-0.07)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.09,-0.07)」という値は、顔領域画像208に写っている顔から見た光源方向として、水平方向から5度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の86度のヨー角の方向に位置していることに対応するものである。
Similar to the time t2, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction.
Since the XYZ coordinates of the direction vector in the case of the person 122 at time t2 + 2 are “(0.99, 0.09, −0.07)”, the coordinate values are stored in the light source direction 75. The value of the XYZ coordinates “(0.99, 0.09, −0.07)” of this direction vector is a pitch angle (elevation angle) 5 degrees upward from the horizontal direction as the light source direction viewed from the face shown in the face area image 208. This corresponds to the fact that it is located in the direction of the yaw angle of 86 degrees almost directly to the left from the front direction seen from the face.

顔照合手段17は、時刻t2と同様に、その結果を類似度76に記憶する。本実施の形態では、人物122の後方かつ上方に照明装置があるため、図2(f)に示すように、顔部分は全体的に暗く、撮像部3のダイナミックレンジの都合で顔のテクスチャ情報が多少欠落していることもあり、時刻t2の場合ほどには高い類似度は求まらない。しかし顔領域画像208は登録されている人物の顔なので、「0.90」という類似度が求められている。
また顔照合手段は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」を候補人物ID77に記録する。
The face collating unit 17 stores the result in the similarity 76 as in the time t2. In the present embodiment, since the lighting device is behind and above the person 122, the face portion is entirely dark as shown in FIG. 2F, and the texture information of the face is taken into account due to the dynamic range of the imaging unit 3. May be somewhat missing, and a high degree of similarity is not obtained as at time t2. However, since the face area image 208 is the face of a registered person, a similarity of “0.90” is required.
Further, the face collating unit records “A” in the candidate person ID 77 as an ID representing the registrant in the registered face image for which the similarity is obtained.

不正行為判定手段16は、試行番号70が「2」の光源方向75を参照して、光源方向の変化の様子を把握する。本実施の形態では、t2、t2+1、t2+2では、水平方向を基準にした仰角がそれぞれ5度、6度、5度、顔の正面方向を基準にした左方向へのヨー角が85度、85度、86度と、ダウンライト102があるにも関わらず、顔を直接撮像部3に見せる通常の認証行為では考えにくいほど変化しておらず、ピッチ角(仰角)もヨー角も予め設定した±5度の範囲内である。
従って、不正行為判定手段16は、試行番号70が「2」の人物は不正行為を行っていると判定し、その旨認証手段18に出力する。
The fraud determination means 16 refers to the light source direction 75 whose trial number 70 is “2” and grasps the change of the light source direction. In the present embodiment, at t2, t2 + 1, and t2 + 2, the elevation angle with respect to the horizontal direction is 5 degrees, 6 degrees, and 5 degrees, respectively, and the yaw angle to the left with respect to the front direction of the face is 85 degrees and 85 degrees. In spite of the fact that the downlight 102 is present at a degree of 86 degrees and 86 degrees, the pitch angle (elevation angle) and yaw angle are set in advance. It is within the range of ± 5 degrees.
Therefore, the fraud determination means 16 determines that the person with the trial number 70 of “2” is performing the fraud, and outputs that fact to the authentication means 18.

認証手段18は、試行番号70が「2」の類似度76と候補人物ID77に記録された結果が、如何に登録者と判定するのが好適なものであっても、認証OKとの結果とはせず、認証結果78に「不正行為」を記録する。   The authentication means 18 determines whether the result recorded in the similarity 76 having the trial number 70 of “2” and the candidate person ID 77 is determined to be a registrant. Instead, “injustice” is recorded in the authentication result 78.

次に、未登録の不審者が撮影された場合について説明する。当該人物は、試行番号70が「2」の人物と異なり、顔の前に写真を掲げる不正行為は行っておらず、履歴テーブル33においては試行番号70が「3」で示されている。
当該人物についての処理は、不正行為を行ってはいないので試行番号70が「1」の登録者の場合と同様であり、詳細は省略するが、類似度76と候補人物ID77の様子は大きく異なっている。
Next, a case where an unregistered suspicious person is photographed will be described. Unlike the person whose trial number 70 is “2”, the person does not perform an illegal act of holding a photograph in front of the face, and the trial number 70 is indicated by “3” in the history table 33.
The process for the person is the same as the case of the registrant with the trial number 70 being “1” because no fraud has been carried out, and details are omitted, but the degree of similarity 76 and the candidate person ID 77 are greatly different. ing.

即ち、未登録であるが故に、登録者の顔画像の何れとも類似度が高くなることはない。よって類似度76は、3時刻の何れの値も認証判定に用いる閾値0.9よりも小さく、類似度の平均や最大値を求めても当該閾値を超えない。
よって、認証手段18は、当該人物について、登録されている人物ではないとの判断を行い認証結果78に「認証NG(未登録者)」と記録する。
That is, since it is unregistered, the similarity does not increase with any of the registrant's face images. Accordingly, the similarity 76 is smaller than the threshold value 0.9 used for authentication determination at any of the three times, and does not exceed the threshold value even if the average or maximum similarity is obtained.
Therefore, the authentication unit 18 determines that the person is not a registered person, and records “authentication NG (unregistered person)” in the authentication result 78.

以上説明してきたように、本発明を適用した顔画像認証装置は、歩行する人物を順次撮影した複数の入力画像のそれぞれから同一の人物の顔が写っている領域を抽出して顔領域画像とするとともに、各顔領域画像について光源方向を求める。そして、顔画像認証装置は、各入力画像から抽出された各顔領域画像についての光源方向が変化しなければ、顔領域画像に写っているのは顔写真であると判定する。これにより、顔画像認証装置は、顔写真を用いた不正行為の有無を適切に判定することができる。   As described above, the face image authentication apparatus to which the present invention is applied extracts a region in which the same person's face is captured from each of a plurality of input images obtained by sequentially capturing a walking person, In addition, the light source direction is obtained for each face area image. Then, the face image authentication apparatus determines that a face photograph is included in the face area image if the light source direction of each face area image extracted from each input image does not change. Thereby, the face image authentication apparatus can appropriately determine the presence or absence of fraud using a face photograph.

また、顔画像認証装置は、連続して取得された入力画像から抽出された顔領域画像について求めた光源方向を用いてその変化を検出することに代えて、連続して取得された入力画像のうち人物が一定距離以上移動したタイミングでそれぞれ取得された入力画像から抽出された顔領域画像について求めた光源方向を用いてその変化を検出してもよい。その場合、顔画像認証装置は、ある系列データについて、あるタイミングで抽出された人物領域について光源方向を求める。そして、顔画像認証装置は、その系列データについて、その後に抽出された人物領域が、直前に光源方向を求めた人物領域の位置に対して所定距離以上離れた位置にある場合に限り光源方向を求める。なお、各人物領域の位置は、追跡位置情報に記憶されており、顔画像認証装置は、人物領域を抽出するたびに、その人物領域の重心位置と、直前に光源方向を求めた人物領域の重心位置との間の距離(2次元ノルム)を算出し、算出した距離が所定値以上である場合に光源方向を求める。これにより、顔画像認証装置は、顔領域画像における光源方向の時間に応じた変化ではなく、人物の移動に応じた変化を求めることができ、顔領域画像に写っているのが顔写真であるか否かをより高精度に判定することができる。
なお、顔画像認証装置は、距離センサーを備え、距離センサーから取得した距離情報に基づいて、人物が一定距離以上移動したか否かを判断してもよい。これにより、撮影領域内の現実の位置に基づいて、より高精度に人物の移動距離を求めることができる。
In addition, the face image authentication device detects the change using the light source direction obtained for the face area image extracted from the continuously acquired input image, instead of detecting the change of the continuously acquired input image. Among them, the change may be detected by using the light source direction obtained for the face area image extracted from the input image respectively acquired at the timing when the person moves more than a certain distance. In this case, the face image authentication apparatus obtains the light source direction for a person region extracted at a certain timing for a certain series data. Then, the face image authentication device sets the direction of the light source for the series data only when the person area extracted thereafter is at a position more than a predetermined distance away from the position of the person area for which the light source direction was obtained immediately before. Ask. The position of each person area is stored in the tracking position information, and each time the face image authentication apparatus extracts a person area, the position of the center of gravity of the person area and the person area for which the light source direction was obtained immediately before are extracted. A distance (two-dimensional norm) between the center of gravity position is calculated, and the light source direction is obtained when the calculated distance is a predetermined value or more. As a result, the face image authentication apparatus can obtain a change according to the movement of the person, not a change according to the time of the light source direction in the face area image, and the face photograph is reflected in the face area image. It can be determined with higher accuracy.
Note that the face image authentication device may include a distance sensor, and may determine whether or not the person has moved a certain distance or more based on distance information acquired from the distance sensor. Accordingly, the movement distance of the person can be obtained with higher accuracy based on the actual position in the imaging region.

また、本実施形態では、顔の撮影時における撮影条件を示す特徴として、光源方向を求める例を示したが、本発明はこれに限定されない。例えば、顔撮影条件算出手段が、光源方向に加え、または光源方向に替えて、顔領域画像内の画素の輝度値の分散を求めてもよい。その場合、不正行為判定手段は、各顔領域画像についてそれぞれ求められた輝度値の分散について、所定数以上の顔領域画像における分散をその変化量として求める。図2(b)に示したように、写真画策を行っていない人物がダウンライトの直下にいる場合は顔の凹凸に応じて顔領域画像に明暗が生じるため、ダウンライトの直下にいる場合はいない場合より顔領域画像内の画素の輝度値の分散が大きくなる。一方、図2(e)に示したように、写真画策を行っている人物がダウンライトの直下にいる場合は顔領域画像全体が暗くなるため、ダウンライトの直下にいる場合といない場合とで、顔領域画像内の画素の輝度値の分散は写真画策を行っていない場合ほど大きく異ならない。そのため、これによっても、顔画像認証装置は、顔領域画像に写っているのが顔写真であるか否かを適切に判定することができる。   In the present embodiment, an example in which the light source direction is obtained as a feature indicating the photographing condition at the time of photographing the face has been described, but the present invention is not limited to this. For example, the face photographing condition calculation means may obtain the variance of the luminance values of the pixels in the face area image in addition to or in place of the light source direction. In this case, the fraud determination means obtains a variance of a predetermined number or more of the face area images as the amount of change with respect to the variance of the brightness values obtained for each face area image. As shown in FIG. 2 (b), when a person who is not taking a photo plan is directly under the downlight, the face area image is bright and dark according to the unevenness of the face. The variance of the luminance values of the pixels in the face area image is larger than in the case where there is not. On the other hand, as shown in FIG. 2 (e), when the person who is taking a photo plan is directly under the downlight, the entire face area image becomes dark. The variance of the luminance values of the pixels in the face area image is not so different from that when no photographic scheme is performed. Therefore, this also allows the face image authentication apparatus to appropriately determine whether or not the face area image is a face photograph.

あるいは、顔撮影条件算出手段は、顔領域画像に対してSobelフィルタなどを用いてエッジ画素抽出を行い、抽出したエッジ画素からなる画像データ(以下、エッジ画像と称する)を生成し、生成したエッジ画像を撮影条件を示す特徴の一つとして用いてもよい。その場合、不正行為判定手段は、各系列データについて、現フレームの顔領域画像についてのエッジ画像と、前フレームの対応する顔領域画像についてのエッジ画像との正規化相関を求め、その逆数を各エッジ画像間の変化量とする。図2(b)に示したように、写真画策を行っていない人物がダウンライトの直下にいる場合は顔の凹凸に応じて顔領域画像に明暗が生じるため、ダウンライトの直下にいる場合といない場合とで、抽出されるエッジ画素の分布は大きく異なる。一方、図2(e)に示したように、写真画策を行っている人物がダウンライトの直下にいる場合は顔領域画像全体が暗くなるため、ダウンライトの直下にいる場合といない場合とで、抽出されるエッジ画素の分布は写真画策を行っていない場合ほど大きく異ならない。そのため、これによっても、顔画像認証装置は、顔領域画像に写っているのが顔写真であるか否かを適切に判定することができる。   Alternatively, the face photographing condition calculation means performs edge pixel extraction on the face area image using a Sobel filter or the like, generates image data including the extracted edge pixels (hereinafter referred to as edge image), and generates the generated edge An image may be used as one of the characteristics indicating the shooting conditions. In that case, the fraud determination means obtains a normalized correlation between the edge image for the face area image of the current frame and the edge image for the corresponding face area image of the previous frame for each series data, and calculates the reciprocal thereof for each series data. The amount of change between edge images. As shown in FIG. 2 (b), when a person who has not taken a photographic plan is directly under the downlight, the face area image is bright and dark according to the unevenness of the face. The distribution of the edge pixels to be extracted differs greatly depending on whether or not there is not. On the other hand, as shown in FIG. 2 (e), when the person who is taking a photo plan is directly under the downlight, the entire face area image becomes dark. The distribution of the extracted edge pixels is not so different as when no photo is taken. Therefore, this also allows the face image authentication apparatus to appropriately determine whether or not the face area image is a face photograph.

あるいは、顔撮影条件算出手段は、顔領域画像から求めた光源方向や輝度の分散に加え、またはそれらに替えて、撮影条件を示す特徴として、人物を直接撮影したサンプル顔領域画像と同一人物の顔が写っている写真を撮影したサンプル顔領域画像を用いた学習により求めた、人物を直接撮影したサンプル顔領域画像と写真を撮影したサンプル顔領域画像とを識別可能な部分空間を予め求めておき、この部分空間に顔領域画像を投影した際の値を用いてもよい。
そのために、歩行している人物の顔が写っているサンプル通常顔領域画像と、歩行している人物が自分の顔の前に掲げている顔写真が写っているサンプル画策顔領域画像とを大量に用意する。この顔写真に写っている人物は、サンプル通常顔領域画像に写っている人物と同一人物である。また、サンプル通常顔領域画像は、歩行に応じて陰影が大きく変化し、サンプル画策顔領域画像は、歩行に応じても陰影が変化しないものを用意する。
そして、顔画像認証装置は、以下に述べるように部分空間を事前学習処理により求める。あるいは、別途専用の装置によって部分空間を求めて顔画像認証装置の記憶部に記憶してもよい。さらには、サーバークライアントタイプの装置構成を採用している場合には、サーバーマシンにより求めても良い。本願発明おいては、上記何れの方法を採用するかは限定されるものではないので、以下の説明では部分空間を求める装置を総称して簡単に「コンピュータ」と表記する。
Alternatively, the face photographing condition calculation means may include the same person as the sample face region image obtained by directly photographing the person as a feature indicating the photographing condition in addition to, or instead of, the light source direction and luminance distribution obtained from the face region image. Obtain a partial space that can distinguish between a sample face area image obtained by directly photographing a person and a sample face area image obtained by taking a photograph, obtained by learning using a sample face area image obtained by taking a photograph of a face. Alternatively, a value obtained when a face area image is projected onto the partial space may be used.
For this purpose, a large amount of sample normal face area images showing the face of a walking person and sample plan face area images showing a face photograph of a walking person in front of his / her face Prepare to. The person shown in this face photograph is the same person as the person shown in the sample normal face area image. In addition, a sample normal face area image whose shadow changes greatly according to walking is prepared, and a sample plan face area image whose shadow does not change even when walking is prepared.
Then, the face image authentication device obtains a partial space by a pre-learning process as described below. Alternatively, the partial space may be obtained by a separate dedicated device and stored in the storage unit of the face image authentication device. Further, when a server client type device configuration is adopted, it may be obtained from a server machine. In the present invention, since any of the above methods is not limited, in the following description, devices for obtaining a partial space are collectively referred to as “computer”.

部分空間を求めるコンピュータは、これらのサンプル顔領域画像をそれぞれ固有空間に投影して固有空間内の各基底における投影位置を求める。そして、コンピュータは、同一人物が写っている複数のサンプル画策顔領域画像に対しては位置の変動が小さく、同一人物が写っている複数のサンプル通常顔領域画像に対しては位置の変動が大きくなる基底を抽出し、その基底からなる部分空間(以下、画策特徴量空間と称する)を求める。
以下、顔領域画像から求められる特徴量についての固有空間から画策特徴量空間を抽出する手順について説明する。固有空間を導くために用いる顔領域画像の学習サンプルの集合をL、各学習サンプルの顔領域画像から求めた振幅スペクトルの共分散行列をΣとすると、固有空間を表す固有値Λ=diag(λk)(kは1≦k≦Dの整数)及び固有ベクトルΦ=(φ1,…,φD)は、次式から求められる。

Figure 0005955133
ここで、Dは振幅スペクトルの次元数を表し、画策特徴量空間の次元数DSより大きい値である。また、xiは集合Lに含まれる各学習サンプルの顔領域画像から求められる各特徴量ベクトルを表し、nは集合Lに含まれる学習サンプルの数を表し、μは各学習サンプルについて求められた特徴量ベクトルの平均ベクトルを表す。また、iは1≦i≦nの整数であり、各特徴量ベクトルに付与された番号を表す。例えば、特徴量ベクトルとして、顔領域画像の各画素の輝度値を並べたベクトルを正規化したベクトルが用いられる。あるいは、顔領域画像の周波数スペクトル、ガボール特徴等を特徴量ベクトルとして用いてもよい。 The computer that obtains the partial space projects these sample face area images onto the eigenspace, and obtains the projection position at each base in the eigenspace. The computer has a small position variation for a plurality of sample plan face area images in which the same person is photographed, and a large position variation for a plurality of sample normal face area images in which the same person is photographed. To obtain a partial space (hereinafter referred to as a plan feature space).
The procedure for extracting the plan feature amount space from the eigenspace for the feature amount obtained from the face area image will be described below. When the set of learning samples of the face area image used to derive the eigenspace is L and the covariance matrix of the amplitude spectrum obtained from the face area image of each learning sample is Σ, the eigenvalue Λ = diag (λ k ) (K is an integer satisfying 1 ≦ k ≦ D) and eigenvector Φ = (φ 1 ,..., Φ D ) are obtained from the following equations.
Figure 0005955133
Here, D is represents the number of dimensions of the amplitude spectrum, a number of dimensions D S greater than the scheme feature space. Further, x i represents each feature vector obtained from the face area image of each learning sample included in the set L, n represents the number of learning samples included in the set L, and μ was obtained for each learning sample. This represents an average vector of feature vectors. Moreover, i is an integer of 1 ≦ i ≦ n and represents a number assigned to each feature vector. For example, a vector obtained by normalizing a vector in which the luminance values of the pixels of the face area image are arranged is used as the feature amount vector. Or you may use the frequency spectrum of a face area image, a Gabor feature, etc. as a feature-value vector.

特徴量ベクトルxiをl番目の固有値λlに対応する固有ベクトルφlに投影した特徴量の低次元表現ulは次式で表される。

Figure 0005955133
画策特徴量空間で用いる基底を抽出するために用いる学習サンプルの集合をS、集合Sのうち人物jについてのサンプル画策顔領域画像の集合をPj、サンプル通常顔領域画像の集合をNjとすると、画策特徴量空間の基底ek(k=1,…,DS)は、固有ベクトルΦ=(φ1,…,φD)のうち、xi∈Pjに対する低次元表現ulの分散が小さく、かつ、xi∈Njに対する低次元表現ulの分散が大きくなるベクトルから求めるのが好ましい。例えば、コンピュータは、xi∈Pjに対する低次元表現ulの分散σPlをl=1,…,Dについて算出し、算出した全ての分散を小さい順に並べたときの分散σPlの順位をRPlとし、さらにxi∈Njに対する低次元表現ulの分散σNlをl=1,…,Dについて算出し、算出した全ての分散を大きい順に並べたときの分散σNlの順位をRNlとして、次式により、合成順位RAlを求める。
Figure 0005955133
ここで、αはサンプル画策顔領域画像とサンプル通常顔領域画像の重み付けのための定数であり、例えば0.5に設定される。 A low-dimensional representation u l of the feature quantity obtained by projecting the feature quantity vector x i onto the eigenvector φ l corresponding to the l-th eigenvalue λ l is expressed by the following equation.
Figure 0005955133
A set of learning samples used to extract the base used in the plan feature space is S, a set of sample plan face area images for the person j in the set S is P j , and a set of sample normal face area images is N j Then, the basis e k (k = 1,..., D S ) of the plan feature space is the variance of the low-dimensional representation u l for x i ∈P j among the eigenvectors Φ = (φ 1 ,..., Φ D ) Is preferably obtained from a vector in which the variance of the low-dimensional representation u l with respect to x i ∈N j is large. For example, the computer calculates the variance σ Pl of the low-dimensional expression u l for x i ∈P j with respect to l = 1,..., D, and ranks the variance σ Pl when all the calculated variances are arranged in ascending order. R Pl, and the variance σ Nl of the low-dimensional expression u l for x i ∈N j is calculated for l = 1, ..., D, and the rank of the variance σ Nl when all calculated variances are arranged in descending order is As R Nl , the synthesis order R Al is obtained by the following equation.
Figure 0005955133
Here, α is a constant for weighting the sample plan face area image and the sample normal face area image, and is set to 0.5, for example.

画策特徴量空間の基底ekは、合成順位RAlを小さい順に並べたときの順位Rlを用いて、次式により表される。

Figure 0005955133
あるいは、分散σPlの順位RPlが所定順位内であり、かつ分散σNlの順位RNlが所定順位内であるもののうち、順位RPlと順位RNlの和が小さい順にDS個のφl及びλlを選択して画策特徴量空間の基底ekを求めてもよい。あるいは、分散σPlに対する分散σNlの比σNl/σPlをl=1,…,Dについて算出し、算出した全ての比を大きい順に並べたときの順位を上記の順位Rlとして画策特徴量空間の基底ekを求めてもよい。このようにして求めた画策特徴量空間内では、同一人物が写っている複数のサンプル画策顔領域画像についての投影位置の変動は小さく、同一人物が写っている複数のサンプル通常顔領域画像についての投影位置の変動は大きくなる。従って、入力画像から抽出された顔領域画像の特徴量を画策特徴量空間に投影した位置は、顔領域画像から求められた光源位置や輝度の分散と同様に、顔の撮影時の撮影条件を示す特徴を表す。 The base e k of the plan feature space is expressed by the following equation using the order R l when the composition order R Al is arranged in ascending order.
Figure 0005955133
Alternatively, rank R Pl of variance sigma Pl is within the predetermined order, and variance sigma Nl rank R Nl Out of those which are within a predetermined order, the order sum rank R Pl and charts R Nl is small D S pieces of φ The base e k of the plan feature amount space may be obtained by selecting l and λ l . Alternatively, the variance sigma ratio of variance sigma Nl for Pl σ Nl / σ Pl and l = 1, ..., calculated for D, orchestrate characterized rank when arranged all ratios calculated in descending order as the rank R l The base e k of the quantity space may be obtained. In the plan feature amount space thus determined, the variation in the projection position for a plurality of sample plan face area images in which the same person is photographed is small, and for a plurality of sample normal face area images in which the same person is photographed. The variation of the projection position becomes large. Therefore, the position where the feature amount of the face area image extracted from the input image is projected onto the plan feature amount space is the same as the light source position obtained from the face area image and the variance of luminance, and the shooting conditions at the time of shooting the face are set. Represents the characteristics shown.

顔撮影条件算出手段は、各系列データについて、2枚の顔領域画像からそれぞれ特徴量xA、xBを求め、それぞれを画策特徴量空間に投影し、画策特徴量u=(u1,…,uDs)、v=(v1,…,vDs)を求める。つまり、画策特徴量u、vのi番目の成分ui、viは次式で表される。

Figure 0005955133
顔撮影条件算出手段は、画策特徴量u、vの相関値Cを次式により算出する。
Figure 0005955133
不正行為判定手段は、算出した相関値Cの逆数をその特徴量の変化量とし、変化量が閾値未満である場合、写真画策が行われていると判定し、変化量が閾値以上である場合、写真画策が行われていないと判定する。つまり、不正行為判定手段は、算出した相関値Cが、顔領域画像に写っている顔とその顔に陰影を与える光源との位置関係が変化したことを表す場合、写真画策が行われていると判定し、位置関係が変化しなかったことを表す場合、写真画策が行われていないと判定する。なお、不正行為判定手段は、画策特徴量u、vをそれぞれの大きさで割ることにより正規化したベクトルを求め、求めたベクトルの差を特徴量の変化量としてもよい。
上記の説明では、分散σNlを求めるためのサンプル通常顔領域画像と、分散σPlを求めるためのサンプル画策顔領域画像に写っている人物は同一人物として説明したが、それぞれの分散を求めるための顔領域画像が、十分に多くの人物について得られている場合には、人物ごとの分散σNlと分散σPlのそれぞれを平均して、合成順位を求めるなどの処理を行っても同様に判定できる。 The face photographing condition calculation means obtains feature quantities x A and x B from the two face area images for each series data, projects each into the plan feature quantity space, and the plan feature quantity u = (u 1 ,. , u Ds ), v = (v 1 ,..., v Ds ). That is, the i-th components u i and v i of the plan feature quantities u and v are expressed by the following equations.
Figure 0005955133
The face photographing condition calculation means calculates a correlation value C between the plan feature quantities u and v by the following equation.
Figure 0005955133
The fraud determination means uses the reciprocal of the calculated correlation value C as the amount of change in the feature amount, and when the amount of change is less than the threshold, determines that a photo measure is being performed, and the amount of change is greater than or equal to the threshold , It is determined that no photography plan has been taken. In other words, if the calculated correlation value C indicates that the positional relationship between the face shown in the face area image and the light source that shades the face has changed, a photo measure is being taken. If it is determined that the positional relationship has not changed, it is determined that no photographic plan has been taken. Note that the fraudulent act determination means may obtain a normalized vector by dividing the plan feature quantities u and v by the respective sizes, and a difference between the obtained vectors may be used as a change amount of the feature quantity.
In the above description, the sample normal face area image for obtaining the variance σ Nl and the person shown in the sample plan face area image for obtaining the variance σ Pl are described as the same person. If the face area image is obtained for a sufficiently large number of people, the variance σ Nl and variance σ Pl for each person are averaged, and processing such as obtaining the synthesis order is performed in the same manner. Can be judged.

また、撮影条件を示す特徴として、顔領域画像における光源方向、または顔領域画像内の画素の輝度値の分散を用いる場合、その変化量として、変化の範囲や分散を求める例を示したが、本発明はこれに限定されない。例えば、不正行為判定手段は、系列データ内の最新の所定枚数の顔領域画像に対して、取り得る全ての通りの顔領域画像のペアを設定し、設定した顔領域画像のペアについて求められた撮影条件を示す特徴の差の絶対値の最小値、最大値、平均値及び中央値の何れかをその変化量として求めてもよい。あるいは、不正行為判定手段は、系列データ内の最新の所定枚数の顔領域画像に対して、任意の一通りの顔領域画像のペアを設定し、設定した顔領域画像のペアについて求められた撮影条件を示す特徴の差の絶対値をその変化量として求めてもよい。   In addition, when using the light source direction in the face area image or the variance of the luminance value of the pixel in the face area image as the feature indicating the shooting condition, the example of obtaining the change range and variance as the amount of change is shown. The present invention is not limited to this. For example, the fraud determination means sets all possible face area image pairs for the latest predetermined number of face area images in the sequence data, and is obtained for the set face area image pairs. Any one of the minimum value, the maximum value, the average value, and the median of the absolute values of the difference in characteristics indicating the photographing conditions may be obtained as the change amount. Alternatively, the cheating determination means sets an arbitrary one face area image pair for the latest predetermined number of face area images in the series data, and obtains the image obtained for the set face area image pair. You may obtain | require the absolute value of the difference of the characteristic which shows conditions as the variation | change_quantity.

また、不正行為判定手段は、系列データ内の顔領域画像のうち、写真画策の有無を判定するのに適さない顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにしてもよい。例えば、不正行為判定手段は、平均輝度値が極度に低い顔領域画像または極度に高い顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにする。あるいは、不正行為判定手段は、写っている顔の向きが正面方向から離れている顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにする。なお、顔の向きは、公知の様々な手法で求めることができる。例えば、顔領域画像内の肌色と認められる画素の数をカウントし、顔領域画像内の全画素数に対する肌色画素数の比が大きいほど正面方向を向いており、小さいほど正面方向から離れていると判断できる。なお、肌色画素が顔領域画像内の右半分より左半分に多い場合には右を、左半分より右半分に多い場合には左を、上半分より下半分に多い場合には下を、下半分より上半分に多い場合には上を、それぞれ向いていると判断できる。   In addition, the fraud determination means does not use, for the determination of the fraud, the feature indicating the shooting condition obtained for the face area image that is not suitable for determining the presence / absence of the photographic plan among the face area images in the series data. You may do it. For example, the fraud determination means does not use the feature indicating the photographing condition obtained for the face area image having an extremely low average luminance value or the extremely high face area image for the determination of the fraud. Alternatively, the fraudulent act determination means does not use the feature indicating the photographing condition obtained for the face area image whose face direction is away from the front direction in the fraud determination. Note that the orientation of the face can be obtained by various known methods. For example, the number of pixels recognized as skin color in the face area image is counted, and the larger the ratio of the number of skin color pixels to the total number of pixels in the face area image is, the more the front direction is, and the smaller the distance is from the front direction. It can be judged. If the skin color pixel is more in the left half than the right half in the face area image, the right is displayed.If the skin color pixel is more in the right half than the left half, the left is displayed. If there are more than half the top half, it can be determined that the top is facing each other.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 顔画像認証装置
3 撮像部
10 画像処理部
12 顔抽出手段
14 追跡手段
15 顔撮影条件算出手段
16 不正行為判定手段
20 出力部
32 履歴テーブル
DESCRIPTION OF SYMBOLS 1 Face image authentication apparatus 3 Imaging part 10 Image processing part 12 Face extraction means 14 Tracking means 15 Face imaging condition calculation means 16 Fraud determination means 20 Output part 32 History table

Claims (5)

所定の撮影領域を撮影した入力画像に写っている人物の顔画像と、予め登録された人物の登録顔画像に基づき人物を認証する顔画像認証装置であって、
前記撮影領域を撮影した入力画像を順次取得する画像取得手段と、
前記入力画像から人物領域画像を抽出する人物検出手段と、
順次取得される複数の前記入力画像から抽出された前記人物領域画像を追跡し、追跡できた人物領域画像を対応付けた系列データを生成する追跡手段と、
前記入力画像における前記人物領域画像の位置と直前の入力画像における人物領域画像の位置との間の距離を算出する距離算出手段と、
前記人物領域画像における顔領域画像から顔の撮影時における撮影条件を示す特徴を算出する顔撮影条件算出手段と、
前記系列データごとに、当該系列データに含まれる前記人物領域画像のうち、前記距離が所定値以上である人物領域画像の撮影条件を示す特徴が略同一とされる所定範囲内か否かを判定する不正行為判定手段と、
前記不正行為判定手段にて所定範囲内と判定されると、不正行為と認証する認証手段を有する顔画像認証装置。
A face image authentication apparatus for authenticating a person based on a face image of a person shown in an input image obtained by photographing a predetermined shooting area and a registered face image of a person registered in advance,
Image acquisition means for sequentially acquiring input images obtained by imaging the imaging region;
Person detecting means for extracting a person region image from the input image;
Tracking means for tracking the person area image extracted from the plurality of input images sequentially acquired, and generating series data in which the tracked person area image is associated;
Distance calculating means for calculating a distance between the position of the person area image in the input image and the position of the person area image in the immediately preceding input image;
Face photographing condition calculating means for calculating a feature indicating a photographing condition at the time of photographing a face from a face region image in the person region image;
For each series data, it is determined whether or not the characteristics indicating the shooting conditions of the person area image whose distance is greater than or equal to a predetermined value among the person area images included in the series data are within a predetermined range where they are substantially the same. Fraud determination means to
A face image authenticating device having an authenticating means for authenticating a fraudulent activity when the fraudulent act determining means determines that it is within a predetermined range.
前記人物検出手段は、人物領域画像として顔領域画像を抽出する請求項1に記載の顔画像認証装置。   The face image authentication apparatus according to claim 1, wherein the person detection unit extracts a face area image as a person area image. 前記顔撮影条件算出手段は、前記顔領域画像から光源方向を求めて、前記撮影条件を示す特徴に少なくとも当該光源方向を含める請求項1または請求項2に記載の顔認証装置。   The face authentication apparatus according to claim 1, wherein the face photographing condition calculating unit obtains a light source direction from the face area image and includes at least the light source direction in a feature indicating the photographing condition. 前記顔撮影条件算出手段は、前記顔領域画像から輝度値の分散を求めて、前記撮影条件を示す特徴に少なくとも当該分散を含める請求項1〜請求項3の何れか1項に記載の顔画像認証装置。   The face image according to any one of claims 1 to 3, wherein the face photographing condition calculation unit obtains a variance of luminance values from the face area image and includes at least the variance in a feature indicating the photographing condition. Authentication device. 更に、人物を直接撮影したサンプル顔領域画像と顔が写っている写真を撮影したサンプル顔領域画像を用いた学習により求めた、人物を直接撮影したサンプル顔領域画像と写真を撮影したサンプル顔領域画像とを識別可能な部分空間を予め記憶している記憶部を有し、
前記顔撮影条件算出手段は、前記顔領域画像を前記部分空間に投影したときの部分空間における位置を求めて、前記撮影条件を示す特徴に前記部分空間における位置を含める請求項1〜請求項4の何れか1項に記載の顔画像認証装置。
Furthermore, the sample face area image obtained by directly photographing a person and the sample face area obtained by photographing the sample face area image obtained by directly photographing the person and the sample face area image obtained by photographing the photograph showing the face. A storage unit that stores in advance a partial space that can be distinguished from an image;
5. The face photographing condition calculating unit obtains a position in the partial space when the face area image is projected onto the partial space, and includes the position in the partial space in the feature indicating the photographing condition. The face image authentication device according to any one of the above.
JP2012147529A 2012-06-29 2012-06-29 Face image authentication device Active JP5955133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012147529A JP5955133B2 (en) 2012-06-29 2012-06-29 Face image authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147529A JP5955133B2 (en) 2012-06-29 2012-06-29 Face image authentication device

Publications (2)

Publication Number Publication Date
JP2014010686A JP2014010686A (en) 2014-01-20
JP5955133B2 true JP5955133B2 (en) 2016-07-20

Family

ID=50107326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147529A Active JP5955133B2 (en) 2012-06-29 2012-06-29 Face image authentication device

Country Status (1)

Country Link
JP (1) JP5955133B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417824B2 (en) * 2014-03-25 2019-09-17 Apple Inc. Method and system for representing a virtual object in a view of a real environment
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
CA3186147A1 (en) * 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US9396537B2 (en) * 2014-09-09 2016-07-19 EyeVerify, Inc. Systems and methods for liveness analysis
JP6878842B2 (en) * 2016-11-09 2021-06-02 コニカミノルタ株式会社 Image processor, authentication method and authentication program
JP7104523B2 (en) 2018-02-05 2022-07-21 キヤノン株式会社 Information processing equipment, systems, information processing equipment control methods, and programs
JP2020021395A (en) * 2018-08-03 2020-02-06 キヤノンマーケティングジャパン株式会社 Management server, telework management support system, telework management support method and program
CN110321789A (en) * 2019-05-21 2019-10-11 平安普惠企业管理有限公司 Method and relevant device based on living things feature recognition interview fraud
JP7334626B2 (en) * 2020-01-14 2023-08-29 いすゞ自動車株式会社 Image processing device and image processing method
WO2023281743A1 (en) * 2021-07-09 2023-01-12 日本電気株式会社 Authentication system, authentication device, authentication method, and recording medium
CN115497185B (en) * 2022-07-27 2023-11-07 保利长大工程有限公司 Attendance checking method based on intelligent safety helmet and electronic fence
JP7457991B1 (en) 2023-03-14 2024-03-29 有限会社バラエティーエム・ワン Impersonation detection system and impersonation detection program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6888960B2 (en) * 2001-03-28 2005-05-03 Nec Corporation Fast optimal linear approximation of the images of variably illuminated solid objects for recognition
JP2006092133A (en) * 2004-09-22 2006-04-06 Konica Minolta Photo Imaging Inc Image processing method, image processor, imaging device and image processing program
JP2007334623A (en) * 2006-06-15 2007-12-27 Toshiba Corp Face authentication device, face authentication method, and access control device
JP5106459B2 (en) * 2009-03-26 2012-12-26 株式会社東芝 Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program
JP5642410B2 (en) * 2010-03-30 2014-12-17 パナソニック株式会社 Face recognition device and face recognition method

Also Published As

Publication number Publication date
JP2014010686A (en) 2014-01-20

Similar Documents

Publication Publication Date Title
JP5955133B2 (en) Face image authentication device
Steiner et al. Reliable face anti-spoofing using multispectral swir imaging
CN106778518B (en) Face living body detection method and device
JP5517858B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
Killioğlu et al. Anti-spoofing in face recognition with liveness detection using pupil tracking
JP2008504606A (en) Multi-biometric system and method based on a single image
JP2004118627A (en) Figure identification device and method
JP2008146539A (en) Face authentication device
JP2006293644A (en) Information processing device and information processing method
WO2004070563A2 (en) Three-dimensional ear biometrics system and method
JP2009535679A (en) Person identification method by eyelash analysis
JP5955031B2 (en) Face image authentication device
JP2003178306A (en) Personal identification device and personal identification method
Kose et al. Mask spoofing in face recognition and countermeasures
JP7188446B2 (en) Authentication device, authentication method, authentication program and recording medium
JP5851108B2 (en) Image monitoring device
JP5726595B2 (en) Image monitoring device
US11354940B2 (en) Method and apparatus for foreground geometry and topology based face anti-spoofing
Srinivas et al. Human identification using automatic and semi‐automatically detected facial Marks
Tu et al. An intelligent video framework for homeland protection
CN111368803A (en) Face recognition method and system
Nanda et al. A robust elliptical head tracker
Mekami et al. Towards a new approach for real time face detection and normalization
KR19990079823A (en) Face Recognition Method Considering Lighting Change

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160614

R150 Certificate of patent or registration of utility model

Ref document number: 5955133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250