JP5955133B2 - Face image authentication device - Google Patents
Face image authentication device Download PDFInfo
- Publication number
- JP5955133B2 JP5955133B2 JP2012147529A JP2012147529A JP5955133B2 JP 5955133 B2 JP5955133 B2 JP 5955133B2 JP 2012147529 A JP2012147529 A JP 2012147529A JP 2012147529 A JP2012147529 A JP 2012147529A JP 5955133 B2 JP5955133 B2 JP 5955133B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- person
- image
- area image
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、予め登録している顔画像に基づいて人物を認証する顔画像認証装置に関する。 The present invention relates to a face image authentication apparatus that authenticates a person based on a face image registered in advance.
従来、予め登録している顔画像に基づいて人物を認証する顔画像認証装置が出入管理システムなどに利用されている。この顔画像認証装置は、人物を撮影した画像から抽出したその人物の顔が写っている顔領域画像と、予め登録された登録顔画像との類似度を算出し、その人物が予め登録された登録者であるか否かを判定する。
このような顔画像認証装置において、登録されていない未登録者が登録者の顔写真または登録顔画像を引き延ばして印刷した紙を自分の顔の前に掲げることにより、登録者と判定されようとする不正行為を試みるようなことが想定される。
2. Description of the Related Art Conventionally, a face image authentication device that authenticates a person based on a pre-registered face image is used in an access control system. This face image authentication device calculates a similarity between a face area image that shows a person's face extracted from an image of a person and a registered face image registered in advance, and the person is registered in advance. Determine whether you are a registrant.
In such a face image authentication apparatus, an unregistered unregistered person tries to be determined as a registrant by holding up a printed face image of the registrant's face or a registered face image in front of his / her face. It is assumed that they try to cheat.
例えば、特許文献1には、カメラの前に停止した人物を撮影した画像を用いてその人物を認証する個人認証装置について、顔写真または顔を印刷した印刷物を使用した不正行為に対するセキュリティ性を向上させるための技術が提案されている。この個人認証装置は、認証対象者を撮像するカメラと、認証対象者を右側及び左側からそれぞれ照らす2台の照明を備えている。個人認証装置は、認証対象者により照合ボタンが押下されると、認証対象者を右側から照らす照明のみを点灯させて認証対象者を撮像し、続けて認証対象者を左側から照らす照明のみを点灯させて認証対象者を撮像する。そして、個人認証装置は、撮像した両方の画像において、照明を照らした側の領域の平均輝度から照明を照らしていない側の領域の平均輝度を引いた差が閾値以上であれば、撮像対象が人間であると判別し、そうでなければ撮像対象が写真または印刷物であると判別する。
しかしながら、特許文献1にかかる個人認証装置は、予め認証対象者に顔の位置を特定させ、その上で照明を制御しなければならず、使い勝手が悪い上、装置コストが高いという問題がある。
For example,
However, the personal authentication device according to
ところで、歩行する人物を撮影した画像に基づいて人物を認証するいわゆるウォークスルー型の顔画像認証装置が開発されている。ウォークスルー型の顔画像認証装置は、人物が通行する通路等を順次撮影して入力画像を取得し、各入力画像から抽出した人物が写っている人物領域を追跡する。そして、同一の人物が写っている人物領域毎に、その人物領域から抽出した人物の顔が写っている顔領域画像と、予め登録された登録顔画像との類似度を算出し、その人物が予め登録された登録者であるか否かを判定する。
このようなウォークスルー型の顔画像認証装置では、人物の歩行にともなって入力画像に写っている人物の位置が変わるので、入力画像ごとに、人物と照明との位置関係・人物とカメラの位置関係など撮影条件が異なる。
他方、写真は、照明方向、カメラから顔までの距離、アングル、使用カメラの性能など写真撮影時に撮影条件が定められ、顔を撮影したときの撮影条件が固定される。つまり、顔が写っている写真をカメラで撮影した場合、写された顔部分は、先の写真撮影時における顔の撮影条件が残存することになる。
発明者は、写真に写った顔画像が先の写真を撮影した時の撮影条件が残っているのに対し、実際の顔を撮影した顔画像は、実際の撮影時における撮影条件が顔画像に表れることを見出した。
By the way, a so-called walk-through type face image authentication device for authenticating a person based on an image obtained by photographing a walking person has been developed. The walk-through face image authentication device sequentially captures passages and the like through which a person passes to acquire input images, and tracks a person area in which a person extracted from each input image is shown. Then, for each person area in which the same person is shown, the similarity between the face area image in which the face of the person extracted from the person area is shown and the registered face image registered in advance is calculated. It is determined whether or not the registrant is registered in advance.
In such a walk-through face image authentication device, the position of the person shown in the input image changes as the person walks. Therefore, for each input image, the positional relationship between the person and the lighting, and the position of the person and the camera The shooting conditions are different.
On the other hand, photographing conditions such as illumination direction, distance from the camera to the face, angle, and performance of the camera used are determined for the photograph, and the photographing condition when the face is photographed is fixed. That is, when a photograph showing a face is taken by a camera, the face photographing conditions at the time of the previous photography remain in the photographed face portion.
The inventor found that the face image captured in the photograph had the shooting conditions when the previous photograph was taken, whereas the face image obtained by shooting the actual face has the shooting conditions at the time of actual shooting changed to the face image. I found out that it appears.
本発明の目的は、ウォークスルー型の顔画像認証装置では、認証を試みる人物が歩行している間に撮影した顔画像はその撮影条件がそれぞれ異なることと、顔写真を用いた不正行為の場合の顔画像は先の撮影条件が残っていることを利用し、顔写真を用いた不正行為を防止する顔画像認証装置を提供することにある。 An object of the present invention is a walk-through type face image authentication apparatus, in which face images taken while a person who is trying to authenticate are walking are different in shooting conditions, and in the case of fraud using a face photograph. It is an object of the present invention to provide a face image authentication apparatus that prevents fraud using a face photograph by utilizing the fact that the previous photographing condition remains.
かかる課題を解決するための本発明は、所定の撮影領域を撮影した入力画像に写っている人物の顔画像と、予め登録された人物の登録顔画像に基づき人物を認証する顔画像認証装置であって、撮影領域を撮影した入力画像を順次取得する画像取得手段と、入力画像から人物領域画像を抽出する人物検出手段と、順次取得される複数の入力画像から抽出された人物領域画像を追跡し、追跡できた人物領域画像を対応付けた系列データを生成する追跡手段と、人物領域画像における顔領域画像から顔の撮影時における撮影条件を示す特徴を算出する顔撮影条件算出手段と、系列データごとに、当該系列データに含まれる人物領域画像の撮影条件を示す特徴が略同一とされる所定範囲内か否かを判定する不正行為判定手段と、不正行為判定手段にて所定範囲内と判定されると、不正行為と認証する認証手段を有する顔画像認証装置を提供する。 The present invention for solving such a problem is a face image authentication device for authenticating a person based on a face image of a person shown in an input image obtained by photographing a predetermined photographing region and a registered face image of a person registered in advance. An image acquisition unit that sequentially acquires an input image obtained by capturing a shooting area, a person detection unit that extracts a person area image from the input image, and a person area image extracted from a plurality of sequentially acquired input images A tracking unit that generates sequence data in which the tracked person area image is associated, a face shooting condition calculation unit that calculates a feature indicating a shooting condition at the time of shooting a face from the face area image in the person area image, and a sequence For each data, the fraud determination means for determining whether or not the characteristics indicating the photographing condition of the person area image included in the series data are within a predetermined range that is substantially the same, and the fraud determination means If it is determined that the constant range, providing a face image authentication device having an authentication means for authenticating a fraud.
また、本発明に係る顔画像認証装置において、人物抽出手段は、人物領域画像として顔領域画像を抽出することが好適である。 In the face image authentication apparatus according to the present invention, it is preferable that the person extracting means extracts a face area image as a person area image.
また、本発明に係る顔画像認証装置において、顔撮影条件算出手段は、顔領域画像から光源方向を求めて、撮影条件を示す特徴に少なくとも当該光源方向を含めることが好適である。また、本発明に係る顔画像認証装置において、顔撮影条件算出手段は、顔領域画像から輝度値の分散を求めて、撮影条件を示す特徴に少なくとも当該分散を含めることが好適である。 In the face image authentication apparatus according to the present invention, it is preferable that the face photographing condition calculating means obtains the light source direction from the face area image and includes at least the light source direction in the feature indicating the photographing condition. In the face image authentication apparatus according to the present invention, it is preferable that the face photographing condition calculation unit obtains a variance of luminance values from the face area image and includes at least the variance in the feature indicating the photographing condition.
また、本発明に係る顔画像認証装置において、人物を直接撮影したサンプル顔領域画像と顔が写っている写真を撮影したサンプル顔領域画像を用いた学習により求めた、人物を直接撮影したサンプル顔領域画像と写真を撮影したサンプル顔領域画像とを識別可能な部分空間を予め記憶している記憶部を更に設け、顔撮影条件算出手段は、顔領域画像を前記部分空間に投影したときの部分空間における位置を求めて、撮影条件を示す特徴に前記部分空間の位置を含めることが好適である。 Further, in the face image authentication apparatus according to the present invention, a sample face obtained by directly photographing a person obtained by learning using a sample face area image obtained by directly photographing a person and a sample face area image obtained by photographing a photograph of the face. A storage unit that preliminarily stores a partial space that can discriminate between the region image and the sample face region image in which the photograph was taken is further provided, and the face photographing condition calculation unit is a portion when the face region image is projected onto the partial space. It is preferable to obtain the position in the space and include the position of the partial space in the feature indicating the photographing condition.
本発明に係るウォークスルー型の顔画像認証装置は、顔写真を用いた不正行為の有無を適切に判定することができるという効果を奏する。 The walk-through type face image authentication device according to the present invention has an effect of being able to appropriately determine the presence or absence of fraud using a face photograph.
以下、本発明を出入管理システムに適用した場合の一実施形態である顔画像認証装置について図を参照しつつ説明する。
本発明を適用した顔画像認証装置は、歩行する人物を順次撮影した複数の入力画像のそれぞれから同一の人物の顔が写っている領域を抽出して顔領域画像とする。各顔領域画像について、顔領域画像に写っている人物の顔に照射されている光源方向を求める。この顔領域画像から求められる光源方向は、凹凸のある実際の顔を撮影した時の光源方向を表している。ところで、実際に歩行している人物の顔を撮影した際の顔領域画像では、歩行に伴う照明位置の変化によって、顔に存在する鼻や唇等の凹凸によって生じる顔領域画像に現れる陰影が変化し、これにより求まる光源方向も変化する。他方、顔写真を撮影した際の顔領域画像では、かかる顔写真を撮影した時の光源方向は、歩行に伴う照明位置が変化しても、写真に写った顔領域画像に現れる全体的な明暗は変化するが、陰影は基本的に変化せず、これにより求まる光源方向も基本的に変化しない。すなわち、かかる光源方向は、顔撮影時の撮影条件を示す特徴の一つである。そこで、顔画像認証装置は、各入力画像から抽出された顔領域画像についての撮影条件を示す特徴の一つである光源方向が、同一人物として追跡された顔領域画像の中で変化していなければ、顔領域画像に写っているのが顔写真であると判定する。これにより、顔画像認証装置は、顔写真を使用した不正行為の有無の適切な判定を図る。
Hereinafter, a face image authentication apparatus according to an embodiment when the present invention is applied to an access control system will be described with reference to the drawings.
The face image authentication device to which the present invention is applied extracts a region in which the same person's face is shown from each of a plurality of input images obtained by sequentially photographing a walking person and uses it as a face region image. For each face area image, the direction of the light source applied to the face of the person shown in the face area image is obtained. The light source direction obtained from the face region image represents the light source direction when an actual face having an uneven surface is photographed. By the way, in the face area image when photographing the face of a person who is actually walking, the shadow appearing in the face area image caused by unevenness such as nose and lips present on the face changes due to the change of the illumination position accompanying walking As a result, the light source direction obtained also changes. On the other hand, in the face area image when a face photograph is taken, the light source direction when the face photograph is taken is the overall light and darkness that appears in the face area image shown in the photograph even if the illumination position changes due to walking. Changes, but the shadow basically does not change, and the direction of the light source obtained thereby does not change basically. That is, the light source direction is one of the characteristics indicating the shooting conditions at the time of face shooting. Therefore, in the face image authentication device, the light source direction, which is one of the characteristics indicating the shooting conditions for the face area image extracted from each input image, must be changed in the face area image tracked as the same person. For example, it is determined that the face photograph is in the face area image. As a result, the face image authenticating apparatus appropriately determines the presence or absence of fraud using a face photograph.
図1(a)及び図1(b)に、部屋の入口の出入を管理するために、顔画像認証装置1に接続される撮像部3の設置例を模式的に示し、撮像部3が撮影する撮影領域の状態を説明する。図1(a)及び図1(b)に示すように、顔画像認証装置1が部屋の入口100の出入を管理する。この場合、撮像部3は、入口100に通じる通路を撮影領域として撮影できるように入口100の近傍の壁面または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。これにより撮像部3は、進行方向101に沿って入口100に向かう人物を撮像することができる。また、入口100に通じる通路の天井には照明装置としてダウンライト102が、照射方向が下向きとなるように設置される。
図1(a)では、撮像部3が、所定時間間隔の時刻(t1)、(t1+1)、(t1+2)において入口100に向かう同一の人物110、111、112を順次撮影する様子を示している。一方、図1(b)では、撮像部3が、所定時間間隔の時刻(t2)、(t2+1)、(t2+2)において入口100に向かう同一の人物120、121、122を順次撮影する様子を示している。この人物120、121、122は、顔画像認証装置1に登録されていない未登録者であり、顔画像認証装置1に予め登録されている登録者の顔写真103を自分の顔の前に掲げている。つまり、この人物は、自分の顔の代わりに、登録者の顔写真103を撮像部3に撮影させて、登録者の顔写真103により認証を受けようとする不正行為を行っている様子を示している。このような顔写真を用いた不正行為を以下では写真画策と称する。
FIG. 1A and FIG. 1B schematically show an installation example of the
In FIG. 1A, the
以下、撮像部3の撮影条件の一つである、通路を歩行する人物とダウンライト102との位置関係、即ち光源方向の時間的な変化について説明する。図1(a)では、撮像部3から見ると、時刻(t1)において、人物110はダウンライト102より奥側に位置し、ダウンライト102により顔の前面が照射される。そして、時刻(t1+1)において、人物111はダウンライト102の直下に位置し、ダウンライト102により頭上から照射される。そして、時刻(t1+2)において、人物112はダウンライト102より手前側に位置し、ダウンライト102により背後から照射される。
同様に、図1(b)では、撮像部3から見ると、時刻(t2)において、人物120はダウンライト102より奥側に位置し、ダウンライト102により登録者の顔写真103の前面が照射される。そして、時刻(t2+1)において、人物121はダウンライト102の直下に位置し、ダウンライト102により頭上から照射されるが、写真103には背面が照射されている。そして、時刻(t2+2)において、人物122はダウンライト102より手前側に位置し、ダウンライト102により背後から照射され、写真103の背面が照射されている。
Hereinafter, a positional relationship between the person walking in the passage and the
Similarly, in FIG. 1B, when viewed from the
図2は、撮像部3が撮影した入力画像から人物領域を抽出した人物領域画像を示している。
図2(a)、(b)、(c)は、図1(a)における写真画策を行っていない人物110,111,112がそれぞれの位置にてダウンライト102から照射されている時に撮影された入力画像から抽出した人物領域画像の例を示し、図2(d)、(e)、(f)は、図1(b)における写真画策を行っている人物120,121,122がそれぞれの位置にてダウンライト102から照射されているときに撮影された入力画像から抽出した人物領域画像の例を示している。同図では、照明による陰影を右上方から左斜め下方への斜線で示し、陰影が濃いほど斜線を太くしている。
FIG. 2 shows a person area image obtained by extracting a person area from an input image taken by the
2 (a), 2 (b), and 2 (c) are taken when the
図2(a)は、図1(a)の時刻(t1)において、人物110を撮影した入力画像から抽出した人物領域画像200を示す。人物領域画像200は、人物110はダウンライト102の光が前方上方から照射しているので、顔領域が明るく眉毛や鼻などの顔の凹凸による陰影も少ない画像となっている。
図2(b)は、図1(a)の時刻(t1+1)において、人物111を撮影した入力画像から抽出した人物領域画像201を示す。人物領域画像201は、人物111は略直上からダウンライト102の光が照射されている。人間の顔には凹凸が存在し、凹んでいる部分には直上からの光が当たらずに陰影が生じるため、額、頬上部及び鼻筋のみが明るくなり、眼窩付近、頬下部から顎にかけて陰影が生じている。このように、人物領域画像201は、顔上に人物領域画像201と異なる陰影が表れた画像となっている。
図2(c)は、図1(a)の時刻(t1+2)において、人物112を撮影した入力画像から抽出した人物領域画像202を示す。人物領域画像202は、人物112は後方から照射され、ダウンライト102が逆光となり、人物領域画像201や人物領域画像202とは異なり全体が照明の影となり、全体的な陰影が生じている。
FIG. 2A shows a
FIG. 2B shows a
FIG. 2C shows a
図2(d)は、図1(b)の時刻(t2)において、人物120が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像203を示す。人物120は、自分の顔の前に顔写真103を掲げているので、人物領域画像203は、顔写真103部分についてダウンライト102による陰影が生じないので、顔領域204のように顔写真に写っているままの陰影がそのまま撮影されている。図2(e)は、図1(b)の時刻(t2+1)において、人物121が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像205を示す。人物121は、自分の顔の前に顔写真103を掲げており、人物領域画像205は、人物121の直上から照明が照射されるが平面物である顔写真103には一様に背後から照射されることとなり、顔領域206の全体に陰影が生じている。顔写真103の全体に陰影が生じているが写真撮影時の陰影はそのまま保存されている。つまり、顔写真103は平面であり、人間の顔のような凹凸は存在しないため、顔領域206には、図2(b)の場合のような顔の凹凸による陰影は生じない。この顔写真103はダウンライト102により背面に光が照射されているため、顔領域206では、図2(d)の場合ほど明るくならず、写真全体がやや暗くなっている。
図2(f)は、図1(b)の時刻(t2+2)において、人物122が登録者の顔写真103を自分の顔の前に掲げた状態で撮影された入力画像から抽出した人物領域画像207を示す。人物122は、自分の顔の前に顔写真103を掲げているので、人物領域画像207には、顔写真103が顔領域208のように写っている。人物領域画像207は、顔写真103は後方から光を照射され、ダウンライト102が逆光となり、顔領域208の全体に陰影が生じている。図2(e)の場合と同様に、顔写真103の全体に陰影が生じているが写真撮影時の陰影はそのまま保存されている。この顔領域208には、図2(b)の場合のような顔の凹凸による新たな陰影は生じず、写真全体が暗くなる。
FIG. 2D shows a person area image extracted from an input image taken with the
FIG. 2 (f) shows a person extracted from an input image taken at a time (t2 + 2) in FIG. 1 (b) with the
つまり、写真画策が行われていない場合は、人物の移動にともなって、その人物の顔を照射するダウンライト102の顔との相対的な位置が変化、即ち撮影した時の光源方向が変化するので、撮影した画像に写っている人物の顔の凹凸による陰影が変化する。一方、写真画策が行われている場合、その人物が掲げる顔写真に写っている顔に生じている陰影は、全体が明るく或いは暗くなるような変化は出るが、その写真を撮影した時の光源による陰影がそのまま保存されている。つまり、人物が移動しても、その人物が掲げる顔写真に写っている顔において、その顔写真を撮影した時の撮影条件を示す特徴の一つである光源方向は変化することがないので、顔写真に写っている人物の顔の凹凸による陰影は基本的に変化しない。そこで、顔画像認証装置は、撮影した各画像から同一の人物が写っている領域を追跡し、各領域に写っているその人物の顔における陰影から推定される光源方向が、変化しなければ写真画策が行われていると判定し、変化すれば写真画策が行われていないと判定することができる。
In other words, when no photographic scheme is performed, the relative position of the
以下、図3を参照し、顔画像認証装置1について詳細に説明する。図3は、本発明を適用した顔画像認証装置1の概略構成を示す図である。顔画像認証装置1は、画像処理部10、出力部20及び記憶部30から構成されている。
Hereinafter, the face
ここで、撮像部3について説明する。撮像部3は、図1に示したように所定の領域を撮影する監視カメラである。以下、撮像部3が撮影する所定の領域を撮影領域と称する。撮像部3は、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に撮影領域の像を結像するための結像光学系を有する。撮像部3は、撮影領域内を通行する人物の顔を順次撮影できるように人物の通行方向の略正面に設置される。そして撮像部3は、所定の時間間隔(例えば、200msec)ごとに、撮影領域を撮影して入力画像を取得する。入力画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、入力画像を、横1280画素×縦960画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、入力画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。撮像部3は、顔画像認証装置1と接続され、取得した入力画像を画像処理部10へ渡す。
Here, the
記憶部30は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。
記憶部30には入口100の通行を許可されている人物の氏名、登録者ID及び登録顔画像などの登録者データ31、入力画像から抽出した人物の追跡データの履歴情報である履歴テーブル32、および人物の標準的な顔形状をモデル化した3次元顔形状モデル33を記憶している。記憶部30には、図示していないが顔画像認証装置1を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶されている。
The
In the
出力部20は、外部の接続機器である電気錠、認証結果表示ランプ等と接続するインターフェース及びその制御回路である。そして出力部20は、画像処理部10から人物についての認証成功を示す信号を受け取ると、接続されている電気錠に対して解錠制御を行なう信号を出力する。また、出力部20は、画像処理部10が認証OK、認証NGまたは不正行為(写真画策)との認証結果を得ると、その結果に応じて不図示の認証結果表示ランプを点灯または消灯させる。あるいは、認証結果を監視センタ装置へ出力するように構成しても良い。
The
画像処理部10は、例えば、いわゆるコンピュータにより構成され、撮像部3からの入力画像に対し記憶部30を参照等しながら各種処理を実行し、出力部20からその結果を外部へ出力させる。具体的に画像処理部10は、画像取得手段11、人物検出手段12、顔抽出手段13、追跡手段14、顔撮影条件算出手段15、不正行為判定手段16、顔照合手段17、認証手段18、結果出力手段19から構成されている。
画像処理部10の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成してもよい。以下、画像処理部10の各手段について詳細に説明する。
The image processing unit 10 is configured by, for example, a so-called computer, and executes various processes on the input image from the
Each means of the image processing unit 10 is a functional module implemented by a microprocessor, a memory, a peripheral circuit thereof, and software operating on the microprocessor. These means may be integrated by firmware. Moreover, you may comprise some or all of these means with an independent electronic circuit, firmware, a microprocessor, etc. Hereinafter, each unit of the image processing unit 10 will be described in detail.
画像取得手段11は、撮像部3にて撮影した入力画像を画像処理部10にて処理する可能にするためのインターフェースであり、撮像部3の入力画像を直接取り込めるような場合には不要となる。本実施の形態では、撮像部3から撮影順に画像が順次入力されるので、入力画像を入力順に処理可能な画像データに変換して人物検出手段12へ渡す。なお、本実施の形態では、撮像部3が撮影した順に入力画像を出力しているが、ハードディスク等の媒体から入力画像を取得する際は、撮影時順に媒体から入力画像を取得する機能を付加させてもよい。
The image acquisition unit 11 is an interface for enabling the image processing unit 10 to process an input image captured by the
人物検出手段12は、画像取得手段11から入力画像を取得する度に、取得した入力画像から人物が写っている領域が存在するか否かを判定し、存在すればその人物領域画像を抽出する。なお、人物が写っている領域が存在するか否かは、フレーム差分法により変化領域を抽出し、その変化領域の大きさや縦横比等を用いて人物か否かを判定する。なお、人物検出の方法は、背景差分法、識別器の利用など種々存在しており、本発明としてはいかなる方法を採用しても良い。ここでは、人物の検出方法については、本発明の本質的部分ではないので詳細な説明は割愛する。
Each time the
顔抽出手段13は、人物領域画像から人物の顔が写っている領域である顔領域を検出し、その顔領域を含むように矩形状に切り取り、図8に示すような顔領域画像を抽出する。具体的には、顔抽出手段13は、人物領域画像に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔抽出手段13は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を基に顔領域画像を抽出する。
この場合において、顔抽出手段13は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。なお、顔領域画像の抽出方法は、種々存在するので適宜、他の方法を採用しても良い。例えば、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.Violaと M.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001)を参照することができる。
The face extraction means 13 detects a face area that is an area in which a person's face is reflected from the person area image, cuts it into a rectangular shape so as to include the face area, and extracts a face area image as shown in FIG. . Specifically, the
In this case, the
ところで、本実施の形態では、顔抽出手段13は、人物検出手段12が抽出した人物領域画像に対して顔領域抽出の処理を行っているが、入力画像から直接顔領域抽出の処理を実行してもよい。そして、顔抽出手段13にて抽出した顔領域画像を人物領域画像として、追跡処理などの処理をするようにしても良い。この場合、顔抽出手段13が人物検出手段12の役割を兼ねることとなる。
By the way, in the present embodiment, the
追跡手段14は、人物検出手段12が抽出した人物領域画像について、公知のトラッキング技術を用いて追跡処理を実行する。そして、順次処理する入力画像にて同一人物として追跡された人物領域画像を履歴テーブル32の人物領域画像74に、撮像部3における入力画像の撮影時刻を時刻72に、画像上の人物領域の位置情報を追跡位置73に記憶させる。なお、履歴テーブル32の系列データの詳細については、図7を参照して後述する。
追跡手段14は、所定の時間間隔で順次取得される現フレームの入力画像の人物領域画像それぞれについて、前フレームの入力画像(1時点前の入力画像)から抽出された人物領域画像との対応関係を用いてトラッキングを実行する。例えば、人物領域ごとに、現フレームの人物領域画像の重心位置と前フレームの人物領域画像の重心位置との距離を求めて、その距離が所定の閾値以下である場合に、その人物領域を同一人物によるものとして系列データとして対応付ける。また、追跡手段321は、人物領域と対応付けることができなかった場合、その現フレームの人物領域は、新たに撮影領域内に入ってきた人物が写っているものとして、履歴テーブル32にその人物についての系列データとして、試行番号70の行を新たに追加する。
なお、トラッキング技術には、重心位置ばかりでなく、色の類似度、形状の類似度、移動速度など種々のパラメータを用いたものが数多く存在するが、本発明にとって本質ではないので詳細の説明は省略する。なお、人物領域の追跡を行なえる方式であればオプティカルフロー、パーティクルフィルタ等の方法などいかなる方式を採用しても良い。
The
The
There are many tracking techniques that use not only the center of gravity position but also various parameters such as color similarity, shape similarity, movement speed, etc., but these are not essential to the present invention and will not be described in detail. Omitted. Note that any method such as an optical flow method, a particle filter method, or the like may be adopted as long as the method can track a person area.
顔撮影条件算出手段15は、顔抽出手段13にて抽出した顔領域画像から顔が撮影された際の撮影条件を示す特徴を算出する手段である。本実施の形態では、顔領域画像にある顔の陰影から顔を撮影した時の光源方向を推定する。なお、ここで言う「顔」とは、3次元の形状を有している実物の顔を指しており、写真を意味しているわけではない。
The face photographing condition calculating means 15 is a means for calculating a feature indicating a photographing condition when a face is photographed from the face area image extracted by the
顔撮影条件算出手段15は、顔抽出手段13によって抽出された顔領域画像に対して、その顔領域画像に写っている顔とその顔に陰影を与える光源との位置関係を表す光源方向を求める。
先ず、顔撮影条件算出手段15は、記憶部30に記憶されている3次元顔形状モデル33に回転、拡大/縮小などの処理をしつつ、3次元顔形状モデル33が有する複数の顔形状特徴点と、当該顔形状特徴点に相当する顔領域画像における特徴点との位置合わせを行ない、図6に示すような位置合わせされた位置合わせ済み形状モデル600を作成する。
The face photographing
First, the face photographing
次に、図6を参照し、光源方向の算出方法について説明する。図6(a)は、位置合わせ済み形状モデル600に対して光源601から光を照射し、陰影(斜線)を付けた状況の概念図である。また、顔撮影条件算出手段15は、図6(a)の陰影が付けられた位置合わせ済み形状モデル600から二次元の平面画像に射影した図6(b)に示す陰影画像を生成する。
顔撮影条件算出手段15は、位置合わせ済み形状モデル600に対して種々の光源方向から光を照射した際に生じる顔の凹凸に起因する位置合わせ済み形状モデル600における陰影画像を求める。また、当該陰影画像ごとに、陰影が付けられたときの光源601への方向ベクトルを光源方向として記憶している。
そして、顔撮影条件算出手段15は、顔抽出手段13が抽出した顔領域画像と図6(b)の光源方向ごとに生成された陰影画像と比較し、陰影が略合致する位置合わせ済み形状モデルを特定する。そして、対応する位置合わせ済み形状モデル600の光源方向を履歴テーブル32の光源方向75に記憶させる。
Next, a method for calculating the light source direction will be described with reference to FIG. FIG. 6A is a conceptual diagram of a situation in which light is applied from the
The face photographing
Then, the face photographing condition calculation means 15 compares the face region image extracted by the face extraction means 13 with the shadow image generated for each light source direction in FIG. Is identified. Then, the light source direction of the corresponding registered
なお、光源方向は、位置合わせ済み形状モデルの3次元の正規直交座標系(X,Y,Z)で表されるベクトルとしている。図6に示すように、この座標系では、位置合わせ済み形状モデル600の重心を原点とし、位置合わせ済み形状モデル600の水平方向をX軸、垂直方向をY軸、X軸及びY軸と直交する方向をZ軸とする。光源方向は、X軸成分lX、Y軸成分lY及びZ軸成分lZを用いて(lX,lY,lZ)と表される。かかる光源方向は、顔を撮影した際の撮影条件を示す特徴としての性質を有する。
なお、光源方向を推定するための方法は、これに限られるものではなく、種々の公知な方法を用いることができる。
The light source direction is a vector represented by a three-dimensional orthonormal coordinate system (X, Y, Z) of the aligned shape model. As shown in FIG. 6, in this coordinate system, the center of gravity of the aligned
Note that the method for estimating the light source direction is not limited to this, and various known methods can be used.
不正行為判定手段16は、追跡中の人物領域画像にかかる記憶部30の履歴テーブル32の同一の系列データにおける光源方向75を参照し、系列データに記憶されている光源方向をすべて読み出す。そして、不正行為判定手段16は、読み出した光源方向のレコードが3レコード以上存在するか否かを判定し、3以上存在すれば、それらの光源方向が±5度の範囲内(所定範囲の例)に収まっているか否かを更に判定する。3以上存在しない場合は、不正行為判定手段16は、±5度の範囲内に収まっているかの判断はしない。そして、所定範囲内に収まっていれば写真画策が行なわれたと判定し、認証手段18に写真画策の旨を認証手段18へ出力する。他方、所定範囲内に収まっていなければ特別の処理は行なわない。
ここで、所定の範囲とは、光源方向の算出誤差の範囲と考えられる程度の範囲が好ましい。この範囲は、撮像部3の設置が想定される環境での光源方向の変動量と、顔撮影条件算出手段15での算出誤差の程度を考慮し、これらを区別可能な程度に実験または経験から予め設定される。
なお、本実施の形態では、光源方向のレコードが3レコード以上で判断しているが、2レコードでもよいし、それ以上の数としてもよい。これは、認証結果を出すにあたっての必要な時間的な制約や物理的な制約等に応じて設定する。
The fraud determination means 16 refers to the
Here, the predetermined range is preferably a range that can be considered as a range of calculation error in the light source direction. This range takes into account the amount of variation in the light source direction in the environment where the
In the present embodiment, it is determined that the number of records in the light source direction is three or more. However, the number of records may be two or more. This is set according to the time constraint and physical constraint necessary for issuing the authentication result.
顔照合手段17は、顔抽出手段13が抽出した顔領域画像と記憶部30の登録者データ31に記憶されているすべての登録顔画像を照合し、それぞれ登録顔画像との類似度を算出し、最も高い値の類似度を履歴テーブル32の類似度76に記憶させ、当該登録顔画像の登録人物の登録者IDを履歴テーブル32の候補人物ID77に記憶させる。なお、類似度の算出方法として、顔抽出手段13が抽出した顔領域画像と登録顔画像のそれぞれから顔の特徴点を抽出し、対応する特徴点どうしの位置関係の一致の程度から類似度を求める方法を採用する。その他、顔画像同士の似ている度合いを算出できるものであれば如何なる方法を採用しても良い。
The
認証手段18は、不正行為判定手段16にて写真画策と判定を受けると、結果出力手段19に出力部から警報ランプの点灯信号を出力させるとともに、履歴テーブル32の追跡フラグ71をOFFにする。
認証手段18は、履歴テーブル32を参照し、追跡フラグ71がONとなっている系列データにおける候補人物ID77ごとの平均類似度を算出し、平均類似度が認証閾値、例えば「0.9」を超えていれば当該IDの登録者であると判定し、認証OKとの認証結果を履歴テーブル32に記憶する。また、平均類似度が認証閾値以下であれば、認証NGとの認証結果として、履歴テーブル32に記憶する。
更に、登録者と判定すると、結果出力手段19に出力部20から電気錠の解錠信号を出力させるとともに、履歴テーブル32の追跡フラグ71をOFFにする。他方、登録者と判定できなければ、履歴テーブル32における系列データが作成された時刻から所定の認証時間が経過したか判定し、認証時間が経過していれば、認証失敗信号を結果出力手段19から出力部20に出力させ、履歴テーブル32の追跡フラグ71をOFFにする。認証時間が経過していなければ、特段の処理は行なわない。
When the
The
Further, when it is determined that the user is a registrant, the result output means 19 outputs the unlocking signal of the electric lock from the
ここで、図7を参照し、記憶部30に記憶される履歴テーブル32について説明する。図7は、履歴テーブル32の内容を示している。図7において、履歴テーブル32は、試行番号70、追跡フラグ71、時刻72、追跡位置73、人物領域画像74、光源方向75、類似度76、候補人物ID77、認証結果78を追跡中の人物毎に対応付けたテーブルである。
Here, the history table 32 stored in the
試行番号70は、追跡中の人物の系列データを他の人物の系列データと識別するための識別番号であり、撮影領域に人物領域画像が最初に出現してから消失するまで追跡手段14によって追跡がされた人物毎の系列データを識別するための番号である。
追跡フラグ71は、追跡中の人物に対する追跡が継続しているか否かをあらわすフラグを記憶する領域であり、追跡対象の人物領域の系列ごとに追跡手段14がその人物の追跡を開始するとONになり、追跡を終了するとOFFに設定される。
時刻72は、人物領域画像を抽出した入力画像を撮像部3が取得した時刻を記憶する領域である。追跡手段14にて抽出した追跡対象の人物領域画像ごとに記憶される。
追跡位置73は、人物領域画像が入力画像内に所在する位置座標を記憶する領域であって、追跡対象の人物領域画像ごとに記憶される。
人物領域画像74は、追跡対象となっている人物領域画像を記憶する領域である。追跡手段14による追跡処理で1フレーム前の人物領域画像と同一人物のものとして対応付けられた人物領域画像を同一の系列データとして記憶している。
光源方向75は、顔撮影条件算出手段15にて人物領域画像の顔領域画像から算出した光源方向を記憶する領域である。
類似度76は、顔照合手段17にて算出したその顔領域画像と複数の登録顔画像のそれぞれとの類似度のうち、最も値が高かった類似度(照合スコア)を記憶する領域である。
認証候補人物77は、顔照合手段17にて算出した顔領域画像と複数の登録顔画像のそれぞれとの類似度のうち、最も値が高かった類似度を示した登録顔画像を持つ登録者データ31における登録者の識別ID(登録者ID)を記憶する領域である。
認証結果78は、認証手段18にて認証処理をした結果である認証OK、認証NGまたは不正行為の何れかを記憶する領域である。
The
The tracking
The
The
The
The
The
The
The
以下、図4及び図5に示したフローチャートを参照しつつ、本発明を適用した顔画像認証装置1による認証処理の動作を説明する。なお、以下に説明する動作のフローは、画像処理部10を構成するマイクロプロセッサ上で動作し、顔画像認証装置1全体を制御する制御部(図示せず)により制御される。なお、以下に説明する処理の実施前に、履歴テーブル32は空白になるよう初期化される。また、以下に説明する動作は、入力画像を一つ取得するごとに実行される。
The operation of the authentication process by the face
最初に、顔画像認証装置1の画像取得手段11は、撮像部3が撮影領域を撮影した入力画像を取得する(ステップS801)。画像取得手段11が入力画像を取得すると、人物検出手段12は、取得された入力画像から、人物が写っている人物領域画像を抽出する(ステップS802)。次に、人物検出手段12は、一つ以上の人物領域画像が検出されたか否か判定する(ステップS803)。人物領域画像が全く検出されなかった場合、ステップS801へ処理を移行し、人物領域画像が検出されるまでステップS801〜S803の処理を繰り返す。
First, the image acquisition unit 11 of the face
一方、ステップS803において、一つ以上の人物領域画像が検出された場合、追跡手段14は、検出された全ての人物領域画像について、履歴テーブル33における追跡フラグ71がONとなっている系列データにおける最新のレコード(時刻72が最新となっている行のレコードを指す。)との対応付けを実施する(ステップS804)。そして追跡手段14は、追跡フラグ71がONとなっている系列データについて、現フレームの人物領域画像のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS805)。現フレームの人物領域画像のいずれとも対応付けられなかった、追跡フラグ71がONとなっている系列データがある場合、その系列データの人物は、認証成功となって入室したか、又は認証されずに撮影領域から離れたと考えられる。そのため、追跡手段14は、現フレームの人物領域画像のいずれとも対応付けられなかった系列データの追跡フラグ71をOFFに設定して、以後その系列データに対する追跡処理を実施しないようにする(ステップS806)。一方、現フレームの人物領域画像のいずれとも対応付けられなかったものがない場合、追跡手段14はステップS807へ進む。
On the other hand, when one or more person area images are detected in step S803, the
次に、追跡手段14は、現フレームの人物領域画像すべてについて、追跡フラグ71がONとなっている系列データと対応付けることができなかったものがあるか否かを判定する(ステップS807)。追跡フラグ71がONとなっている系列データと対応付けることができなかったものがある場合、追跡手段14は、対応付けることができなかった人物領域画像についての系列データを履歴テーブル32に新たな系列データを追加する。すなわち追跡手段14は、対応付けることができなかった人物領域画像についての系列データに新たな試行番号70を割り当てる。そして、追跡フラグ71をONに設定、入力画像の撮影時刻を時刻72に設定、入力画像上の人物領域画像の位置情報を追跡位置73に記憶、更に人物領域画像を人物領域画像73に記憶させる(ステップS808)。一方、ステップS807にて追跡フラグ71がONとなっている系列データと対応付けることができなかったものがない場合、追跡手段14はステップ809に進む。
Next, the
そして、現フレームの人物領域画像について、追跡フラグ71がONとなっている系列データと対応付けることができた系列データについて、追跡手段14は入力画像の撮影時刻を時刻72に設定、入力画像上の人物領域画像の位置情報を追跡位置73に記憶、更に人物領域画像を人物領域画像73に追加記憶させる(ステップS809)。
以上のステップS801〜S809の処理を実施することで、同一の人物を追跡した系列データが履歴テーブル33記憶される。
The tracking means 14 sets the shooting time of the input image at
By carrying out the processes in steps S801 to S809 described above, series data tracking the same person is stored in the history table 33.
図5に示す以下のステップS810〜S817の処理は、追跡フラグ71がONである系列データごとに行われる。
顔抽出手段13は、処理対象の系列データの最新の人物領域画像から顔領域を検出し、その顔領域を人物領域画像から切り出して顔領域画像を抽出する(ステップS810)。
次に、顔照合手段17は、顔領域画像と登録者データ31に記憶されている登録顔画像との類似度を算出し、最も高い類似度を類似度76に記憶するとともに、当該登録顔画像の登録者IDを候補人物ID77に記憶する(ステップS811)。
次に、顔撮影条件算出手段15は、顔抽出手段13が抽出した顔領域画像について、それが撮影されたときの撮影条件を示す特徴として光源方向を算出し、履歴テーブル32の光源方向75に記憶する(ステップS812)。
The following steps S810 to S817 shown in FIG. 5 are performed for each series data in which the tracking
The
Next, the face collating means 17 calculates the similarity between the face area image and the registered face image stored in the registrant data 31, stores the highest similarity in the
Next, the face photographing
次に、不正行為判定手段16は、その系列データにおいて算出された光源方向のレコード数が3以上であるか否かを判定する(ステップS813)。その系列データにおいて算出された光源方向のレコード数が3未満である場合、不正行為判定手段16は、その系列データについては特に処理を実施せずに次の系列データの処理に移行する。一方、その系列データにおいて算出された光源方向のレコード数が3以上である場合、不正行為判定手段16は、それらの光源方向が略同一と判断できる±5度程度の範囲に収まっているか判定する(ステップS814)。 Next, the fraud determination means 16 determines whether or not the number of records in the light source direction calculated in the series data is 3 or more (step S813). If the number of records in the light source direction calculated in the series data is less than 3, the fraud determination means 16 proceeds to processing of the next series data without performing any particular process on the series data. On the other hand, when the number of records in the light source direction calculated in the series data is 3 or more, the fraud determination means 16 determines whether the light source directions are within a range of about ± 5 degrees where the light source directions can be determined to be substantially the same. (Step S814).
そして、ステップS814にて、±5度程度の範囲に収まっていると判定した場合、不正行為判定手段16は、履歴テーブル32の認証結果78に不正行為として当該系列データの認証結果として記憶させるとともに、追跡フラグをOFFに設定する(ステップS815)。ステップS815では更に、認証手段18が履歴テーブル32にて認証結果78に不正行為との結果が記録されると、写真画策が行われたと判定し、写真画策が行われたことを示す信号を出力部20に出力する。写真画策が行われたことを示す信号が出力部20に出力された場合、出力部20を介して不図示の警報ランプの点灯、不図示のブザーの鳴動等が行われる。あるいは、出力部20を介して、その写真画策が行われたことを示す信号が不図示の監視センタ装置へ出力される。これにより監視センタ装置は、写真画策が行われたことを管理者に通知し、またその履歴を記録することができる。
If it is determined in step S 814 that it is within the range of about ± 5 degrees, the fraud determination means 16 stores the
一方、ステップS814にて、±5度程度の範囲に収まっていないと判定した場合、認証手段18は、履歴テーブル32の類似度76及び候補人物ID77を読み出し、候補人物IDに記憶されている登録人物IDが同一である類似度の平均値を求める。そして、当該類似度の平均値が認証閾値である「0.9」を超えているか判断する(ステップS816)。
ステップS816にて、認証閾値を超えていると判断すると、ステップS817にて当該登録人物であると判定し、認証OKを認証結果78に記憶するともに追跡フラグ71をOFFに設定する。そして、結果出力手段19から出力部20を介して電気錠への解錠信号及び認証結果OK信号を出力させる。
他方、ステップS816にて認証閾値を超えていないと判断すると、ステップS818にて、認証手段18は時刻72を参照し、系列データが作成された最初の時刻から本フレームの時刻までの経過時間である認証時間が既定の時間以上か判定する。この既定の時間は、撮影条件を示す特徴の変化を判定する程度の時間は経過していても顔認証に充分なだけの人物領域画像を得られるようにするための時間である。充分な時間が経過していれば、ステップS819に進み、認証NGを認証結果78に記憶するとともに追跡フラグ71をOFFに設定する。他方、ステップS818にて既定の時間未満であれば次の系列データの処理に移行する。
全ての系列データについて処理が終わると、図4のステップS801に戻り、次の入力画像の処理を繰り返す。
On the other hand, if it is determined in step S814 that the value is not within the range of about ± 5 degrees, the
If it is determined in step S816 that the authentication threshold has been exceeded, it is determined in step S817 that the person is a registered person, authentication OK is stored in the
On the other hand, if it is determined in step S816 that the authentication threshold has not been exceeded, in step S818, the
When the process is completed for all the series data, the process returns to step S801 in FIG. 4 to repeat the process for the next input image.
次に、図7に示す履歴テーブルについて、本発明にかかる顔画像認証装置の各手段により、どのように処理されたのかの例を、図1に示す撮影場所の模式図、図2に示す人物領域画像を用いて説明する。
なお、以下では、説明を容易にするため、入力画像は1秒間隔で取得され、図7の履歴テーブル32もそれに応じて1秒間隔で更新されるものとする。
Next, an example of how the history table shown in FIG. 7 is processed by each unit of the face image authentication apparatus according to the present invention is shown in the schematic diagram of the shooting location shown in FIG. 1 and the person shown in FIG. This will be described using region images.
In the following, for ease of explanation, it is assumed that input images are acquired at 1-second intervals, and the history table 32 in FIG. 7 is also updated accordingly at 1-second intervals.
まず、登録者が撮影された場合について説明する。当該人物は、履歴テーブル33において、試行番号70が「1」で示されている。
図1(a)に示すように、時刻t1において人物110は撮像部3により撮影され、画像取得手段11を経由して入力画像が取得される。本実施例では、入力画像が取得された時刻t1は「2012/06/20 10:12:35」であるので、時刻72にはその時刻が記録される。
そして人物検出手段12は、入力画像から人物110の人物領域画像を抽出して、追跡手段14は入力画像中での位置、即ち人物領域画像の重心位置を求めて、追跡位置73に記録する。本実施の形態では、入力画像の座標は、左上を原点とし、右に向かってX座標が増え、下に向かってY座標が増えるよう定義してあり、人物110の位置は「(610,320)」として、その座標値が追跡位置73に記録される。
また、人物検出手段12により抽出された人物領域画像は、履歴テーブル33の人物領域画像74に記録される。記録される人物領域画像は図2(a)に示すものである。
First, a case where a registrant is photographed will be described. The
As shown in FIG. 1A, the
Then, the
The person area image extracted by the person detecting means 12 is recorded in the
顔撮影条件算出手段15は、人物領域画像から抽出された顔領域画像から撮影条件を示す特徴を算出する。本実施の形態では、光源方向を表す方向ベクトル(大きさ1)の座標情報を算出する。
図1(a)に示すように、時刻t1における人物110の場合、ダウンライト102は人物110のやや左前方かつ上方に位置している。光源方向を表す方向ベクトルのXYZ座標は「(0.09,0.87,-0.5)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が人物110に対し、水平方向から60度上方向のピッチ角(仰角)、人物110から見た正面方向から10度左方向のヨー角の方向に位置していることに対応するものである。
The face photographing condition calculation means 15 calculates a feature indicating the photographing condition from the face area image extracted from the person area image. In the present embodiment, coordinate information of a direction vector (size 1) representing the light source direction is calculated.
As shown in FIG. 1A, in the case of a
顔照合手段17は、類似度を求め、その結果を類似度76に記憶する。本実施の形態では、人物110の位置において照明条件などは好適なものであるので、類似度を0から1に正規化した結果において「0.98」という高い類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」が記録される。
The face collating means 17 obtains the similarity and stores the result in the
The
次に、1時刻が経過して時刻t1+1において、符号111に示す位置に人物が移動したとする。本実施例では、入力画像が取得された時刻t1+1は、上記説明の時刻より1秒が経過した場合として「2012/06/20 10:12:36」が時刻72に記録される。
そして時刻t1と同様に人物領域画像の重心位置の座標として「(630,530)」が追跡位置73に記録される。
また人物領域画像74に記録される人物領域画像は図2(b)に示すものである。
Next, it is assumed that a person has moved to the position indicated by
Then, “(630,530)” is recorded at the
The person area image recorded in the
時刻t1と同様に顔撮影条件算出手段15は、抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t1+1における人物111の場合、ダウンライト102は人物111の略直上に位置している。この場合、方向ベクトルのXYZ座標は「(0,1,0)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が登録者111に対し、水平方向から90度上方向のピッチ角(仰角)、人物111から見た正面方向から0度のヨー角の方向に位置していることに対応するものである。
Similar to the time t1, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the
顔照合手段17は、時刻t1と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、登録者111の略直上に照明装置があるため、図2(b)に示すように、顔部分には不自然な明暗差が生じており、時刻t1の場合ほどには高い類似度は求まらないものの、登録されている人物であるので、「0.85」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして、「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the
Further, the
次に、さらに1時刻が経過して時刻t1+2において、符号112に示す位置に人物が移動したとする。本実施例では、時刻t1+2は、上記説明の時刻よりさらに1秒が経過して入力画像が取得された場合として「2012/06/20 10:12:37」が時刻72に記録される。
そして時刻t1と同様に人物領域画像の重心位置の座標として「(620,710)」が追跡位置73に記録される。
また人物領域画像74に記録される人物領域画像は図2(c)に示すものである。
Next, it is assumed that one time has passed and the person has moved to the position indicated by
Then, “(620,710)” is recorded at the
The person area image recorded in the
時刻t1と同様に顔撮影条件算出手段15は、抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t1+2における登録者112の場合、ダウンライト102は人物112の後方かつ上方に位置している。この場合、方向ベクトルのXYZ座標は「(0,0.98,0.17)」であるので、その座標値が光源方向75に記憶される。このXYZ座標の値は、ダウンライト102が人物112に対し、水平方向から100度上方向のピッチ角(仰角)、人物112から見た正面方向から0度のヨー角の方向に位置していることに対応するものである。
Similar to the time t1, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the
顔照合手段17は、時刻t1と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、人物112の後方かつ上方に照明装置があるため、図2(c)に示すように、顔部分は全体的に暗く、撮像部3のダイナミックレンジの都合で顔のテクスチャ情報が多少欠落していることもあり、時刻t1の場合ほどには高い類似度は求まらない。しかし登録されている人物であるので、「0.91」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして、「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the
Further, the
不正行為判定手段16は、試行番号70が「1」の光源方向75を参照して、光源方向の変化の様子を把握する。本実施の形態では、t1、t1+1、t1+2では、水平方向を基準にした仰角がそれぞれ60度、90度、100度と、実際の光源であるダウンライト102との位置関係の変化に応じた値となっている。
従って、不正行為判定手段16は、試行番号70が「1」の人物は不正行為を行っていないと判定し、その旨認証手段18に出力する。
The fraud determination means 16 refers to the
Therefore, the fraud determination means 16 determines that the person whose
認証手段18は、試行番号70が「1」の類似度76と候補人物ID77を参照して、撮影されている人物を特定する。即ち、本実施の形態では、時刻t1、t1+1、t1+2の3時刻の何れにおいても、登録者のIDが「A」の人物との類似度が最も高いという結果が得られており、3時刻分の類似度の平均を求めると、0.91である。これは認証判定のための閾値0.9を超えている。よって、認証手段18は、試行番号70が「1」の人物は登録者のIDが「A」であると判定して、認証結果78に「認証OK(A)」を記録する。
The authentication means 18 refers to the
次に、不審者が写真画策をしている場合について説明する。当該不審者は、履歴テーブル33において、試行番号70が「2」で示されている。
図1(b)に示すように、人物120は登録者の顔写真103を自らの顔の前に掲げている。本実施例では、入力画像が取得された時刻t2は「2012/06/20 11:25:14」であるので、時刻72にはその時刻が記録される。
そして試行番号70が「1」の人物と同様に、人物領域画像の重心位置の座標として「(580,310)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(d)に示すものである。
Next, a case where a suspicious person is taking a picture plan will be described. The suspicious person has a
As shown in FIG. 1B, the
As in the case of the person whose
顔撮影条件算出手段15は、当該抽出された顔領域画像から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2における人物120の場合、方向ベクトルのXYZ座標は「(0.99,0.09,-0.09)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.09,-0.09)」という値は、顔領域画像204に写っている顔から見た光源方向が、水平方向から5度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の85度のヨー角の方向に位置していることに対応するものである。尚、このXYZ座標の値は、図2(d)に示す人物領域画像の顔部分である顔領域画像204から求められているものの、当該顔領域画像204に表れている陰影情報は、人物120が掲げる写真が撮影されたときの陰影情報であり、それに基づいて方向ベクトルのXYZ座標の値が求まっているものである。これは、以下に述べるt2+1とt2+2でも同様である。
The face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction from the extracted face area image.
In the case of the
顔照合手段17は類似度を求め、その結果を類似度76に記憶する。本実施の形態では、顔領域画像204は登録されている人物であるので、「0.92」という類似度が求められている。
また顔照合手段17は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」が記録される。
The face collating means 17 obtains the similarity and stores the result in the
The
次に、1時刻が経過して時刻t2+1において、写真103を同じく掲げつつ符号121に示す位置に人物が移動したとする。本実施例では、時刻t2+1は、上記説明の時刻より1秒が経過して入力画像が取得された場合として「2012/06/20 11:25:15」が時刻72に記録される。
そして試行番号70が「1」の人物と同様に、人物領域画像の重心位置の座標として「(590,500)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(e)に示すものである。
Next, it is assumed that at time t2 + 1 after one time has passed, the person has moved to the position indicated by
As in the case of the person whose
時刻t2と同様に、顔撮影条件算出手段15は、当該抽出された顔領域画像206から光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2+1における人物121の場合の方向ベクトルのXYZ座標は「(0.99,0.10,-0.09)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.10,-0.09)」という値は、顔領域画像206に写っている顔から見た光源方向が、水平方向から6度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の85度のヨー角の方向に位置していることに対応するものである。
Similarly to time t2, the face photographing
Since the XYZ coordinates of the direction vector in the case of the
顔照合手段17は、時刻t2と同様に類似度を求め、その結果を類似度76に記憶する。本実施の形態では、不審者121の略直上に照明装置があるため、図2(e)に示すように、写真を写した顔部分は逆光気味でやや暗く、時刻t2の場合ほどには高い類似度は求まらないものの、登録されている人物を写した写真であるので、「0.84」という類似度が求められている。
また顔照合手段は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」を候補人物ID77に記録する。
The face collating means 17 obtains the similarity as in the
Further, the face collating unit records “A” in the
次に、さらに1時刻が経過して時刻t2+2において、写真103を同じく掲げつつ符号122に示す位置に人物が移動したとする。本実施例では、時刻t2+2は、上記説明の時刻よりさらに1秒が経過して入力画像が取得された場合として「2012/06/20 11:25:16」が時刻72に記録される。
そして時刻t2と同様に、人物領域画像の重心位置の座標として「(595,650)」が追跡位置73に記録される
また人物領域画像74に記録される人物領域画像は図2(f)に示すものである。
Next, assume that one more time has passed and at
Similarly to the time t2, “(595,650)” is recorded at the
時刻t2と同様に顔撮影条件算出手段15は、光源方向を表す方向ベクトルの座標情報を算出する。
時刻t2+2における人物122の場合の方向ベクトルのXYZ座標は「(0.99,0.09,-0.07)」であるので、その座標値が光源方向75に記憶される。この方向ベクトルのXYZ座標「(0.99,0.09,-0.07)」という値は、顔領域画像208に写っている顔から見た光源方向として、水平方向から5度上方向のピッチ角(仰角)、その顔から見た正面方向からほぼ左真横の86度のヨー角の方向に位置していることに対応するものである。
Similar to the time t2, the face photographing condition calculation means 15 calculates the coordinate information of the direction vector representing the light source direction.
Since the XYZ coordinates of the direction vector in the case of the
顔照合手段17は、時刻t2と同様に、その結果を類似度76に記憶する。本実施の形態では、人物122の後方かつ上方に照明装置があるため、図2(f)に示すように、顔部分は全体的に暗く、撮像部3のダイナミックレンジの都合で顔のテクスチャ情報が多少欠落していることもあり、時刻t2の場合ほどには高い類似度は求まらない。しかし顔領域画像208は登録されている人物の顔なので、「0.90」という類似度が求められている。
また顔照合手段は、当該類似度が求められた登録顔画像に写っている登録者を表すIDとして「A」を候補人物ID77に記録する。
The
Further, the face collating unit records “A” in the
不正行為判定手段16は、試行番号70が「2」の光源方向75を参照して、光源方向の変化の様子を把握する。本実施の形態では、t2、t2+1、t2+2では、水平方向を基準にした仰角がそれぞれ5度、6度、5度、顔の正面方向を基準にした左方向へのヨー角が85度、85度、86度と、ダウンライト102があるにも関わらず、顔を直接撮像部3に見せる通常の認証行為では考えにくいほど変化しておらず、ピッチ角(仰角)もヨー角も予め設定した±5度の範囲内である。
従って、不正行為判定手段16は、試行番号70が「2」の人物は不正行為を行っていると判定し、その旨認証手段18に出力する。
The fraud determination means 16 refers to the
Therefore, the fraud determination means 16 determines that the person with the
認証手段18は、試行番号70が「2」の類似度76と候補人物ID77に記録された結果が、如何に登録者と判定するのが好適なものであっても、認証OKとの結果とはせず、認証結果78に「不正行為」を記録する。
The authentication means 18 determines whether the result recorded in the
次に、未登録の不審者が撮影された場合について説明する。当該人物は、試行番号70が「2」の人物と異なり、顔の前に写真を掲げる不正行為は行っておらず、履歴テーブル33においては試行番号70が「3」で示されている。
当該人物についての処理は、不正行為を行ってはいないので試行番号70が「1」の登録者の場合と同様であり、詳細は省略するが、類似度76と候補人物ID77の様子は大きく異なっている。
Next, a case where an unregistered suspicious person is photographed will be described. Unlike the person whose
The process for the person is the same as the case of the registrant with the
即ち、未登録であるが故に、登録者の顔画像の何れとも類似度が高くなることはない。よって類似度76は、3時刻の何れの値も認証判定に用いる閾値0.9よりも小さく、類似度の平均や最大値を求めても当該閾値を超えない。
よって、認証手段18は、当該人物について、登録されている人物ではないとの判断を行い認証結果78に「認証NG(未登録者)」と記録する。
That is, since it is unregistered, the similarity does not increase with any of the registrant's face images. Accordingly, the
Therefore, the
以上説明してきたように、本発明を適用した顔画像認証装置は、歩行する人物を順次撮影した複数の入力画像のそれぞれから同一の人物の顔が写っている領域を抽出して顔領域画像とするとともに、各顔領域画像について光源方向を求める。そして、顔画像認証装置は、各入力画像から抽出された各顔領域画像についての光源方向が変化しなければ、顔領域画像に写っているのは顔写真であると判定する。これにより、顔画像認証装置は、顔写真を用いた不正行為の有無を適切に判定することができる。 As described above, the face image authentication apparatus to which the present invention is applied extracts a region in which the same person's face is captured from each of a plurality of input images obtained by sequentially capturing a walking person, In addition, the light source direction is obtained for each face area image. Then, the face image authentication apparatus determines that a face photograph is included in the face area image if the light source direction of each face area image extracted from each input image does not change. Thereby, the face image authentication apparatus can appropriately determine the presence or absence of fraud using a face photograph.
また、顔画像認証装置は、連続して取得された入力画像から抽出された顔領域画像について求めた光源方向を用いてその変化を検出することに代えて、連続して取得された入力画像のうち人物が一定距離以上移動したタイミングでそれぞれ取得された入力画像から抽出された顔領域画像について求めた光源方向を用いてその変化を検出してもよい。その場合、顔画像認証装置は、ある系列データについて、あるタイミングで抽出された人物領域について光源方向を求める。そして、顔画像認証装置は、その系列データについて、その後に抽出された人物領域が、直前に光源方向を求めた人物領域の位置に対して所定距離以上離れた位置にある場合に限り光源方向を求める。なお、各人物領域の位置は、追跡位置情報に記憶されており、顔画像認証装置は、人物領域を抽出するたびに、その人物領域の重心位置と、直前に光源方向を求めた人物領域の重心位置との間の距離(2次元ノルム)を算出し、算出した距離が所定値以上である場合に光源方向を求める。これにより、顔画像認証装置は、顔領域画像における光源方向の時間に応じた変化ではなく、人物の移動に応じた変化を求めることができ、顔領域画像に写っているのが顔写真であるか否かをより高精度に判定することができる。
なお、顔画像認証装置は、距離センサーを備え、距離センサーから取得した距離情報に基づいて、人物が一定距離以上移動したか否かを判断してもよい。これにより、撮影領域内の現実の位置に基づいて、より高精度に人物の移動距離を求めることができる。
In addition, the face image authentication device detects the change using the light source direction obtained for the face area image extracted from the continuously acquired input image, instead of detecting the change of the continuously acquired input image. Among them, the change may be detected by using the light source direction obtained for the face area image extracted from the input image respectively acquired at the timing when the person moves more than a certain distance. In this case, the face image authentication apparatus obtains the light source direction for a person region extracted at a certain timing for a certain series data. Then, the face image authentication device sets the direction of the light source for the series data only when the person area extracted thereafter is at a position more than a predetermined distance away from the position of the person area for which the light source direction was obtained immediately before. Ask. The position of each person area is stored in the tracking position information, and each time the face image authentication apparatus extracts a person area, the position of the center of gravity of the person area and the person area for which the light source direction was obtained immediately before are extracted. A distance (two-dimensional norm) between the center of gravity position is calculated, and the light source direction is obtained when the calculated distance is a predetermined value or more. As a result, the face image authentication apparatus can obtain a change according to the movement of the person, not a change according to the time of the light source direction in the face area image, and the face photograph is reflected in the face area image. It can be determined with higher accuracy.
Note that the face image authentication device may include a distance sensor, and may determine whether or not the person has moved a certain distance or more based on distance information acquired from the distance sensor. Accordingly, the movement distance of the person can be obtained with higher accuracy based on the actual position in the imaging region.
また、本実施形態では、顔の撮影時における撮影条件を示す特徴として、光源方向を求める例を示したが、本発明はこれに限定されない。例えば、顔撮影条件算出手段が、光源方向に加え、または光源方向に替えて、顔領域画像内の画素の輝度値の分散を求めてもよい。その場合、不正行為判定手段は、各顔領域画像についてそれぞれ求められた輝度値の分散について、所定数以上の顔領域画像における分散をその変化量として求める。図2(b)に示したように、写真画策を行っていない人物がダウンライトの直下にいる場合は顔の凹凸に応じて顔領域画像に明暗が生じるため、ダウンライトの直下にいる場合はいない場合より顔領域画像内の画素の輝度値の分散が大きくなる。一方、図2(e)に示したように、写真画策を行っている人物がダウンライトの直下にいる場合は顔領域画像全体が暗くなるため、ダウンライトの直下にいる場合といない場合とで、顔領域画像内の画素の輝度値の分散は写真画策を行っていない場合ほど大きく異ならない。そのため、これによっても、顔画像認証装置は、顔領域画像に写っているのが顔写真であるか否かを適切に判定することができる。 In the present embodiment, an example in which the light source direction is obtained as a feature indicating the photographing condition at the time of photographing the face has been described, but the present invention is not limited to this. For example, the face photographing condition calculation means may obtain the variance of the luminance values of the pixels in the face area image in addition to or in place of the light source direction. In this case, the fraud determination means obtains a variance of a predetermined number or more of the face area images as the amount of change with respect to the variance of the brightness values obtained for each face area image. As shown in FIG. 2 (b), when a person who is not taking a photo plan is directly under the downlight, the face area image is bright and dark according to the unevenness of the face. The variance of the luminance values of the pixels in the face area image is larger than in the case where there is not. On the other hand, as shown in FIG. 2 (e), when the person who is taking a photo plan is directly under the downlight, the entire face area image becomes dark. The variance of the luminance values of the pixels in the face area image is not so different from that when no photographic scheme is performed. Therefore, this also allows the face image authentication apparatus to appropriately determine whether or not the face area image is a face photograph.
あるいは、顔撮影条件算出手段は、顔領域画像に対してSobelフィルタなどを用いてエッジ画素抽出を行い、抽出したエッジ画素からなる画像データ(以下、エッジ画像と称する)を生成し、生成したエッジ画像を撮影条件を示す特徴の一つとして用いてもよい。その場合、不正行為判定手段は、各系列データについて、現フレームの顔領域画像についてのエッジ画像と、前フレームの対応する顔領域画像についてのエッジ画像との正規化相関を求め、その逆数を各エッジ画像間の変化量とする。図2(b)に示したように、写真画策を行っていない人物がダウンライトの直下にいる場合は顔の凹凸に応じて顔領域画像に明暗が生じるため、ダウンライトの直下にいる場合といない場合とで、抽出されるエッジ画素の分布は大きく異なる。一方、図2(e)に示したように、写真画策を行っている人物がダウンライトの直下にいる場合は顔領域画像全体が暗くなるため、ダウンライトの直下にいる場合といない場合とで、抽出されるエッジ画素の分布は写真画策を行っていない場合ほど大きく異ならない。そのため、これによっても、顔画像認証装置は、顔領域画像に写っているのが顔写真であるか否かを適切に判定することができる。 Alternatively, the face photographing condition calculation means performs edge pixel extraction on the face area image using a Sobel filter or the like, generates image data including the extracted edge pixels (hereinafter referred to as edge image), and generates the generated edge An image may be used as one of the characteristics indicating the shooting conditions. In that case, the fraud determination means obtains a normalized correlation between the edge image for the face area image of the current frame and the edge image for the corresponding face area image of the previous frame for each series data, and calculates the reciprocal thereof for each series data. The amount of change between edge images. As shown in FIG. 2 (b), when a person who has not taken a photographic plan is directly under the downlight, the face area image is bright and dark according to the unevenness of the face. The distribution of the edge pixels to be extracted differs greatly depending on whether or not there is not. On the other hand, as shown in FIG. 2 (e), when the person who is taking a photo plan is directly under the downlight, the entire face area image becomes dark. The distribution of the extracted edge pixels is not so different as when no photo is taken. Therefore, this also allows the face image authentication apparatus to appropriately determine whether or not the face area image is a face photograph.
あるいは、顔撮影条件算出手段は、顔領域画像から求めた光源方向や輝度の分散に加え、またはそれらに替えて、撮影条件を示す特徴として、人物を直接撮影したサンプル顔領域画像と同一人物の顔が写っている写真を撮影したサンプル顔領域画像を用いた学習により求めた、人物を直接撮影したサンプル顔領域画像と写真を撮影したサンプル顔領域画像とを識別可能な部分空間を予め求めておき、この部分空間に顔領域画像を投影した際の値を用いてもよい。
そのために、歩行している人物の顔が写っているサンプル通常顔領域画像と、歩行している人物が自分の顔の前に掲げている顔写真が写っているサンプル画策顔領域画像とを大量に用意する。この顔写真に写っている人物は、サンプル通常顔領域画像に写っている人物と同一人物である。また、サンプル通常顔領域画像は、歩行に応じて陰影が大きく変化し、サンプル画策顔領域画像は、歩行に応じても陰影が変化しないものを用意する。
そして、顔画像認証装置は、以下に述べるように部分空間を事前学習処理により求める。あるいは、別途専用の装置によって部分空間を求めて顔画像認証装置の記憶部に記憶してもよい。さらには、サーバークライアントタイプの装置構成を採用している場合には、サーバーマシンにより求めても良い。本願発明おいては、上記何れの方法を採用するかは限定されるものではないので、以下の説明では部分空間を求める装置を総称して簡単に「コンピュータ」と表記する。
Alternatively, the face photographing condition calculation means may include the same person as the sample face region image obtained by directly photographing the person as a feature indicating the photographing condition in addition to, or instead of, the light source direction and luminance distribution obtained from the face region image. Obtain a partial space that can distinguish between a sample face area image obtained by directly photographing a person and a sample face area image obtained by taking a photograph, obtained by learning using a sample face area image obtained by taking a photograph of a face. Alternatively, a value obtained when a face area image is projected onto the partial space may be used.
For this purpose, a large amount of sample normal face area images showing the face of a walking person and sample plan face area images showing a face photograph of a walking person in front of his / her face Prepare to. The person shown in this face photograph is the same person as the person shown in the sample normal face area image. In addition, a sample normal face area image whose shadow changes greatly according to walking is prepared, and a sample plan face area image whose shadow does not change even when walking is prepared.
Then, the face image authentication device obtains a partial space by a pre-learning process as described below. Alternatively, the partial space may be obtained by a separate dedicated device and stored in the storage unit of the face image authentication device. Further, when a server client type device configuration is adopted, it may be obtained from a server machine. In the present invention, since any of the above methods is not limited, in the following description, devices for obtaining a partial space are collectively referred to as “computer”.
部分空間を求めるコンピュータは、これらのサンプル顔領域画像をそれぞれ固有空間に投影して固有空間内の各基底における投影位置を求める。そして、コンピュータは、同一人物が写っている複数のサンプル画策顔領域画像に対しては位置の変動が小さく、同一人物が写っている複数のサンプル通常顔領域画像に対しては位置の変動が大きくなる基底を抽出し、その基底からなる部分空間(以下、画策特徴量空間と称する)を求める。
以下、顔領域画像から求められる特徴量についての固有空間から画策特徴量空間を抽出する手順について説明する。固有空間を導くために用いる顔領域画像の学習サンプルの集合をL、各学習サンプルの顔領域画像から求めた振幅スペクトルの共分散行列をΣとすると、固有空間を表す固有値Λ=diag(λk)(kは1≦k≦Dの整数)及び固有ベクトルΦ=(φ1,…,φD)は、次式から求められる。
The procedure for extracting the plan feature amount space from the eigenspace for the feature amount obtained from the face area image will be described below. When the set of learning samples of the face area image used to derive the eigenspace is L and the covariance matrix of the amplitude spectrum obtained from the face area image of each learning sample is Σ, the eigenvalue Λ = diag (λ k ) (K is an integer satisfying 1 ≦ k ≦ D) and eigenvector Φ = (φ 1 ,..., Φ D ) are obtained from the following equations.
特徴量ベクトルxiをl番目の固有値λlに対応する固有ベクトルφlに投影した特徴量の低次元表現ulは次式で表される。
画策特徴量空間の基底ekは、合成順位RAlを小さい順に並べたときの順位Rlを用いて、次式により表される。
顔撮影条件算出手段は、各系列データについて、2枚の顔領域画像からそれぞれ特徴量xA、xBを求め、それぞれを画策特徴量空間に投影し、画策特徴量u=(u1,…,uDs)、v=(v1,…,vDs)を求める。つまり、画策特徴量u、vのi番目の成分ui、viは次式で表される。
上記の説明では、分散σNlを求めるためのサンプル通常顔領域画像と、分散σPlを求めるためのサンプル画策顔領域画像に写っている人物は同一人物として説明したが、それぞれの分散を求めるための顔領域画像が、十分に多くの人物について得られている場合には、人物ごとの分散σNlと分散σPlのそれぞれを平均して、合成順位を求めるなどの処理を行っても同様に判定できる。
The face photographing condition calculation means obtains feature quantities x A and x B from the two face area images for each series data, projects each into the plan feature quantity space, and the plan feature quantity u = (u 1 ,. , u Ds ), v = (v 1 ,..., v Ds ). That is, the i-th components u i and v i of the plan feature quantities u and v are expressed by the following equations.
In the above description, the sample normal face area image for obtaining the variance σ Nl and the person shown in the sample plan face area image for obtaining the variance σ Pl are described as the same person. If the face area image is obtained for a sufficiently large number of people, the variance σ Nl and variance σ Pl for each person are averaged, and processing such as obtaining the synthesis order is performed in the same manner. Can be judged.
また、撮影条件を示す特徴として、顔領域画像における光源方向、または顔領域画像内の画素の輝度値の分散を用いる場合、その変化量として、変化の範囲や分散を求める例を示したが、本発明はこれに限定されない。例えば、不正行為判定手段は、系列データ内の最新の所定枚数の顔領域画像に対して、取り得る全ての通りの顔領域画像のペアを設定し、設定した顔領域画像のペアについて求められた撮影条件を示す特徴の差の絶対値の最小値、最大値、平均値及び中央値の何れかをその変化量として求めてもよい。あるいは、不正行為判定手段は、系列データ内の最新の所定枚数の顔領域画像に対して、任意の一通りの顔領域画像のペアを設定し、設定した顔領域画像のペアについて求められた撮影条件を示す特徴の差の絶対値をその変化量として求めてもよい。 In addition, when using the light source direction in the face area image or the variance of the luminance value of the pixel in the face area image as the feature indicating the shooting condition, the example of obtaining the change range and variance as the amount of change is shown. The present invention is not limited to this. For example, the fraud determination means sets all possible face area image pairs for the latest predetermined number of face area images in the sequence data, and is obtained for the set face area image pairs. Any one of the minimum value, the maximum value, the average value, and the median of the absolute values of the difference in characteristics indicating the photographing conditions may be obtained as the change amount. Alternatively, the cheating determination means sets an arbitrary one face area image pair for the latest predetermined number of face area images in the series data, and obtains the image obtained for the set face area image pair. You may obtain | require the absolute value of the difference of the characteristic which shows conditions as the variation | change_quantity.
また、不正行為判定手段は、系列データ内の顔領域画像のうち、写真画策の有無を判定するのに適さない顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにしてもよい。例えば、不正行為判定手段は、平均輝度値が極度に低い顔領域画像または極度に高い顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにする。あるいは、不正行為判定手段は、写っている顔の向きが正面方向から離れている顔領域画像について求められた撮影条件を示す特徴を、不正行為の判定に用いないようにする。なお、顔の向きは、公知の様々な手法で求めることができる。例えば、顔領域画像内の肌色と認められる画素の数をカウントし、顔領域画像内の全画素数に対する肌色画素数の比が大きいほど正面方向を向いており、小さいほど正面方向から離れていると判断できる。なお、肌色画素が顔領域画像内の右半分より左半分に多い場合には右を、左半分より右半分に多い場合には左を、上半分より下半分に多い場合には下を、下半分より上半分に多い場合には上を、それぞれ向いていると判断できる。 In addition, the fraud determination means does not use, for the determination of the fraud, the feature indicating the shooting condition obtained for the face area image that is not suitable for determining the presence / absence of the photographic plan among the face area images in the series data. You may do it. For example, the fraud determination means does not use the feature indicating the photographing condition obtained for the face area image having an extremely low average luminance value or the extremely high face area image for the determination of the fraud. Alternatively, the fraudulent act determination means does not use the feature indicating the photographing condition obtained for the face area image whose face direction is away from the front direction in the fraud determination. Note that the orientation of the face can be obtained by various known methods. For example, the number of pixels recognized as skin color in the face area image is counted, and the larger the ratio of the number of skin color pixels to the total number of pixels in the face area image is, the more the front direction is, and the smaller the distance is from the front direction. It can be judged. If the skin color pixel is more in the left half than the right half in the face area image, the right is displayed.If the skin color pixel is more in the right half than the left half, the left is displayed. If there are more than half the top half, it can be determined that the top is facing each other.
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.
1 顔画像認証装置
3 撮像部
10 画像処理部
12 顔抽出手段
14 追跡手段
15 顔撮影条件算出手段
16 不正行為判定手段
20 出力部
32 履歴テーブル
DESCRIPTION OF
Claims (5)
前記撮影領域を撮影した入力画像を順次取得する画像取得手段と、
前記入力画像から人物領域画像を抽出する人物検出手段と、
順次取得される複数の前記入力画像から抽出された前記人物領域画像を追跡し、追跡できた人物領域画像を対応付けた系列データを生成する追跡手段と、
前記入力画像における前記人物領域画像の位置と直前の入力画像における人物領域画像の位置との間の距離を算出する距離算出手段と、
前記人物領域画像における顔領域画像から顔の撮影時における撮影条件を示す特徴を算出する顔撮影条件算出手段と、
前記系列データごとに、当該系列データに含まれる前記人物領域画像のうち、前記距離が所定値以上である人物領域画像の撮影条件を示す特徴が略同一とされる所定範囲内か否かを判定する不正行為判定手段と、
前記不正行為判定手段にて所定範囲内と判定されると、不正行為と認証する認証手段を有する顔画像認証装置。 A face image authentication apparatus for authenticating a person based on a face image of a person shown in an input image obtained by photographing a predetermined shooting area and a registered face image of a person registered in advance,
Image acquisition means for sequentially acquiring input images obtained by imaging the imaging region;
Person detecting means for extracting a person region image from the input image;
Tracking means for tracking the person area image extracted from the plurality of input images sequentially acquired, and generating series data in which the tracked person area image is associated;
Distance calculating means for calculating a distance between the position of the person area image in the input image and the position of the person area image in the immediately preceding input image;
Face photographing condition calculating means for calculating a feature indicating a photographing condition at the time of photographing a face from a face region image in the person region image;
For each series data, it is determined whether or not the characteristics indicating the shooting conditions of the person area image whose distance is greater than or equal to a predetermined value among the person area images included in the series data are within a predetermined range where they are substantially the same. Fraud determination means to
A face image authenticating device having an authenticating means for authenticating a fraudulent activity when the fraudulent act determining means determines that it is within a predetermined range.
前記顔撮影条件算出手段は、前記顔領域画像を前記部分空間に投影したときの部分空間における位置を求めて、前記撮影条件を示す特徴に前記部分空間における位置を含める請求項1〜請求項4の何れか1項に記載の顔画像認証装置。 Furthermore, the sample face area image obtained by directly photographing a person and the sample face area obtained by photographing the sample face area image obtained by directly photographing the person and the sample face area image obtained by photographing the photograph showing the face. A storage unit that stores in advance a partial space that can be distinguished from an image;
5. The face photographing condition calculating unit obtains a position in the partial space when the face area image is projected onto the partial space, and includes the position in the partial space in the feature indicating the photographing condition. The face image authentication device according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147529A JP5955133B2 (en) | 2012-06-29 | 2012-06-29 | Face image authentication device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012147529A JP5955133B2 (en) | 2012-06-29 | 2012-06-29 | Face image authentication device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014010686A JP2014010686A (en) | 2014-01-20 |
JP5955133B2 true JP5955133B2 (en) | 2016-07-20 |
Family
ID=50107326
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012147529A Active JP5955133B2 (en) | 2012-06-29 | 2012-06-29 | Face image authentication device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5955133B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417824B2 (en) * | 2014-03-25 | 2019-09-17 | Apple Inc. | Method and system for representing a virtual object in a view of a real environment |
US9679212B2 (en) * | 2014-05-09 | 2017-06-13 | Samsung Electronics Co., Ltd. | Liveness testing methods and apparatuses and image processing methods and apparatuses |
CA3186147A1 (en) * | 2014-08-28 | 2016-02-28 | Kevin Alan Tussy | Facial recognition authentication system including path parameters |
US10698995B2 (en) | 2014-08-28 | 2020-06-30 | Facetec, Inc. | Method to verify identity using a previously collected biometric image/data |
US10614204B2 (en) | 2014-08-28 | 2020-04-07 | Facetec, Inc. | Facial recognition authentication system including path parameters |
US10803160B2 (en) | 2014-08-28 | 2020-10-13 | Facetec, Inc. | Method to verify and identify blockchain with user question data |
US11256792B2 (en) | 2014-08-28 | 2022-02-22 | Facetec, Inc. | Method and apparatus for creation and use of digital identification |
US9396537B2 (en) * | 2014-09-09 | 2016-07-19 | EyeVerify, Inc. | Systems and methods for liveness analysis |
JP6878842B2 (en) * | 2016-11-09 | 2021-06-02 | コニカミノルタ株式会社 | Image processor, authentication method and authentication program |
JP7104523B2 (en) | 2018-02-05 | 2022-07-21 | キヤノン株式会社 | Information processing equipment, systems, information processing equipment control methods, and programs |
JP2020021395A (en) * | 2018-08-03 | 2020-02-06 | キヤノンマーケティングジャパン株式会社 | Management server, telework management support system, telework management support method and program |
CN110321789A (en) * | 2019-05-21 | 2019-10-11 | 平安普惠企业管理有限公司 | Method and relevant device based on living things feature recognition interview fraud |
JP7334626B2 (en) * | 2020-01-14 | 2023-08-29 | いすゞ自動車株式会社 | Image processing device and image processing method |
WO2023281743A1 (en) * | 2021-07-09 | 2023-01-12 | 日本電気株式会社 | Authentication system, authentication device, authentication method, and recording medium |
CN115497185B (en) * | 2022-07-27 | 2023-11-07 | 保利长大工程有限公司 | Attendance checking method based on intelligent safety helmet and electronic fence |
JP7457991B1 (en) | 2023-03-14 | 2024-03-29 | 有限会社バラエティーエム・ワン | Impersonation detection system and impersonation detection program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6888960B2 (en) * | 2001-03-28 | 2005-05-03 | Nec Corporation | Fast optimal linear approximation of the images of variably illuminated solid objects for recognition |
JP2006092133A (en) * | 2004-09-22 | 2006-04-06 | Konica Minolta Photo Imaging Inc | Image processing method, image processor, imaging device and image processing program |
JP2007334623A (en) * | 2006-06-15 | 2007-12-27 | Toshiba Corp | Face authentication device, face authentication method, and access control device |
JP5106459B2 (en) * | 2009-03-26 | 2012-12-26 | 株式会社東芝 | Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program |
JP5642410B2 (en) * | 2010-03-30 | 2014-12-17 | パナソニック株式会社 | Face recognition device and face recognition method |
-
2012
- 2012-06-29 JP JP2012147529A patent/JP5955133B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014010686A (en) | 2014-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5955133B2 (en) | Face image authentication device | |
Steiner et al. | Reliable face anti-spoofing using multispectral swir imaging | |
CN106778518B (en) | Face living body detection method and device | |
JP5517858B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP4743823B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
Killioğlu et al. | Anti-spoofing in face recognition with liveness detection using pupil tracking | |
JP2008504606A (en) | Multi-biometric system and method based on a single image | |
JP2004118627A (en) | Figure identification device and method | |
JP2008146539A (en) | Face authentication device | |
JP2006293644A (en) | Information processing device and information processing method | |
WO2004070563A2 (en) | Three-dimensional ear biometrics system and method | |
JP2009535679A (en) | Person identification method by eyelash analysis | |
JP5955031B2 (en) | Face image authentication device | |
JP2003178306A (en) | Personal identification device and personal identification method | |
Kose et al. | Mask spoofing in face recognition and countermeasures | |
JP7188446B2 (en) | Authentication device, authentication method, authentication program and recording medium | |
JP5851108B2 (en) | Image monitoring device | |
JP5726595B2 (en) | Image monitoring device | |
US11354940B2 (en) | Method and apparatus for foreground geometry and topology based face anti-spoofing | |
Srinivas et al. | Human identification using automatic and semi‐automatically detected facial Marks | |
Tu et al. | An intelligent video framework for homeland protection | |
CN111368803A (en) | Face recognition method and system | |
Nanda et al. | A robust elliptical head tracker | |
Mekami et al. | Towards a new approach for real time face detection and normalization | |
KR19990079823A (en) | Face Recognition Method Considering Lighting Change |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160614 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5955133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |