JP2013101551A - Face image authentication device - Google Patents

Face image authentication device Download PDF

Info

Publication number
JP2013101551A
JP2013101551A JP2011245643A JP2011245643A JP2013101551A JP 2013101551 A JP2013101551 A JP 2013101551A JP 2011245643 A JP2011245643 A JP 2011245643A JP 2011245643 A JP2011245643 A JP 2011245643A JP 2013101551 A JP2013101551 A JP 2013101551A
Authority
JP
Japan
Prior art keywords
face
authentication
person
image
registered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011245643A
Other languages
Japanese (ja)
Other versions
JP5766096B2 (en
Inventor
Naoyuki Takada
直幸 高田
Masahiro Sato
昌宏 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2011245643A priority Critical patent/JP5766096B2/en
Publication of JP2013101551A publication Critical patent/JP2013101551A/en
Application granted granted Critical
Publication of JP5766096B2 publication Critical patent/JP5766096B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a face image authentication device capable of securing individual acceptance even in a situation that it is difficult to authenticate an individual due to variation of an expression and a direction of a face or the like.SOLUTION: Authentication candidate person specifying means 326 specifies an authentication candidate person from a plurality of registered persons on the basis of a similarity degree calculated by similarity degree calculation means 325. Detection rate calculation means 327 calculates a registered person detection rate which is a proportion of a frame in which the similarity degree to a plurality of latest facial area images traced by face tracking means 322 is the highest, for the authentication candidate person. Authentication threshold determination means 328 determines an authentication threshold which is a reference for authenticating whether or not a face included in the facial area image is the face of the registered person specified as the authentication candidate person, according to the registered person detection rate. Authentication determination means 329 determines that the authentication candidate person whose similarity degree exceeds the authentication threshold as the face of the person inside a monitoring area.

Description

本発明は、顔画像認証装置に関し、特に、予め登録している顔画像に基づいて利用者を検出する顔画像認証装置に関する。   The present invention relates to a face image authentication apparatus, and more particularly to a face image authentication apparatus that detects a user based on a face image registered in advance.

従来、監視領域内を歩行する人物の認証を行うために、監視画像から人物の顔を含む領域の画像を顔領域画像として抽出し、抽出した顔領域画像と予め登録された複数の登録顔画像のそれぞれと時系列の順での照合スコア即ち類似度を算出する顔画像認証装置(いわゆるウォークスルー型の顔画像認証装置)が用いられている。   Conventionally, in order to authenticate a person walking in a monitoring area, an image of an area including a person's face is extracted as a face area image from the monitoring image, and the extracted face area image and a plurality of registered face images registered in advance are extracted. A face image authentication device (a so-called walk-through type face image authentication device) is used that calculates a collation score, that is, a similarity in time series order.

ウォークスルー型の顔画像認証装置は、複数地点又は複数時点で歩行中の人物を撮影した画像から顔領域画像を抽出し、これらの顔領域画像と登録顔画像との類似度を算出する。そして、類似度が一定以上の登録顔画像の人物を、地点又は時点ごとに特定する。さらに、各地点又は各時点における類似度の最大値又は平均値を、特定した人物ごとに算出する。最終的には、このように算出した最大値又は平均値に基づいて人物の認証を行う(特許文献1)。   The walk-through type face image authentication device extracts face area images from images obtained by photographing a person walking at a plurality of points or time points, and calculates the similarity between these face area images and registered face images. And the person of the registration face image whose similarity is more than a certain level is specified for each point or time point. Further, the maximum value or the average value of the similarity at each point or each time point is calculated for each specified person. Finally, the person is authenticated based on the maximum value or the average value calculated in this way (Patent Document 1).

特開2004−118359号公報JP 2004-118359 A

複数の監視画像に亘って抽出された同一人物の顔について登録人物に対する類似度を時系列で取得することを考えた場合、即ち同一人物についての直近の複数の顔領域画像について類似度を順次取得する場合、いずれの類似度も高くなるのが望ましい。この場合、複数の類似度の最大値又は平均値を用いても、正確な認証結果を得ることができる。   When considering the similarity to the registered person in time series for the face of the same person extracted across multiple monitoring images, that is, sequentially obtaining the similarity for the most recent face area images for the same person When doing so, it is desirable that both similarities be high. In this case, an accurate authentication result can be obtained even if a maximum value or an average value of a plurality of similarities is used.

しかしながら、通行する人物の顔を順次撮影するような状況では、歩行中に自然に生じる表情、顔の向き等に変動が生じうる。このような変動が生じた場合、本人であっても類似度は低くなる一方で、顔領域画像の顔の人物が本人以外の人物であると判定されるいわゆる「他人の空似」が発生する可能性があるので、本人の類似度より他人の類似度が高くなる現象を無視することができない。これにより他人の受け入れにつながるので、単に複数の類似度の最大値に基づいて判定を行うのは不適切である。また、複数の類似度の平均値に基づいて判定を行う場合、複数の類似度の平均値が認証閾値を超えなくなり、本人を正しく判定できないことがある。   However, in a situation where the faces of passing people are sequentially photographed, variations in facial expressions, face orientations, etc. that occur naturally during walking can occur. When such a change occurs, even if the person himself / herself is similar, the degree of similarity is low, but a so-called “similarity of others” may occur in which the person in the face area image is determined to be a person other than the person himself / herself. Therefore, it is impossible to ignore the phenomenon that the similarity of others is higher than the similarity of the person. Since this leads to acceptance of others, it is inappropriate to simply make a determination based on a plurality of maximum similarity values. Further, when the determination is made based on the average value of the plurality of similarities, the average value of the plurality of similarities may not exceed the authentication threshold, and the person may not be determined correctly.

また、眼鏡の有無、表情の変動等により最高の類似度がいずれも認証閾値より低くなる事態がある。例えば、裸眼で登録した人物が眼鏡をかけて通行すると、登録顔画像と顔領域画像との類似度を算出する際に、眼鏡以外の部分では画像間の差異が小さいので眼鏡以外の部分の類似度が高くなる。しかしながら、眼鏡部分のテクスチャが登録顔画像と顔領域画像との間で異なるために眼鏡部分における登録顔画像と顔領域画像との差異が大きくなる。その結果、顔全体としては類似度が低くなり、本人の類似度が最大値を有したとしても類似度が認証閾値よりも低くなる。この場合、類似度が認証閾値を超えないために、複数の類似度の最大値又は平均値を用いても本人の判定が困難になる。   In some cases, the highest similarity is lower than the authentication threshold due to the presence or absence of glasses, changes in facial expressions, and the like. For example, when a person registered with the naked eye walks with glasses, when calculating the similarity between the registered face image and the face area image, the difference between the images is small in the part other than the glasses. The degree becomes higher. However, since the texture of the spectacle portion differs between the registered face image and the face area image, the difference between the registered face image and the face area image in the spectacle portion increases. As a result, the similarity is low for the entire face, and the similarity is lower than the authentication threshold even if the person's similarity has the maximum value. In this case, since the degree of similarity does not exceed the authentication threshold, it is difficult to determine the person even if the maximum value or the average value of a plurality of degrees of similarity is used.

本人の判定を行えるようにするために認証閾値を低くすることも考えられるが、歩行中に自然に生じる表情、顔の向き等の変動により類似度が最大値を有する登録人物が本人以外であると判定されうる状況においては、本人以外の登録人物が誤って認証される可能性がある。   Although it is conceivable to lower the authentication threshold so that the person can be determined, the registered person whose similarity is the maximum due to variations in facial expressions, face orientations, etc. that occur naturally during walking is other than that person In such a situation, it is possible that a registered person other than the principal is erroneously authenticated.

したがって、顔画像認証装置を用いて監視領域内を歩行する人物の認証を行う際に、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保する必要がある。   Therefore, when authenticating a person walking in the monitoring area using the face image authentication device, it is necessary to ensure the acceptance of the person even in a situation where the person authentication is difficult due to a change in facial expression, face orientation, and the like.

本発明の目的は、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保することができる顔画像認証装置を提供することにある。   An object of the present invention is to provide a face image authentication apparatus that can ensure the identity acceptance even in a situation where the identity authentication is difficult due to a change in facial expression, face orientation, and the like.

かかる課題を解決するための本発明は、監視領域内の人物を撮影した監視画像を順次取得する撮像部と、複数の登録人物の顔画像を登録顔画像として予め記憶する記憶部と、監視画像を用いて監視領域内の人物が登録人物であるか否かの人物認証を行う照合部を具備する顔画像認証装置であって、照合部は、監視画像から人物の顔を含む領域の画像を顔領域画像として抽出する顔検出手段と、順次取得する所定枚数の監視画像にて顔領域画像を追跡する顔追跡手段と、顔領域画像と登録顔画像との類似度を算出する類似度算出手段と、類似度に基づいて複数の登録人物から認証候補人物を特定する認証候補人物特定手段と、認証候補人物について、所定枚数の監視画像に対して当該認証候補人物と特定された顔領域画像の割合を登録人物検出率として算出する検出率算出手段と、顔領域画像が認証候補人物のものであるか否かを認証するための認証閾値を、登録人物検出率に応じて認証候補人物ごとに決定する認証閾値決定手段と、類似度が認証閾値を超えている認証候補人物を監視領域内の人物であると認証判定する認証判定手段と、を有する。   The present invention for solving such a problem includes an imaging unit that sequentially acquires a monitoring image obtained by photographing a person in a monitoring area, a storage unit that stores in advance face images of a plurality of registered persons as registered face images, and a monitoring image. A face image authentication apparatus comprising a collation unit that performs person authentication as to whether or not a person in a monitoring area is a registered person, wherein the collation unit extracts an image of an area including a person's face from the monitoring image. Face detection means for extracting as a face area image, face tracking means for tracking the face area image with a predetermined number of monitoring images acquired sequentially, and similarity calculation means for calculating the similarity between the face area image and the registered face image Authentication candidate person specifying means for specifying an authentication candidate person from a plurality of registered persons based on the similarity, and for the authentication candidate person, the face area image specified as the authentication candidate person for a predetermined number of monitoring images. Detect percentage of registered people And an authentication threshold value determining means for determining, for each authentication candidate person, an authentication threshold value for authenticating whether or not the face area image belongs to an authentication candidate person. And an authentication determination unit that determines that an authentication candidate person whose similarity exceeds an authentication threshold is a person in the monitoring area.

また、本発明に係る顔画像認証装置において、認証閾値決定手段は、登録人物検出率が増加するに従って認証閾値を低くすることが好ましい。   In the face image authenticating device according to the present invention, it is preferable that the authentication threshold value determining means lowers the authentication threshold value as the registered person detection rate increases.

また、本発明に係る顔画像認証装置において、照合部は、予め定められた最新の複数枚の監視画像を用いて人物認証を行うことが好ましい。   In the face image authentication apparatus according to the present invention, it is preferable that the collation unit performs person authentication using a plurality of latest monitoring images determined in advance.

また、本発明に係る顔画像認証装置において、照合部は、顔領域画像が登録人物検出率の計算に適切な画質であるか否かを判定する画質判定手段を更に有し、当該適切な画質と判定された顔領域画像を用いて人物認証を行うことが好ましい。   In the face image authentication device according to the present invention, the collation unit further includes image quality determination means for determining whether or not the face area image has an image quality suitable for calculating the registered person detection rate, and the appropriate image quality It is preferable to perform person authentication using the face area image determined to be.

本発明に係る顔画像認証装置は、表情、顔の向きの変動等により本人認証をしにくい状況でも認証閾値を適応的に決定することで本人受理を確保することができるという効果を奏する。   The face image authentication apparatus according to the present invention has an effect that it is possible to ensure the user's acceptance by adaptively determining the authentication threshold value even in a situation where the user's authentication is difficult due to changes in facial expressions, face orientations, and the like.

本発明を適用した顔画像認証装置の概略構成図である。It is a schematic block diagram of the face image authentication apparatus to which this invention is applied. 顔画像認証装置がオフィスビルの入り口に設置される場合の撮像部の設置例を表す模式図である。It is a schematic diagram showing the installation example of an imaging part in case a face image authentication apparatus is installed in the entrance of an office building. 記憶部に記憶される照合テーブルの模式図である。It is a schematic diagram of the collation table memorize | stored in a memory | storage part. 図3に示す照合テーブルの一部を構成するフレーム照合結果の模式図である。It is a schematic diagram of the frame collation result which comprises a part of collation table shown in FIG. 画質判定基準として照明条件に基づく画質判定基準を用いた場合を説明するための顔領域画像の例を示す図である。It is a figure which shows the example of the face area image for demonstrating the case where the image quality criteria based on illumination conditions are used as an image quality criteria. 認証閾値の調節の方法を説明する模式図である。It is a schematic diagram explaining the method of adjustment of an authentication threshold value. 顔画像認証装置で得られる類似度の模式図である。It is a schematic diagram of the similarity obtained with the face image authentication apparatus. 利用者が顔の向きを変えて撮影されることを示す模式図である。It is a schematic diagram which shows that a user changes direction of a face and is image | photographed. 本発明による顔画像認証装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the face image authentication apparatus by this invention.

以下、本発明の一実施形態である顔画像認証装置について図を参照しつつ説明する。
顔画像認証装置における認証において、表情、顔の向きの変動等により本人認証をしにくい状況がある。そこで、本発明を適用した顔画像認証装置は、追跡された直近の複数の顔領域画像に対する類似度が最高となった回数の割合である登録人物検出率を計算し、顔領域画像に含まれる顔が認証候補人物の顔であるか否かを認証するための基準である認証閾値を、登録人物検出率に応じて決定する。このように認証閾値を適応的に決定することにより、顔画像認証装置は、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保することを図る。
Hereinafter, a face image authentication apparatus according to an embodiment of the present invention will be described with reference to the drawings.
In the authentication in the face image authentication device, there are situations where it is difficult to authenticate the person due to changes in facial expressions, face orientations, and the like. Therefore, the face image authentication apparatus to which the present invention is applied calculates a registered person detection rate, which is the ratio of the number of times that the degree of similarity to the most recently tracked plurality of face area images is the highest, and is included in the face area image. An authentication threshold, which is a reference for authenticating whether or not the face is the face of an authentication candidate person, is determined according to the registered person detection rate. Thus, by adaptively determining the authentication threshold, the face image authentication device attempts to ensure the user's acceptance even in situations where it is difficult to perform the user authentication due to changes in facial expressions, face orientations, and the like.

図1は、本発明を適用した顔画像認証装置10の概略構成を示す図である。図1に示すように、顔画像認証装置10は、撮像部100、出力部200及び画像処理部300を有する。以下、顔画像認証装置10の各部について詳細に説明する。   FIG. 1 is a diagram showing a schematic configuration of a face image authentication apparatus 10 to which the present invention is applied. As illustrated in FIG. 1, the face image authentication device 10 includes an imaging unit 100, an output unit 200, and an image processing unit 300. Hereinafter, each part of the face image authentication device 10 will be described in detail.

撮像部100は、所定の監視領域を撮影する監視カメラであり、例えば、2次元に配列され、受光した光量に応じた電気信号を出力する光電変換素子(例えば、CCDセンサ、C−MOSなど)と、その光電変換素子上に監視領域の像を結像するための結像光学系を有する。
撮像部100は、監視領域内を通行する人物(顔画像認証装置10による照合の対象となる監視領域内の人物を対象人物と称する)の顔を順次撮影できるように設置される。そして撮像部100は、監視領域を撮影した監視画像を、所定の時間間隔(例えば、200msec)ごとに取得する。撮像部100は、画像処理部300と接続され、取得した監視画像を画像処理部300へ渡す。
The imaging unit 100 is a monitoring camera that captures a predetermined monitoring area, and is, for example, a photoelectric conversion element (for example, a CCD sensor, a C-MOS, or the like) that is arranged two-dimensionally and outputs an electrical signal corresponding to the amount of received light. And an imaging optical system for forming an image of the monitoring region on the photoelectric conversion element.
The imaging unit 100 is installed so that the face of a person who passes through the monitoring area (a person in the monitoring area to be collated by the face image authentication apparatus 10 is referred to as a target person) can be sequentially photographed. Then, the imaging unit 100 acquires a monitoring image obtained by capturing the monitoring area at predetermined time intervals (for example, 200 msec). The imaging unit 100 is connected to the image processing unit 300 and passes the acquired monitoring image to the image processing unit 300.

図2に、顔画像認証装置10がオフィスビルの入り口に設置される場合の撮像部100の設置例を模式的に示す。図2に示すように、例えば、顔画像認証装置10がオフィスビルの入り口253に設置される場合、撮像部100は、入り口253に通じる通路を監視領域に含むよう、入り口253が設置された壁の上方または天井に、撮影方向をやや下方へ向け、その通路側へ向けた状態で取り付けられる。これにより撮像部100は、入り口253に向かう(進行方向254へ向かう)対象人物を所定の時間間隔で撮像することができる。なお図2では、撮像部100が、時刻t、t+1、t+2において入り口253に向かう同一の対象人物250、251、252を順次撮影する様子を示している。   FIG. 2 schematically shows an installation example of the imaging unit 100 when the face image authentication device 10 is installed at the entrance of an office building. As shown in FIG. 2, for example, when the face image authentication device 10 is installed at the entrance 253 of an office building, the imaging unit 100 includes a wall on which the entrance 253 is installed so as to include a passage leading to the entrance 253 in the monitoring area. It is attached to the top or ceiling of the camera with the shooting direction slightly downward and toward the passage. As a result, the imaging unit 100 can capture the target person heading toward the entrance 253 (heading in the traveling direction 254) at a predetermined time interval. FIG. 2 shows a state in which the imaging unit 100 sequentially captures the same target person 250, 251, 252 heading toward the entrance 253 at times t, t + 1, t + 2.

監視画像は、グレースケールまたはカラーの多階調の画像とすることができる。本実施形態では、監視画像を、横1280画素×縦960画素を有し、RGB各色について8ビットの輝度分解能を持つカラー画像とした。ただし、監視画像として、この実施形態以外の解像度及び階調を有するものを使用してもよい。   The monitoring image can be a grayscale or color multi-tone image. In the present embodiment, the monitoring image is a color image having 1280 pixels by 960 pixels and having 8-bit luminance resolution for each of the RGB colors. However, a monitor image having a resolution and gradation other than this embodiment may be used.

出力部200は、例えば電気錠、又は電気錠を制御する外部機器等に接続する通信インターフェース及びその制御回路を有する。そして出力部200は、画像処理部300から対象人物についての認証成功を示す信号を受け取ると、接続された機器へ、例えば電気錠の解錠を要求する信号を出力する。   The output unit 200 includes a communication interface connected to, for example, an electric lock or an external device that controls the electric lock, and a control circuit thereof. When the output unit 200 receives a signal indicating successful authentication of the target person from the image processing unit 300, the output unit 200 outputs a signal requesting, for example, unlocking of the electric lock to the connected device.

画像処理部300は、例えば、いわゆるコンピュータにより構成される。そして画像処理部300は、撮像部100から受け取った監視画像に基づいて、対象人物を認証するとともに、表情、顔の向きの変動等により認証されにくい状態にある対象人物を検出する。そのために、画像処理部300は、記憶部310及び照合部320を有する。さらに、照合部320は、顔検出手段321、顔追跡手段322及び顔照合手段323を有する。   The image processing unit 300 is configured by, for example, a so-called computer. The image processing unit 300 authenticates the target person based on the monitoring image received from the imaging unit 100, and detects a target person that is difficult to be authenticated due to a change in facial expression, face orientation, or the like. For this purpose, the image processing unit 300 includes a storage unit 310 and a collation unit 320. Furthermore, the collation unit 320 includes a face detection unit 321, a face tracking unit 322, and a face collation unit 323.

記憶部310は、ROM、RAMなどの半導体メモリ、あるいは磁気記録媒体及びそのアクセス装置若しくは光記録媒体及びそのアクセス装置などを有する。そして記憶部310には、顔画像認証装置10を制御するためのコンピュータプログラム及び各種パラメータなどが予め記憶される。また記憶部310は、照合に使用される登録顔画像を対応する登録された人物(以降、登録人物と称する)の登録人物IDと関連付けて記憶する。また記憶部310は、画像処理により生じた対象人物に関する情報を管理するための照合テーブルを記憶する。この照合テーブルの詳細については後述する。   The storage unit 310 includes a semiconductor memory such as a ROM and a RAM, or a magnetic recording medium and its access device or an optical recording medium and its access device. The storage unit 310 stores in advance a computer program and various parameters for controlling the face image authentication apparatus 10. The storage unit 310 stores a registered face image used for verification in association with a registered person ID of a corresponding registered person (hereinafter referred to as a registered person). The storage unit 310 also stores a collation table for managing information related to the target person generated by the image processing. Details of this collation table will be described later.

照合部320の各手段は、マイクロプロセッサ、メモリ、その周辺回路及びそのマイクロプロセッサ上で動作するソフトウェアにより実装される機能モジュールである。あるいは、これらの手段を、ファームウェアにより一体化して構成してもよい。また、これらの手段の一部または全てを、独立した電子回路、ファームウェア、マイクロプロセッサなどで構成してもよい。以下、照合部320の各手段について詳細に説明する。   Each unit of the verification unit 320 is a functional module implemented by a microprocessor, a memory, a peripheral circuit thereof, and software operating on the microprocessor. Alternatively, these means may be integrated by firmware. Moreover, you may comprise some or all of these means with an independent electronic circuit, firmware, a microprocessor, etc. Hereinafter, each means of the collation part 320 is demonstrated in detail.

顔検出手段321は、撮像部100から監視画像を受け取る度に、受け取った監視画像から対象人物の顔が写っている領域である顔領域を検出し、顔領域画像を抽出する。
顔領域を検出するために、顔検出手段321は、例えばフレーム間差分処理または背景差分処理を利用して、撮像部100によって取得される複数の監視画像において輝度値の時間的な変化のある変化領域を抽出する。そして顔検出手段321は、抽出した変化領域のうち、その変化領域の大きさ等の特徴量から人物らしいと考えられる変化領域を人物領域として抽出する。そして顔検出手段321は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素抽出を行う。そして顔検出手段321は、抽出したエッジ画素から、所定の大きさをもつ、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を、顔領域として抽出する。この場合において、顔検出手段321は、例えば、一般化ハフ変換を用いて、楕円形状のエッジ分布を検出することができる。
Each time the face detection unit 321 receives a monitoring image from the imaging unit 100, the face detection unit 321 detects a face area that is an area in which the face of the target person is reflected from the received monitoring image, and extracts a face area image.
In order to detect a face area, the face detection unit 321 uses, for example, an inter-frame difference process or a background difference process, and changes with time in luminance values in a plurality of monitoring images acquired by the imaging unit 100 are performed. Extract regions. Then, the face detection unit 321 extracts, from the extracted change areas, a change area that seems to be a person from a feature amount such as the size of the change area as a person area. Then, the face detection unit 321 performs edge pixel extraction on the extracted person region using a Sobel filter or the like so that the inclination direction of the luminance change can be known. Then, the face detection unit 321 detects an elliptical edge distribution having a predetermined size and approximating the contour shape of the head from the extracted edge pixels, and uses the area surrounded by the edge distribution as a face area. Extract. In this case, the face detection unit 321 can detect an elliptical edge distribution using, for example, a generalized Hough transform.

あるいは顔検出手段321は、Adaboost識別器を用いて顔領域を検出してもよい。この方法についてはP.Violaと M.Jonesによる論文「Rapid Object Detection Using a Boosted Cascade of Simple Features」(Proc. the IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001)を参照することができる。
そして顔検出手段321は、抽出した顔領域を監視画像から切り出して顔領域画像を作成し、その顔領域画像及び監視画像における顔領域の座標情報を顔追跡手段322に出力する。
Alternatively, the face detection unit 321 may detect a face area using an Adaboost classifier. This method is described in a paper by P. Viola and M. Jones “Rapid Object Detection Using a Boosted Cascade of Simple Features” (Proc. The IEEE International Conference on Computer Vision and Pattern Recognition, vol.1, pp.511-518, 2001). ) Can be referred to.
Then, the face detection unit 321 creates a face region image by cutting out the extracted face region from the monitoring image, and outputs the face region image and the coordinate information of the face region in the monitoring image to the face tracking unit 322.

顔追跡手段322は、所定の時間間隔で連続して取得される複数の監視画像にわたって顔検出手段321から抽出された顔領域に対して公知のトラッキング技術を利用して追跡処理を行い、同一人物の顔が写っている顔領域どうしを対応付けることで顔領域画像の追跡を行う。
例えば、顔追跡手段322は、最新の監視画像から抽出された顔領域(以降、現フレームの顔領域と称する)の重心位置と、1フレーム前の監視画像から抽出された顔領域(以降、前フレームの顔領域と称する)の重心位置の距離を求めて、その距離が所定の閾値以下である場合に、その顔領域を同一人物によるものとして対応付ける。なお、対象人物が撮像部100から離れているときに一定の距離を移動した場合と撮像部100の近くにいるときに同じ距離を移動した場合とでは、その移動の前後において監視画像における顔領域の位置の差は異なる。そのため、例えば所定の閾値を顔領域の大きさとすることにより、監視領域内の対象人物の位置にかかわらず、現フレームの顔領域と前フレームの顔領域が同一人物によるものか否かを適切に評価することができる。複数の顔領域が抽出されている場合には、重心位置の距離が最も近い顔領域どうしが対応づくか否かを調べる。
The face tracking unit 322 performs a tracking process using a known tracking technique on a face area extracted from the face detection unit 321 over a plurality of monitoring images continuously acquired at a predetermined time interval. The face area image is tracked by associating the face areas in which the face is reflected.
For example, the face tracking unit 322 includes the position of the center of gravity of the face area extracted from the latest monitoring image (hereinafter referred to as the face area of the current frame) and the face area (hereinafter referred to as the previous area) extracted from the monitoring image of the previous frame. The distance of the center of gravity position (referred to as a face area of the frame) is obtained, and when the distance is equal to or less than a predetermined threshold, the face area is associated with the same person. The face area in the monitoring image before and after the movement when the target person moves a certain distance when moving away from the imaging unit 100 and when the target person moves the same distance when moving closer to the imaging unit 100. The position difference is different. Therefore, for example, by setting a predetermined threshold as the size of the face area, it is appropriately determined whether the face area of the current frame and the face area of the previous frame are from the same person regardless of the position of the target person in the monitoring area. Can be evaluated. When a plurality of face areas are extracted, it is checked whether or not face areas with the closest distance between the centroid positions correspond to each other.

あるいは、顔追跡手段322は、オプティカルフロー、パーティクルフィルタ等の方法を用いて顔領域の追跡処理を行ってもよい。   Alternatively, the face tracking unit 322 may perform face area tracking processing using a method such as an optical flow or a particle filter.

顔追跡手段322は、顔領域の対応付けを行うと、記憶部310に格納されている照合テーブルを更新する。図3に照合テーブルの例を示す。図3に示すように照合テーブル410は、対象人物ごとに系列データを管理する。系列データは、照合テーブル410の各行にあらわされるデータの組であり、顔追跡手段322は、系列データのうち、試行番号411、系列ID412、更新時刻413、追跡フラグ414及び追跡位置情報415を更新する。
図3に示した照合テーブル410において、試行番号411は、追跡中の対象人物の系列データを他の系列データと識別するための識別番号であり、対象人物が監視領域内に存在している間、つまり顔追跡手段322によって追跡がされている間、同一の識別番号が割り当てられ続ける。系列ID412は、追跡中の対象人物を他の対象人物と識別するための識別番号であり、試行番号311と1対1に対応する。系列ID412は、一意に定まるように付与されるものとなる。例えば、顔追跡手段322が追跡を開始した時刻を基に、乱数を発生させればよい。あるいは、系列ID412と試行番号411は1対1に対応するので、いずれかを省略してもよい。更新時刻413は、顔検出手段321がその対象人物について顔領域画像を最後に抽出し、顔追跡手段322が追跡処理を終了した時刻を表す。
追跡フラグ414は、その対象人物に対する追跡が継続しているか否かをあらわすフラグであり、顔追跡手段322がその対象人物の追跡を開始するとONになり、追跡を終了するとOFFになる。つまり、追跡フラグ414がONのときはその対象人物は監視領域内に存在し、追跡フラグ414がOFFのときはその対象人物が既に認証されて入室したか、又は認証されずに監視領域から離れたということになる。
追跡位置情報415は、顔領域画像が切り出された監視画像内の顔領域の座標情報及び追跡処理がされた時刻を示す時刻情報である。
When the face tracking unit 322 associates the face area, the face tracking unit 322 updates the collation table stored in the storage unit 310. FIG. 3 shows an example of the collation table. As shown in FIG. 3, the collation table 410 manages the series data for each target person. The series data is a set of data represented in each row of the collation table 410, and the face tracking unit 322 updates the trial number 411, the series ID 412, the update time 413, the tracking flag 414, and the tracking position information 415 among the series data. To do.
In the verification table 410 shown in FIG. 3, the trial number 411 is an identification number for distinguishing the series data of the target person being tracked from other series data, and while the target person exists in the monitoring area. That is, the same identification number continues to be assigned while being tracked by the face tracking means 322. The series ID 412 is an identification number for identifying the target person being tracked from other target persons, and corresponds to the trial number 311 on a one-to-one basis. The series ID 412 is assigned so as to be uniquely determined. For example, a random number may be generated based on the time when the face tracking unit 322 starts tracking. Alternatively, the sequence ID 412 and the trial number 411 correspond one-to-one, and either may be omitted. The update time 413 represents the time when the face detection unit 321 finally extracted the face area image for the target person and the face tracking unit 322 finished the tracking process.
The tracking flag 414 is a flag indicating whether or not the tracking of the target person is continued. The tracking flag 414 is turned on when the face tracking unit 322 starts tracking the target person, and turned off when the tracking is finished. That is, when the tracking flag 414 is ON, the target person exists in the monitoring area, and when the tracking flag 414 is OFF, the target person has already been authenticated and has entered the room or left without being authenticated. It will be that.
The tracking position information 415 is time information indicating the coordinate information of the face area in the monitoring image from which the face area image is cut out and the time when the tracking process is performed.

顔追跡手段322は、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができなかった場合、その現フレームの顔領域には新たに監視領域内に入ってきた対象人物が写っているものとして、照合テーブル410にその対象人物についての系列データを新たに追加し、初期化処理を行う。即ち顔追跡手段322は、その系列データに新たな試行番号411及び系列ID412を割り当てるとともに、更新時刻413として現在時刻を記録し、追跡フラグ414をONに設定する。また顔追跡手段322は、追跡位置情報415としてその現フレームの顔領域の座標情報及び現在時刻を記録する。また顔追跡手段322は、認証フラグ417をOFFに設定し、新たに追加した系列データ及びその系列データに対応付けた現フレームの顔領域画像を顔照合手段323に出力する。   If the face area of the current frame of interest cannot be associated with the face area of the previous frame, the face tracking unit 322 shows the target person newly entering the monitoring area in the face area of the current frame. As a result, series data for the target person is newly added to the collation table 410, and initialization processing is performed. That is, the face tracking unit 322 assigns a new trial number 411 and a sequence ID 412 to the series data, records the current time as the update time 413, and sets the tracking flag 414 to ON. The face tracking unit 322 records the coordinate information and the current time of the face area of the current frame as the tracking position information 415. In addition, the face tracking unit 322 sets the authentication flag 417 to OFF, and outputs the newly added series data and the face area image of the current frame associated with the series data to the face matching unit 323.

一方、顔追跡手段322が、着目する現フレームの顔領域について前フレームの顔領域と対応付けることができた場合、その対象人物についての系列データは、既に照合テーブル410に作成されている。そのため、顔追跡手段322は、照合テーブル410の、対応する系列データの追跡位置情報415にその現フレームの顔領域の座標情報及び現在時刻を追加する更新処理を行う。そして顔追跡手段322は、その系列データ及びその系列データに対応付けた現フレームの顔領域画像を顔照合手段323に出力する。   On the other hand, when the face tracking unit 322 can associate the face area of the current frame of interest with the face area of the previous frame, the series data for the target person has already been created in the matching table 410. Therefore, the face tracking unit 322 performs update processing for adding the coordinate information and the current time of the face area of the current frame to the tracking position information 415 of the corresponding series data in the matching table 410. Then, the face tracking unit 322 outputs the series data and the face area image of the current frame associated with the series data to the face matching unit 323.

また、顔追跡手段322は、前フレームの顔領域について、全ての現フレームの顔領域と対応付けられなかったものがある場合、照合テーブル410の、対応する系列データの追跡フラグ414をOFFにして、その対象人物についての追跡処理を終了する。   Further, when there is a face area of the previous frame that is not associated with all face areas of the current frame, the face tracking unit 322 turns off the tracking flag 414 of the corresponding series data in the matching table 410. Then, the tracking process for the target person is terminated.

顔照合手段323は、画質判定手段324、類似度算出手段325、認証候補人物特定手段326、検出率算出手段327、認証閾値決定手段328及び認証判定手段329を有し、顔追跡手段322から出力された系列データのうち、図3に示した照合テーブル410の認証フラグ417がOFFとなっている系列データに対応付けられて顔追跡手段322から出力された顔領域画像について照合処理を行い、照合テーブル410の照合履歴416及び認証フラグ417を更新する。   The face collating unit 323 includes an image quality determining unit 324, a similarity calculating unit 325, an authentication candidate person specifying unit 326, a detection rate calculating unit 327, an authentication threshold determining unit 328, and an authentication determining unit 329, and outputs from the face tracking unit 322. Among the obtained series data, the face area image output from the face tracking unit 322 is matched with the series data for which the authentication flag 417 of the matching table 410 shown in FIG. The verification history 416 and the authentication flag 417 in the table 410 are updated.

照合履歴416は、各フレームの追跡位置情報415に対応するフレーム照合結果420を保持する。図4にフレーム照合結果420の例を示す。
取得時刻421は、現フレームの顔領域画像が取得された時刻である。画質フラグ422は、顔領域画像の画質が照合に適したものであるか否か、即ち顔領域画像が後述する類似度の算出に適切な画質であるか否かを表すフラグであり、画質判定手段324が顔領域画像の画質が照合に適していると判定した場合は画質判定手段324によりOKにセットされ、画質判定手段324が顔領域画像の画質が照合に適していないと判断した場合は画質判定手段324によりNGにセットされる。
The matching history 416 holds a frame matching result 420 corresponding to the tracking position information 415 of each frame. FIG. 4 shows an example of the frame matching result 420.
The acquisition time 421 is the time when the face area image of the current frame is acquired. The image quality flag 422 is a flag that indicates whether or not the image quality of the face area image is suitable for collation, that is, whether or not the face area image has an image quality appropriate for calculating similarity described later. When the means 324 determines that the image quality of the face area image is suitable for collation, it is set to OK by the image quality determination means 324, and when the image quality determination means 324 determines that the image quality of the face area image is not suitable for collation. It is set to NG by the image quality judging means 324.

フレーム1位人物423は、顔追跡手段322によって追跡した顔領域画像と記憶部310に記憶された複数の登録顔画像のそれぞれとの類似度(照合スコア)のうち、類似度が最高(1位)となった登録人物の識別IDである。類似度424は、フレーム1位人物423を特定することになった照合スコアである。   The frame first person 423 has the highest similarity (first rank) among the similarities (collation scores) between the face area image tracked by the face tracking unit 322 and each of the plurality of registered face images stored in the storage unit 310. This is the identification ID of the registered person. The similarity 424 is a matching score that identifies the first person person 423 in the frame.

図3に戻り、認証フラグ417は、対象人物に対する認証が成功したか否かを表すフラグである。即ち対象人物が登録人物のいずれかであると認証判定手段329によって判定された場合にはONにセットされ、対象人物の追跡が始まったばかりの状態のように認証結果が認証判定手段329によって求められていない状態の場合又は対象人物が登録人物ではないと認証判定手段329によって判定された場合にはOFFにセットされる。   Returning to FIG. 3, the authentication flag 417 is a flag indicating whether or not the authentication of the target person has succeeded. In other words, when the authentication determination unit 329 determines that the target person is one of the registered persons, the authentication determination unit 329 is set to ON, and the authentication result is obtained by the authentication determination unit 329 as if the target person has just started tracking. If it is determined that the authentication determination unit 329 determines that the target person is not a registered person, the setting is set to OFF.

画質判定手段324は、上述したように、顔領域画像の画質が照合処理に適したものであるか否か、即ち顔領域画像が後述する登録人物検出率としての1位ヒット率の計算に適切な画質であるか否かを判定し、判定結果を画質フラグ422に記憶する。
一般に、撮像部100が歩行する対象人物を撮影する間に、例えば、ピントが合わなくなる事態、照明、遮蔽等の影響で顔が暗くなる事態等が生じることがある。そのように事態のときに取得した照合処理に適さない画像を照合処理の対象から予め除外することによって、顔画像認証装置10の認証性能を向上させることができる。
As described above, the image quality determination unit 324 determines whether or not the image quality of the face area image is suitable for the collation processing, that is, the face area image is suitable for calculating the first hit rate as a registered person detection rate described later. It is determined whether or not the image quality is good, and the determination result is stored in the image quality flag 422.
In general, while the imaging unit 100 captures a walking target person, for example, a situation in which the subject is out of focus, a situation in which the face becomes dark due to lighting, shielding, or the like may occur. The authentication performance of the face image authenticating apparatus 10 can be improved by excluding, in advance, images that are not suitable for the matching process acquired in the event from the target of the matching process.

照合データの顔領域の画質が照合処理に適したものであるか否かを判断するための画質判定基準が複数存在する。例えば、撮像部100のレンズとしてオートフォーカスタイプのレンズを使用し、合焦調整が追いつかない画像を排除するような画質判定基準を用いる場合には、画質判定手段324は、顔領域画像の周波数成分を抽出し、周波数成分が所定の値以下である顔領域画像は照合処理に適さない顔領域画像であると判定し、画質フラグ422をNGにセットする。   There are a plurality of image quality determination criteria for determining whether or not the image quality of the face area of the verification data is suitable for the verification processing. For example, when an autofocus type lens is used as the lens of the imaging unit 100 and an image quality determination standard that excludes an image that cannot be adjusted with focus adjustment is used, the image quality determination unit 324 uses the frequency component of the face area image. , The face area image whose frequency component is equal to or less than a predetermined value is determined to be a face area image that is not suitable for the collation processing, and the image quality flag 422 is set to NG.

照合データの顔領域の画質が照合処理に適したものであるか否かを判断するための他の画質判定基準として照明条件に基づく画質判定基準を用いた場合において、顔領域画像に生じた明暗の状態を図5に示す。   When the image quality criterion based on the illumination condition is used as another image quality criterion for determining whether the image quality of the face area of the verification data is suitable for the verification process, the brightness and darkness generated in the face area image The state is shown in FIG.

図5(a)は、適切な明るさの顔領域画像を示す。図5(a)に示す顔領域画像には、特に照合処理の障害となる影が生じておらず、この場合、画質判定手段324は、画質フラグ422をOKにセットする。   FIG. 5A shows a face area image with appropriate brightness. In the face area image shown in FIG. 5A, there is no shadow that hinders the collation process. In this case, the image quality determination unit 324 sets the image quality flag 422 to OK.

図5(b)は、全体的に暗い顔領域画像を示す。図5(b)に示す顔領域画像では、照合処理において重要な情報となる顔のテクスチャ情報が欠落する傾向にあり、この場合、画質判定手段324は、顔領域画像の平均輝度を求め、平均輝度が所定の値以下である場合には、顔領域画像が暗すぎるとして画質フラグ422をNGにセットする。なお、画質判定手段324は、顔領域画像が明るすぎて顔のテクスチャ情報が欠落していると判定した場合も画質フラグ422をNGにセットする。したがって、画質判定手段324は、平均輝度が所定の範囲にある場合に画質フラグ422をOKにセットする。   FIG. 5B shows a dark face area image as a whole. In the face area image shown in FIG. 5B, face texture information that is important information in the matching process tends to be lost. In this case, the image quality determination unit 324 obtains the average luminance of the face area image and calculates the average. If the luminance is below a predetermined value, the image quality flag 422 is set to NG because the face area image is too dark. The image quality determination unit 324 also sets the image quality flag 422 to NG even when it is determined that the face area image is too bright and the facial texture information is missing. Therefore, the image quality determination unit 324 sets the image quality flag 422 to OK when the average luminance is within a predetermined range.

平均輝度が所定の範囲にあるか否かを判定するために、画質判定手段324は、例えば、顔領域画像において輝度値が0となった画素(黒く飽和又は黒つぶれ)と輝度値が255となった画素(白く飽和又は白つぶれ)の少なくとも一方があるか否か判定し、これらの画素がいずれも存在しない場合には平均輝度が所定の範囲にあると判定する。なお、顔領域画像がカラー画像である場合、RGBのそれぞれの顔領域画像において、輝度値が0となった画素と輝度値が255となった画素の少なくとも一方があるか否か判定する。   In order to determine whether or not the average luminance is in a predetermined range, the image quality determination unit 324, for example, has a pixel whose luminance value is 0 (saturated black or blacked out) and a luminance value of 255 in the face area image. It is determined whether or not there is at least one of the pixels (white saturation or whiteout). If none of these pixels exists, it is determined that the average luminance is within a predetermined range. When the face area image is a color image, it is determined whether or not each of the RGB face area images has at least one of a pixel having a luminance value of 0 and a pixel having a luminance value of 255.

顔領域画像が明るすぎ又は暗すぎるときの顔領域画像の顔の部分の領域の輝度分布は、単に明るい側又は暗い側に集中するだけでなく輝度階調が狭くなる傾向にある。したがって、平均輝度が所定の範囲にあるか否かを判定するために、画質判定手段324は、顔領域画像の顔部分の領域の輝度階調に4ビット以上の分解能があるか否かを判定し、4ビット以上の分解能がある場合には平均輝度が所定の範囲にあると判定してもよい。なお、顔領域画像がカラー画像である場合、RGBのそれぞれの顔領域画像において、顔領域画像の顔部分の領域の輝度階調に4ビット以上の分解能があるか否かを判定する。   When the face area image is too bright or too dark, the luminance distribution of the face portion area of the face area image tends not only to concentrate on the bright side or dark side but also to reduce the luminance gradation. Therefore, in order to determine whether or not the average luminance is within a predetermined range, the image quality determination means 324 determines whether or not the luminance gradation of the face portion area of the face area image has a resolution of 4 bits or more. If the resolution is 4 bits or more, it may be determined that the average luminance is within a predetermined range. When the face area image is a color image, it is determined whether the luminance gradation of the face portion area of the face area image has a resolution of 4 bits or more in each of the RGB face area images.

図5(c)は、対象人物の左側から光が当たり、左半面は明るいが右半面は暗い状態となっている顔領域画像を示す。この場合、本来あるべきでない特徴が明暗差の境目で抽出されうる。そこで、画質判定手段324は、所定の面積以上の領域において明るさが第1の値を超え又は所定の面積以上の領域において明るさが所定の第1の値より低い第2の値未満である場合に画質フラグ422をNGにセットする。画質フラグ422がNGにセットされた顔領域画像(フレーム)については、後述するように認証閾値決定手段328の処理対象外となる。   FIG. 5C shows a face area image in which light hits from the left side of the target person, the left half face is bright, but the right half face is dark. In this case, features that should not be originally can be extracted at the boundary between light and dark. Therefore, the image quality determination unit 324 has a brightness that exceeds the first value in a region that is greater than or equal to a predetermined area, or is less than a second value that is lower than the predetermined first value in a region that is greater than or equal to the predetermined area. In this case, the image quality flag 422 is set to NG. A face area image (frame) in which the image quality flag 422 is set to NG is excluded from the processing target of the authentication threshold value determination unit 328 as described later.

類似度算出手段325は、顔追跡手段322によって追跡した顔領域画像と記憶部310に予め記憶された複数の登録顔画像のそれぞれとの類似度を算出する。類似度算出手段325は、公知の顔照合技術を用いて類似度を算出する。例えば、類似度算出手段325は、顔領域画像と登録顔画像の位置をずらしながら顔領域画像に含まれる各画素と登録顔画像の対応画素の輝度値の差の二乗和を算出し、算出した二乗和のうち最も小さいものを顔領域画像に含まれる画素数で割って正規化した値の逆数を類似度として求める。
認証候補人物特定手段326は、類似度が最高となった登録人物、即ち認証候補人物を特定し、その情報(登録人物の識別ID)をフレーム1位人物423に記憶し、その類似度を類似度424に記憶する。
The similarity calculation unit 325 calculates the similarity between the face area image tracked by the face tracking unit 322 and each of a plurality of registered face images stored in the storage unit 310 in advance. The similarity calculation unit 325 calculates the similarity using a known face matching technique. For example, the similarity calculation unit 325 calculates and calculates the sum of squares of the difference between the luminance values of the pixels included in the face area image and the corresponding pixels of the registered face image while shifting the positions of the face area image and the registered face image. The reciprocal of the normalized value obtained by dividing the smallest sum of squares by the number of pixels included in the face area image is obtained as the similarity.
The authentication candidate person specifying unit 326 specifies the registered person who has the highest similarity, that is, the authentication candidate person, stores the information (identification ID of the registered person) in the frame first person 423, and the similarity is similar. Store at 424 degrees.

検出率算出手段327は、認証候補人物ごとに、現フレームから過去に遡った直近のNフレーム(例えば、30フレーム)分の監視画像から抽出された顔領域画像のそれぞれについて類似度が最高となった枚数、即ちフレーム1位人物423に識別IDが記録された数から登録人物検出率としての1位ヒット率を求める。
そのために、検出率算出手段327は、同一の系列ID412が付与された系列データについて、直近のNフレームに含まれるフレーム1位人物423及び類似度424を調べる。そして、Nフレーム分の類似度424のうちで最高の値となったフレーム1位人物423に記録された識別IDを持つ認証候補人物が、そのNフレーム中にいくつ含まれているかを計数し、その割合を1位ヒット率とする。
理想的な状態では、全てのフレーム照合結果420において同一の認証候補人物について類似度が1位になるので、その認証候補人物について1位ヒット率は100%となる。
以下、Nフレーム分の類似度424のうちで最高の値とはならなかったフレーム1位人物423の他の識別IDを持つ認証候補人物についても同様に、そのNフレーム中にいくつ含まれているかを計数し、それぞれ1位ヒット率を求めてもよい。
The detection rate calculation unit 327 has the highest similarity for each of the face area images extracted from the monitoring images for the most recent N frames (for example, 30 frames) retroactive from the current frame for each authentication candidate person. The first hit rate as the registered person detection rate is obtained from the number of recorded images, that is, the number of identification IDs recorded in the frame first person 423.
Therefore, the detection rate calculation unit 327 checks the first frame person 423 and the similarity 424 included in the latest N frames for the sequence data to which the same sequence ID 412 is assigned. Then, the number of authentication candidate persons having the identification ID recorded in the first frame person 423 having the highest value among the similarities 424 of N frames is counted, and the N frames are counted. The ratio is defined as the first hit rate.
In an ideal state, the similarity score is the highest for the same authentication candidate person in all the frame matching results 420, and therefore the first-rank hit rate is 100% for the authentication candidate person.
Similarly, the number of authentication candidate persons having other identification IDs of the first frame person 423 that did not become the highest value among the similarities 424 of N frames is also included in the N frames. May be counted, and the first hit rate may be obtained for each.

1位ヒット率は、例えば(1)式で表されるように、直近のNフレーム分のフレーム照合結果420の中で認証候補人物が1位となったフレーム数Nhit、直近のNフレーム分のフレーム照合結果420の中で画質フラグ422がNGにセットされたフレーム数I及びフレーム数Nhitの中で画質フラグ422がNGにセットされたフレーム数Ihitを用いて計算することができる。

Figure 2013101551
For example, as represented by the formula (1), the first-rank hit rate is the number of frames Nhit in which the authentication candidate person is ranked first in the frame comparison result 420 for the most recent N frames, and for the most recent N frames. It can be calculated using the number of frames I in which the image quality flag 422 is set to NG in the frame matching result 420 and the number of frames Ihit in which the image quality flag 422 is set to NG among the number of frames Nhit.
Figure 2013101551

認証閾値決定手段328は、顔領域画像に含まれる顔が認証候補人物として特定された登録人物の顔であるか否かを認証するための基準である認証閾値を1位ヒット率に応じて決定する。認証閾値テーブルを2次元グラフ化した図を、図6に示す。   The authentication threshold value determining unit 328 determines an authentication threshold value that is a reference for authenticating whether or not the face included in the face area image is the face of a registered person specified as an authentication candidate person according to the first-rank hit rate. To do. FIG. 6 shows a two-dimensional graph of the authentication threshold value table.

認証閾値テーブルを、後に詳細に説明するように、1位ヒット率が高くなるに従って認証閾値が小さくなるように設計する。1位ヒット率と認証閾値との関係は、図6(a)に示すような直線の関係、図6(b)に示すような下に凸の曲線の関係、図6(c)に示すような上に凸の曲線の関係、図6(d)に示すような所定の区間ごとに区切った階段状の関係等とすることができる。   As will be described later in detail, the authentication threshold value table is designed so that the authentication threshold value decreases as the first-order hit rate increases. The relationship between the first-rank hit rate and the authentication threshold is a straight line relationship as shown in FIG. 6A, a downwardly convex curve relationship as shown in FIG. 6B, and as shown in FIG. 6C. Furthermore, it is possible to use a relationship of a convex curve, a step-like relationship divided for each predetermined section as shown in FIG.

図6に示す1位ヒット率と認証閾値との関係は、設計事項として既存の知見に基づいて与えてもよいが、予備実験結果に基づいて経験的に求めることもできる。即ち、顔画像認証装置10を設置した際に、本運用する前にサンプルとなる被験者を募り、実際に図2に示すように被験者に扉253の前で方向254に沿って歩いてもらう。その際、得られた入力顔画像を実際に認証処理し、1位ヒット率と類似度との関係を求めてサンプルデータとする。このサンプルデータは、日照変動に伴う明るさの変化などの顔画像認証装置10の運用条件も加味しつつ数多く用意するのが望ましい。   The relationship between the first-rank hit rate and the authentication threshold shown in FIG. 6 may be given based on existing knowledge as a design item, but can also be obtained empirically based on a preliminary experiment result. That is, when the face image authentication device 10 is installed, a sample subject is recruited before the actual operation, and the subject actually walks in the direction 254 in front of the door 253 as shown in FIG. At that time, the obtained input face image is actually authenticated, and the relationship between the first hit rate and the similarity is obtained and used as sample data. It is desirable to prepare a large number of sample data in consideration of the operating conditions of the face image authentication device 10 such as a change in brightness due to sunshine fluctuations.

そして、例えば、1位ヒット率が0.8に対する認証閾値を決める場合、サンプルデータの中で1位ヒット率が0.75から0.85だったサンプルデータを集め、許容できるFAR(False Accept Rate:他人受理率、例えば、0.1%)になる類似度を認証閾値に採用する。同様に、1位ヒット率を変えながらそれぞれの1位ヒット率に対する認証閾値を決定し、決定した1位ヒット率及び認証閾値の座標を滑らかな曲線で結び、1位ヒット率と認証閾値との関係を、例えば図6(a)に示すような直線の関係として決定すればよい。この際、右肩下がりの単調減少の非線形関数を当てはめてもよい。   For example, when determining the authentication threshold value for the first hit rate of 0.8, sample data having the first hit rate of 0.75 to 0.85 among the sample data is collected and allowed FAR (False Accept Rate : Adopting a similarity degree that results in an acceptance rate of others (for example, 0.1%) as an authentication threshold. Similarly, the authentication threshold for each first hit rate is determined while changing the first hit rate, and the coordinates of the determined first hit rate and the authentication threshold are connected by a smooth curve, and the first hit rate and the authentication threshold What is necessary is just to determine a relationship as a linear relationship as shown, for example to Fig.6 (a). At this time, a non-linear function of monotonously decreasing right shoulder may be applied.

なお、類似度が最高になったフレーム数が極めて少ない(例えば、直近の30フレームに対して3フレーム)場合、類似度が高いフレームがあっても本人との結果を出力するのは不適切である。また、類似度が最高になったフレーム数が多くても、類似度が低すぎる場合も、本人との結果を出力するのは不適切である。したがって、類似度が最高になったフレーム数が極めて少ない場合、類似度が低すぎる場合等については、次に説明する認証判定手段329による判定を禁止するのが好ましい。   If the number of frames with the highest similarity is extremely small (for example, 3 frames compared to the last 30 frames), it is inappropriate to output the result with the person even if there are frames with high similarity. is there. Also, even if the number of frames with the highest similarity is large or the similarity is too low, it is inappropriate to output the result with the person. Therefore, when the number of frames with the highest similarity is extremely small, or when the similarity is too low, it is preferable to prohibit determination by the authentication determination unit 329 described below.

認証判定手段329は、類似度が最高となったフレーム数が複数であり、かつ、認証候補人物の直近のNフレームにおける類似度のいずれか一つが認証閾値を超えたか否か判定する。類似度が最高となったフレーム数が複数であり、かつ、認証候補人物のいずれか一つの類似度が認証閾値を超えた場合、認証判定手段329は、顔領域画像に含まれる顔が当該認証候補人物として特定された登録人物の顔であると判定し、監視領域内を通行する対象人物が当該登録人物であると判定する。そして、対応する照合テーブル410において、追跡フラグ414をOFFに設定するとともに認証フラグ417をONに設定し、認証成功を示す信号を出力部200に出力する。   The authentication determination unit 329 determines whether there are a plurality of frames with the highest similarity and any one of the similarities in the N frames nearest to the authentication candidate person exceeds the authentication threshold. When the number of frames having the highest similarity is plural and the similarity of any one of the authentication candidate persons exceeds the authentication threshold, the authentication determination unit 329 determines that the face included in the face area image is the authentication It is determined that the face is a registered person identified as a candidate person, and the target person who passes through the monitoring area is determined to be the registered person. In the matching table 410, the tracking flag 414 is set to OFF and the authentication flag 417 is set to ON, and a signal indicating successful authentication is output to the output unit 200.

一方、所定時間(例えば、2秒)以上追跡を継続しているにもかかわらず、認証候補人物のいずれの類似度も認証閾値を超えない場合、認証判定手段329は、認証失敗として対応する照合テーブル410の認証フラグ417をOFFに設定する。また、追跡開始直後であり、類似度が最高となった回数が1回である場合又は照合履歴416がNフレーム分取得されていない場合にも、認証判定手段329は、対応する照合テーブル410の認証フラグ417をOFFに設定する。   On the other hand, if none of the similarities of the authentication candidate person exceeds the authentication threshold even though the tracking is continued for a predetermined time (for example, 2 seconds), the authentication determination unit 329 checks the corresponding verification as an authentication failure. The authentication flag 417 in the table 410 is set to OFF. Also, immediately after the start of tracking, when the number of times that the degree of similarity is the highest is 1 or when the verification history 416 has not been acquired for N frames, the authentication determination unit 329 includes the corresponding verification table 410. The authentication flag 417 is set to OFF.

ここで、1位ヒット率に応じて認証閾値を決定することにより奏される効果を、顔画像認証装置で得られる類似度の模式図である図7及び利用者が顔の向きを変えて撮影されることを示す模式図である図8を用いて説明する。
複数の監視画像に亘って抽出された同一人物の顔について登録人物に対する類似度を時系列で取得することを考えた場合、即ち同一人物についての直近の複数の顔領域画像について類似度を順次取得する場合、いずれの類似度も高くなるのが望ましい。例えば、図7(a)においては、いずれの類似度も高く、「顔領域画像の顔は人物Aの顔である」との結果が得られている。この場合、最高の類似度、平均の類似度及び1位ヒット率のいずれを用いても、「顔領域画像の顔は人物Aの顔である」との結果を正確に得ることができる。
Here, the effect obtained by determining the authentication threshold according to the first hit rate is shown in FIG. 7 which is a schematic diagram of the similarity obtained by the face image authentication device, and the user changes the face orientation. This will be described with reference to FIG.
When considering the similarity to the registered person in time series for the face of the same person extracted across multiple monitoring images, that is, sequentially obtaining the similarity for the most recent face area images for the same person When doing so, it is desirable that both similarities be high. For example, in FIG. 7A, all the similarities are high, and a result that “the face of the face area image is the face of the person A” is obtained. In this case, the result that “the face of the face area image is the face of the person A” can be obtained accurately using any of the highest similarity, the average similarity, and the first-rank hit rate.

しかしながら、通行する人物の顔を順次撮影するような状況では、歩行中に自然に生じる表情、顔の向き等に変動が生じうる。図8において、登録顔画像700は正面向きの顔画像を表すとする。符号701〜705は、各フレームにおける顔領域画像を示す。図8に示すように、顔領域画像703,704については、照明条件が良好であり、顔の向きも正面であるので、登録顔画像700と条件が揃い、これらの間の類似度も高くなる。その結果、各顔領域画像の顔の人物(フレーム1位人物423)は「人物A」であると判定される。一方、顔領域画像701,702,705においては、顔の向きが正面でないので、本人であっても類似度は低くなり、顔領域画像701の顔の人物は「人物B」であると判定され、顔領域画像702の顔の人物は「人物D」であると判定され、顔領域画像705の顔の人物は「人物C」と判定される。   However, in a situation where the faces of passing people are sequentially photographed, variations in facial expressions, face orientations, etc. that occur naturally during walking can occur. In FIG. 8, it is assumed that a registered face image 700 represents a face image facing the front. Reference numerals 701 to 705 denote face area images in each frame. As shown in FIG. 8, for the face area images 703 and 704, the illumination conditions are good and the face direction is also the front, so the conditions are the same as the registered face image 700, and the similarity between them is also high. . As a result, the face person (first person person frame 423) of each face area image is determined to be “person A”. On the other hand, in the face area images 701, 702, and 705, since the face direction is not front, the similarity is low even for the person himself, and the person of the face in the face area image 701 is determined to be “person B”. The face person in the face area image 702 is determined to be “person D”, and the face person in the face area image 705 is determined to be “person C”.

図8に示すような状況において、類似度をグラフ表示すると、図7(b)に示すように、顔領域画像703,704については類似度が認証閾値を超え、顔画像701,702,705については類似度が認証閾値より低くなる。この場合、従来技術のように最高の類似度に基づいて判定を行えば本人と他人とを区別することができる。しかしながら、上述したように、顔画像認証では、顔の向き、照明条件等によりいわゆる「他人の空似」が発生し、本人の類似度より他人の類似度が高くなる現象を無視することができない。これにより他人の受け入れにつながるので、単に最高の類似度に基づいて判定を行うのは不適切である。   When the similarity is displayed in a graph in the situation as shown in FIG. 8, the similarity exceeds the authentication threshold for the face area images 703 and 704, and the face images 701, 702, and 705 are displayed as shown in FIG. The similarity is lower than the authentication threshold. In this case, if the determination is made based on the highest degree of similarity as in the prior art, the person can be distinguished from the other person. However, as described above, in face image authentication, a phenomenon in which a so-called “other's similarity” occurs due to the orientation of the face, lighting conditions, and the like, and a phenomenon in which the similarity of the other person is higher than the similarity of the person cannot be ignored. Since this leads to acceptance of others, it is inappropriate to simply make a determination based on the highest similarity.

また、類似度の平均値に基づいて判定を行う場合、類似度の平均が認証閾値を超えなくなり、本人を正しく判定できないことがある。さらに、1位ヒット率に基づいて判定を行う場合でも、1位ヒット率が認証閾値を超えなくなり、本人を正しく判定できないことがある。   Further, when the determination is performed based on the average value of the similarity, the average of the similarity may not exceed the authentication threshold value, and the identity may not be determined correctly. Further, even when the determination is made based on the first hit rate, the first hit rate may not exceed the authentication threshold, and the person may not be determined correctly.

また、図7(c)に示すように、眼鏡の有無、表情の変動等により最高の類似度がいずれも認証閾値より低くなる事態がある。例えば、裸眼で登録した人物が眼鏡をかけて通行するときに登録顔画像と顔領域画像との類似度を算出する際に、眼鏡以外の部分では画像間の差異が小さいので眼鏡以外の部分の類似度が高くなるが、眼鏡部分のテクスチャが登録画像と顔領域画像との間で異なるために眼鏡部分における登録画像と顔領域画像との差異が大きくなり、その結果、顔全体としては類似度が低くなり、本人が最高の類似度を有したとしても最高の類似度が認証閾値よりも低くなる。この場合、最高の類似度が認証閾値を超えないために、最高の類似度、類似度の平均及び1位ヒット率のいずれを用いても本人の判定が困難になる。   In addition, as shown in FIG. 7C, there is a situation in which the highest similarity is lower than the authentication threshold value due to the presence or absence of glasses, changes in facial expressions, and the like. For example, when calculating the similarity between a registered face image and a face area image when a person registered with the naked eye is wearing glasses, the difference between the images is small in a portion other than the glasses. Although the degree of similarity increases, the difference between the registered image and the face area image in the eyeglass part increases because the texture of the eyeglass part differs between the registered image and the face area image. Even if the person has the highest similarity, the highest similarity is lower than the authentication threshold. In this case, since the highest degree of similarity does not exceed the authentication threshold, it is difficult to determine the person himself using any of the highest degree of similarity, the average degree of similarity, and the first-rank hit rate.

本人の判定を行えるようにするために認証閾値を低くすることも考えられるが、歩行中に自然に生じる表情、顔の向き等の変動により最高の類似度を有する登録人物が本人以外であると判定されうる状況においては、本人以外の1位ヒット率が高い登録人物が認証候補人物として特定される可能性がある。   Although it is conceivable to lower the authentication threshold so that the person can be determined, the registered person who has the highest degree of similarity due to variations in facial expressions, face orientations, etc. that occur naturally during walking is not the person In a situation that can be determined, there is a possibility that a registered person having a high first-rank hit rate other than the person himself / herself is specified as an authentication candidate person.

したがって、歩行中に自然に生じる表情、顔の向き等の変動により本人の1位ヒット率が低くても最高の類似度が高いと予測される場合には、認証閾値を既定の高い値のままにすることによって、本人だけを受理することができる。
一方、眼鏡の有無、表情の変動等により本人の1位ヒット率が高いものの最高の類似度が低いと予想される場合には、認証閾値を低くする(例えば、既定の値の40%にする)ことによって、本人だけを受理することができる。
上述したように、1位ヒット率に応じて認証閾値を適応的に決定することによって、表情、顔の向きの変動等により本人認証をしにくい状況でも本人受理を確保することができ、顔認証装置10を運用する上で日常的に発生しうる様々な変動に対応することができる。
Therefore, if the highest similarity is predicted to be high even if the person's first-rank hit rate is low due to changes in facial expressions, face orientation, etc. that occur naturally during walking, the authentication threshold value remains at the default high value. By doing so, only the person himself can be accepted.
On the other hand, if the highest similarity is expected to be low although the person's first-ranked hit rate is high due to the presence or absence of glasses, changes in facial expression, etc., the authentication threshold is lowered (for example, 40% of the default value) ) So that only the person can be accepted.
As described above, by adaptively determining the authentication threshold according to the first-rank hit rate, it is possible to ensure identity acceptance even in situations where identity authentication is difficult due to changes in facial expression, face orientation, etc. It is possible to cope with various fluctuations that may occur on a daily basis when the apparatus 10 is operated.

以下、図9に示したフローチャートを参照しつつ、本発明による顔画像認証装置10の動作を説明する。なお、以下に説明する動作のフローは、画像処理部300を構成するマイクロプロセッサ上で動作し、顔画像認証装置10全体を制御する制御部(図示せず)により制御される。なお、以下に説明する処理の実施前に、照合テーブル410は空白になるよう初期化される。また、以下に説明する動作は、監視画像を一つ取得するごとに実施される。   The operation of the face image authentication apparatus 10 according to the present invention will be described below with reference to the flowchart shown in FIG. The flow of operations described below is controlled by a control unit (not shown) that operates on the microprocessor constituting the image processing unit 300 and controls the face image authentication apparatus 10 as a whole. Note that the collation table 410 is initialized to be blank before performing the processing described below. The operation described below is performed every time one monitoring image is acquired.

最初に、顔画像認証装置10は、撮像部100により、監視領域を撮影した監視画像を取得し、画像処理部300の照合部320へ送る(ステップS401)。次に、照合部320の顔検出手段321は、取得された監視画像から、対象人物の顔が写っている顔領域を抽出し、その顔領域を監視画像から切り出して顔領域画像を作成する(ステップS402)。次に、顔検出手段321は、一つ以上の顔領域が抽出されたか否か判定する(ステップS403)。顔領域が全く抽出されなかった場合、ステップS401へ移行し、顔領域が抽出されるまでステップS401〜S403の処理を繰り返す。   First, the face image authentication apparatus 10 acquires a monitoring image obtained by capturing a monitoring area by the imaging unit 100, and sends the monitoring image to the matching unit 320 of the image processing unit 300 (step S401). Next, the face detection unit 321 of the collation unit 320 extracts a face area in which the face of the target person is shown from the acquired monitoring image, and cuts out the face area from the monitoring image to create a face area image ( Step S402). Next, the face detection unit 321 determines whether one or more face regions have been extracted (step S403). If no face area is extracted, the process proceeds to step S401, and the processes of steps S401 to S403 are repeated until the face area is extracted.

一方、ステップS403において、一つ以上の顔領域が抽出され、顔領域画像が作成された場合、顔追跡手段322は、抽出された全ての顔領域について、照合テーブル410における追跡フラグ414がONとなっている系列ID412との対応付けを実施する(ステップS404)。そして顔追跡手段322は、照合テーブル410における追跡フラグ414がONとなっている系列ID412について、現フレームの顔領域のいずれとも対応付けられなかったものがあるか否かを判定する(ステップS405)。現フレームの顔領域のいずれとも対応付けられなかった照合テーブル410における追跡フラグ414がONとなっている系列ID412がある場合、その系列ID412の対象人物は、認証成功となって入室したか、又は認証されずに監視領域から離れたと考えられる。そのためその場合、顔追跡手段322は、照合テーブル410の、現フレームの顔領域のいずれとも対応付けられなかった系列ID412の追跡フラグ414をOFFにして、以後その顔領域に対する追跡処理を実施しないようにする(ステップS406)。   On the other hand, when one or more face areas are extracted and a face area image is created in step S403, the face tracking unit 322 sets the tracking flag 414 in the matching table 410 to ON for all the extracted face areas. The association with the sequence ID 412 is implemented (step S404). Then, the face tracking unit 322 determines whether or not there is a group ID 412 in which the tracking flag 414 in the collation table 410 is ON, which is not associated with any of the face areas of the current frame (step S405). . If there is a sequence ID 412 in which the tracking flag 414 in the matching table 410 that is not associated with any of the face regions of the current frame is ON, the target person of the sequence ID 412 has entered the room with successful authentication, or It is thought that he was away from the monitoring area without being authenticated. Therefore, in that case, the face tracking unit 322 turns off the tracking flag 414 of the series ID 412 that is not associated with any of the face areas of the current frame in the matching table 410, and does not perform the tracking process for the face area thereafter. (Step S406).

そして顔追跡手段322は、現フレームの顔領域について、照合テーブル410における追跡フラグ414がONとなっている系列ID412と対応付けることができなかったものがあるか否かを判定する(ステップS407)。照合テーブル410における追跡フラグ414がONとなっている系列ID412と対応付けることができなかったものがある場合、顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての系列データを照合テーブル410に新たに追加する(ステップS408)。即ち顔追跡手段322は、対応付けることができなかった顔領域の対象人物についての系列データに新たな試行番号411及び系列ID412を割り当てるとともに、更新時刻413として現在の時刻を記録し、追跡フラグ414をONに設定する。また顔追跡手段322は、対応付けることができなかった顔領域の座標情報及び取得時刻を追跡位置情報415として記録し、認証フラグ417をOFFに設定する。   Then, the face tracking unit 322 determines whether there is a face area of the current frame that cannot be associated with the series ID 412 in which the tracking flag 414 in the matching table 410 is ON (step S407). If there is something that could not be associated with the series ID 412 for which the tracking flag 414 in the collation table 410 is ON, the face tracking unit 322 collates the series data for the target person in the face area that could not be associated. A new one is added to the table 410 (step S408). That is, the face tracking unit 322 assigns a new trial number 411 and a series ID 412 to the series data for the target person in the face area that could not be associated, records the current time as the update time 413, and sets the tracking flag 414. Set to ON. The face tracking unit 322 records the coordinate information and acquisition time of the face area that could not be associated as the tracking position information 415, and sets the authentication flag 417 to OFF.

なお、現フレームの顔領域について、照合テーブル410における追跡フラグ414がONとなっている系列ID412と対応付けることができた場合、顔追跡手段322は、対応付けることができた顔領域の座標情報及び取得時刻を、照合テーブル410の対応する系列データの追跡位置情報415に追加する更新処理を行う。そして顔追跡手段322は、更新した系列データ及び顔領域画像を顔照合手段322に出力する。   When the face area of the current frame can be associated with the sequence ID 412 in which the tracking flag 414 in the collation table 410 is ON, the face tracking unit 322 acquires coordinate information and acquisition of the face area that can be associated. Update processing is performed to add the time to the tracking position information 415 of the corresponding series data in the matching table 410. Then, the face tracking unit 322 outputs the updated series data and face area image to the face matching unit 322.

次に、顔照合手段323は、追跡フラグ414がONであり、かつ、認証フラグ417がOFFになっている系列データがあるか否か判定する(ステップS409)。追跡フラグ414がONであり、かつ、認証フラグ417がOFFになっている系列データがない場合、ステップS401へ移行する。それに対し、認証フラグ417がOFFになっている系列データがある場合、以下のステップS410〜S415の処理を実行する。ここで、追跡フラグ414がONになっている系列データのうち認証フラグ417がONである系列データは処理対象としないのは、当該系列データについては既に認証が完了しているからである。   Next, the face collating unit 323 determines whether there is series data in which the tracking flag 414 is ON and the authentication flag 417 is OFF (step S409). If the tracking flag 414 is ON and there is no series data in which the authentication flag 417 is OFF, the process proceeds to step S401. On the other hand, when there is series data for which the authentication flag 417 is OFF, the following processes of steps S410 to S415 are executed. Here, among the series data for which the tracking flag 414 is ON, the series data for which the authentication flag 417 is ON is not processed because the authentication has already been completed for the series data.

顔照合手段323は、顔追跡手段322から系列データが出力されると照合履歴416にフレーム照合結果420を蓄積する。フレーム照合結果420はそれぞれ、各フレームにおける追跡位置情報415と一対一で対応するものであり、追跡位置情報415の時刻情報を取得時刻421に記憶する。なお、取得時刻421を、追跡位置情報415の時刻情報と同一であるとして省略してもよい。   The face matching unit 323 stores the frame matching result 420 in the matching history 416 when the series data is output from the face tracking unit 322. Each frame matching result 420 has a one-to-one correspondence with the tracking position information 415 in each frame, and the time information of the tracking position information 415 is stored in the acquisition time 421. The acquisition time 421 may be omitted as being the same as the time information of the tracking position information 415.

画質判定手段324は、系列データの現フレームの顔領域の画質が照合処理に適したものであるか否かを判定し、系列データの現フレームの顔領域の画質が照合処理に適したものである場合には画質フラグ422をOKにセットし、系列データの現フレームの顔領域の画質が照合処理に適したものでない場合には画質フラグ422をNGにセットする(ステップS410)。   The image quality determination means 324 determines whether the image quality of the face area of the current frame of the sequence data is suitable for the collation processing, and the image quality of the face area of the current frame of the sequence data is suitable for the collation processing. If there is, the image quality flag 422 is set to OK, and if the image quality of the face area of the current frame of the sequence data is not suitable for collation processing, the image quality flag 422 is set to NG (step S410).

次に、類似度算出手段325は、系列データの現フレームの顔領域に対して、記憶部310に記憶された全ての登録画像との間で類似度を算出する(ステップS411)。そして、認証候補人物特定手段326は、類似度が最高となった登録人物の情報(登録人物の識別ID)をフレーム1位人物423に記憶し、その類似度を類似度424に記憶する(ステップS412)。なお、画質判定手段324において系列データの現フレームの顔領域の画質が照合処理に適したものでないと判定された場合には、当該フレームの類似度は認証閾値決定手段328における認証閾値決定処理に用いられないので、類似度の算出を省略してもよい。   Next, the similarity calculation unit 325 calculates the similarity between all the registered images stored in the storage unit 310 for the face area of the current frame of the sequence data (step S411). Then, the authentication candidate person specifying unit 326 stores the information of the registered person having the highest similarity (identification ID of the registered person) in the frame first person 423, and stores the similarity in the similarity 424 (step 424). S412). When the image quality determination unit 324 determines that the image quality of the face area of the current frame of the sequence data is not suitable for the collation process, the similarity of the frame is determined by the authentication threshold determination unit 328. Since it is not used, the calculation of the similarity may be omitted.

次に、検出率算出手段327は、直近のNフレーム分のフレーム照合結果420の中で類似度が最高になった認証候補人物の1位ヒット率を、式(1)を用いて算出する。そして、認証閾値決定手段328は、顔領域画像に含まれる顔が認証候補人物として特定された登録人物の顔であるか否かを認証するための基準である認証閾値を1位ヒット率に応じて決定する(ステップS413)。   Next, the detection rate calculation means 327 calculates the first-rank hit rate of the authentication candidate person who has the highest similarity in the frame comparison result 420 for the most recent N frames using Equation (1). Then, the authentication threshold value determination unit 328 sets an authentication threshold value that is a reference for authenticating whether or not the face included in the face area image is the face of the registered person specified as the authentication candidate person according to the first-rank hit rate. (Step S413).

なお、顔追跡手段322による追跡を開始したばかりのときには、照合履歴416に蓄積されたフレーム数が少なく、1位ヒット率が一つのフレームの結果に大きく左右されるので、認証処理を行わないようにする必要がある。このために、認証処理に必要なフレーム数が照合履歴416に蓄積されたか否かの判定を、例えば、ステップS409で行い、認証処理に必要なフレーム数が照合履歴416に蓄積されていない場合には、認証処理を禁止し、ステップS401へ移行するようにするのが好ましい。認証処理に必要なフレーム数は、顔画像認証装置10の設置環境に応じて適宜設定されるが、フレーム数Nの30〜100%の範囲内であることが望ましい。   Note that when the tracking by the face tracking unit 322 has just started, the number of frames accumulated in the matching history 416 is small, and the first hit rate greatly depends on the result of one frame, so that authentication processing is not performed. It is necessary to. For this reason, for example, it is determined in step S409 whether or not the number of frames necessary for the authentication process is accumulated in the verification history 416, and the number of frames required for the authentication process is not accumulated in the verification history 416. It is preferable that the authentication process is prohibited and the process proceeds to step S401. The number of frames required for the authentication process is set as appropriate according to the installation environment of the face image authentication apparatus 10, but is preferably within a range of 30 to 100% of the number of frames N.

次に、認証判定手段329は、認証候補人物の類似度が最高となったフレーム数が複数(例えば、3枚)であり、かつ、認証候補人物のいずれかの類似度424が認証閾値を超えているか否かを判定する(ステップS414)。認証候補人物の類似度が最高となったフレーム数が1枚又は認証候補人物の類似度424のいずれもが認証閾値を超えていない場合、ステップS401へ移行する。それに対し、認証候補人物の類似度が最高となったフレーム数が複数であり、かつ、認証候補人物の類似度424のいずれかが認証閾値を超えている場合、認証判定手段329は、認証成功を示す信号を出力部200に出力し、追跡フラグ414をOFFに設定するとともに認証フラグ417をONに設定する(ステップS415)。   Next, the authentication determination unit 329 has a plurality of (for example, three) frames with the highest similarity of the authentication candidate person, and the similarity 424 of any one of the authentication candidate persons exceeds the authentication threshold. It is determined whether or not (step S414). When the number of frames in which the similarity of the authentication candidate person is highest is one or the similarity 424 of the authentication candidate person does not exceed the authentication threshold, the process proceeds to step S401. On the other hand, if the number of frames with the highest similarity of the authentication candidate person is plural and any of the similarity degrees 424 of the authentication candidate person exceeds the authentication threshold, the authentication determination unit 329 Is output to the output unit 200, the tracking flag 414 is set to OFF, and the authentication flag 417 is set to ON (step S415).

ステップS415で認証成功を示す信号が出力部200に出力された場合、顔照合手段323は、出力部200を介して電気錠の解錠を行う。これにより認証成功となった対象人物は、入室することができる。なお、電気錠は、対象人物の入室が確認できた後にすみやかに、または所定時間経過後に自動的に施錠されるものとする。   When a signal indicating successful authentication is output to the output unit 200 in step S 415, the face matching unit 323 unlocks the electric lock via the output unit 200. As a result, the target person who has succeeded in authentication can enter the room. It is assumed that the electric lock is locked immediately after the entry of the target person can be confirmed or automatically after a predetermined time has elapsed.

本発明は、上記実施の形態に限定されるものではなく、幾多の変更及び変形が可能である。例えば、上記実施の形態において、類似度に基づいて複数の登録人物から認証候補人物を特定する際に、直近のNフレームにおいて最高の類似度を有する登録人物を認証候補人物として決定した場合について説明したが、直近のNフレームにおいて最高の類似度以外の類似度を有する登録人物を、類似度が高い順に認証候補人物に決定することもできる。この場合、顔領域画像に含まれる顔が直近のNフレームにおいて最高の類似度を有する登録人物の顔でないと判定されたときに、直近のNフレームにおいて最高の類似度以外の類似度を有する登録人物について、1位ヒット率に応じた認証閾値の決定及び認証判定を、認証が成功するまで類似度が高い登録人物の順に行う。したがって、直近のNフレームにおける類似度が高い順に複数の登録人物が認証候補人物として順次設定されることとなる。   The present invention is not limited to the above-described embodiment, and many changes and modifications can be made. For example, in the above embodiment, a case where a registered person having the highest similarity in the latest N frames is determined as an authentication candidate person when specifying an authentication candidate person from a plurality of registered persons based on the similarity degree will be described. However, a registered person having a similarity other than the highest similarity in the latest N frames can be determined as an authentication candidate person in descending order of similarity. In this case, when it is determined that the face included in the face area image is not the face of the registered person having the highest similarity in the latest N frames, the registration having a similarity other than the highest similarity in the latest N frames. For the person, the determination of the authentication threshold according to the first-rank hit rate and the authentication determination are performed in the order of registered persons having a high similarity until the authentication is successful. Therefore, a plurality of registered persons are sequentially set as authentication candidate persons in descending order of similarity in the latest N frames.

また、類似度に基づいて複数の登録人物から認証候補人物を特定する際に、最新の顔領域画像(現フレーム)において最高の類似度を有する登録人物を認証候補人物に決定することもできる。この場合、現フレームにおいて最高の類似度を有する登録人物について、1位ヒット率に応じた認証閾値の決定及び認証判定を行う。また、顔領域画像に含まれる顔が現フレームにおいて最高の類似度を有する登録人物の顔でないと判定されたときに、最近抽出した顔領域画像において最高の類似度を有する登録人物以外の登録人物について、1位ヒット率に応じた認証閾値の決定及び認証判定を、認証が成功するまで類似度が高い登録人物の順に行うこともできる。したがって、現フレームにおける類似度が高い順に複数の登録人物が認証候補人物として順次設定されることとなる。   Further, when an authentication candidate person is specified from a plurality of registered persons based on the similarity, the registered person having the highest similarity in the latest face area image (current frame) can be determined as the authentication candidate person. In this case, for a registered person having the highest similarity in the current frame, an authentication threshold is determined and authentication is determined according to the first hit rate. Further, when it is determined that the face included in the face area image is not the face of the registered person having the highest similarity in the current frame, the registered persons other than the registered person having the highest similarity in the recently extracted face area image In addition, the determination of the authentication threshold according to the first-rank hit rate and the authentication determination can be performed in the order of registered persons having high similarity until the authentication is successful. Accordingly, a plurality of registered persons are sequentially set as authentication candidate persons in descending order of similarity in the current frame.

また、類似度に基づいて複数の登録人物のうちの少なくとも1人を認証候補人物と判定する際に、直近のNフレームにおいて1位ヒット率が最も高い登録人物を認証候補人物に決定することもできる。この場合、直近のNフレームにおいて1位ヒット率が最も高い登録人物について、1位ヒット率に応じた認証閾値の決定及び認証判定を行う。また、顔領域画像に含まれる顔が直近のNフレームにおいて1位ヒット率が最も高い登録人物の顔でないと判定されたときに、直近のNフレームにおいて1位ヒット率が最も高い登録人物以外の登録人物について、1位ヒット率に応じた認証閾値の決定及び認証判定を、認証が成功するまで1位ヒット率が高い登録人物の順に行うこともできる。したがって、直近のNフレームにおける1位ビット率が高い順に複数の登録人物が認証候補人物として順次設定されることとなる。   Further, when determining at least one of a plurality of registered persons as an authentication candidate person based on the similarity, the registered person having the highest first-rank hit rate in the latest N frames may be determined as the authentication candidate person. it can. In this case, for the registered person with the highest first hit rate in the latest N frames, the authentication threshold is determined and the authentication is determined according to the first hit rate. Further, when it is determined that the face included in the face area image is not the face of the registered person having the highest first hit rate in the latest N frames, a face other than the registered person having the highest first hit rate in the latest N frames is determined. For the registered person, the determination of the authentication threshold according to the first place hit rate and the authentication determination can be performed in the order of the registered person having the highest first place hit rate until the authentication is successful. Therefore, a plurality of registered persons are sequentially set as authentication candidate persons in descending order of the first-order bit rate in the latest N frames.

また、上記実施の形態において、認証候補人物の直近のNフレームにおける類似度の最高値が認証閾値を超えたか否か判定する場合について説明したが、認証候補人物の直近のNフレームにおける類似度の平均値又は中央値が認証閾値を超えたか否か判定してもよい。
また、上記実施の形態において、認証人物の直近のNフレームの顔領域画像に対する類似度が最高になった数に基づいて1位ヒット率を求めていたが、類似度が2位以下になった場合も含めて同様にヒット率を求めてもよい。この場合、上位ほど重み付けを大きくして式(1)と同様な式からヒット率を求めるのが好適である。
Further, in the above embodiment, the case has been described in which it is determined whether or not the maximum value of the similarity in the latest N frame of the authentication candidate person has exceeded the authentication threshold. You may determine whether the average value or the median value exceeded the authentication threshold value.
Further, in the above embodiment, the first-rank hit rate is obtained based on the number of similarities with respect to the face area image of the latest N frames of the authenticated person, but the similarity is second or lower. You may obtain | require a hit rate similarly including the case. In this case, it is preferable to obtain a hit rate from the same expression as Expression (1) by increasing the weight in the higher rank.

さらに、上記実施の形態において、1位ヒット率を計算する際に画質フラグ422がNGにセットされたフレームを除外する場合について説明したが、例えば画質フラグ422がNGにセットされたフレームの数が1位ヒット率を計算する際に用いられる直近のフレームの数よりも著しく少ない場合(例えば、1位ヒット率を計算する際に用いられる直近のフレームの数が50であるときに画質フラグ422がNGにセットされたフレームの数が3以下である場合)には、1位ヒット率を計算する際に画質フラグ422がNGにセットされたフレームを除外しなくてもよい。   Furthermore, in the above embodiment, the case where the frame in which the image quality flag 422 is set to NG is excluded when calculating the first-rank hit rate has been described. For example, the number of frames in which the image quality flag 422 is set to NG is described. When the number of the most recent frames used in calculating the first hit rate is 50 (for example, when the number of the latest frames used in calculating the first hit rate is 50), In the case where the number of frames set to NG is 3 or less), it is not necessary to exclude the frame in which the image quality flag 422 is set to NG when calculating the first hit rate.

10 顔画像認証装置
100 撮像部
200 出力部
300 画像処理部
310 記憶部
320 照合部
321 顔検出手段
322 顔追跡手段
323 顔照合手段
324 画質判定手段
325 類似度算出手段
326 認証候補人物特定手段
327 検出率算出手段
328 認証閾値決定手段
329 認証判定手段
DESCRIPTION OF SYMBOLS 10 Face image authentication apparatus 100 Imaging part 200 Output part 300 Image processing part 310 Storage part 320 Collation part 321 Face detection means 322 Face tracking means 323 Face collation means 324 Image quality determination means 325 Similarity calculation means 326 Authentication candidate person specification means 327 Detection Rate calculation means 328 Authentication threshold value determination means 329 Authentication determination means

Claims (4)

監視領域内の人物を撮影した監視画像を順次取得する撮像部と、複数の登録人物の顔画像を登録顔画像として予め記憶する記憶部と、前記監視画像を用いて監視領域内の人物が登録人物であるか否かの人物認証を行う照合部を具備する顔画像認証装置であって、
前記照合部は、
前記監視画像から人物の顔を含む領域の画像を顔領域画像として抽出する顔検出手段と、
順次取得する所定枚数の監視画像にて前記顔領域画像を追跡する顔追跡手段と、
前記顔領域画像と前記登録顔画像との類似度を算出する類似度算出手段と、
前記類似度に基づいて前記複数の登録人物から認証候補人物を特定する認証候補人物特定手段と、
前記認証候補人物について、前記所定枚数の監視画像に対して当該認証候補人物と特定された顔領域画像の割合を登録人物検出率として算出する検出率算出手段と、
前記顔領域画像が前記認証候補人物のものであるか否かを認証するための認証閾値を、前記登録人物検出率に応じて前記認証候補人物ごとに決定する認証閾値決定手段と、
前記類似度が前記認証閾値を超えている認証候補人物を前記監視領域内の人物であると認証判定する認証判定手段と、を有することを特徴とした顔画像認証装置。
An imaging unit that sequentially acquires a monitoring image obtained by photographing a person in the monitoring area, a storage unit that stores in advance face images of a plurality of registered persons as registered face images, and a person in the monitoring area is registered using the monitoring image A face image authentication device comprising a verification unit for performing person authentication as to whether or not a person is a person,
The collation unit
Face detection means for extracting an image of an area including a human face from the monitoring image as a face area image;
Face tracking means for tracking the face area image with a predetermined number of monitoring images sequentially acquired;
Similarity calculation means for calculating the similarity between the face area image and the registered face image;
An authentication candidate person specifying means for specifying an authentication candidate person from the plurality of registered persons based on the similarity;
Detection rate calculation means for calculating the ratio of the face area image identified as the authentication candidate person with respect to the predetermined number of monitoring images as the registered person detection rate for the authentication candidate person;
Authentication threshold value determining means for determining an authentication threshold value for authenticating whether or not the face area image belongs to the authentication candidate person for each authentication candidate person according to the registered person detection rate;
An authentication determination unit that determines that an authentication candidate person whose similarity exceeds the authentication threshold is a person in the monitoring area.
前記認証閾値決定手段は、前記登録人物検出率が増加するに従って前記認証閾値を低くする請求項1に記載の顔画像認証装置。   The face image authentication apparatus according to claim 1, wherein the authentication threshold value determination unit lowers the authentication threshold value as the registered person detection rate increases. 前記照合部は、予め定められた最新の複数枚の監視画像を用いて人物認証を行う請求項1又は2に記載の顔画像認証装置。   The face image authentication apparatus according to claim 1, wherein the collation unit performs person authentication using a plurality of predetermined latest monitoring images. 前記照合部は、前記顔領域画像が前記登録人物検出率の計算に適切な画質であるか否かを判定する画質判定手段を更に有し、当該適切な画質と判定された顔領域画像を用いて人物認証を行う請求項1から3のうちのいずれか1項に記載の顔画像認証装置。   The collation unit further includes image quality determination means for determining whether or not the face area image has an image quality appropriate for the calculation of the registered person detection rate, and uses the face area image determined to have the appropriate image quality. The face image authentication device according to claim 1, wherein person authentication is performed.
JP2011245643A 2011-11-09 2011-11-09 Face image authentication device Active JP5766096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011245643A JP5766096B2 (en) 2011-11-09 2011-11-09 Face image authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011245643A JP5766096B2 (en) 2011-11-09 2011-11-09 Face image authentication device

Publications (2)

Publication Number Publication Date
JP2013101551A true JP2013101551A (en) 2013-05-23
JP5766096B2 JP5766096B2 (en) 2015-08-19

Family

ID=48622103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011245643A Active JP5766096B2 (en) 2011-11-09 2011-11-09 Face image authentication device

Country Status (1)

Country Link
JP (1) JP5766096B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200722A (en) * 2018-05-18 2019-11-21 Necソリューションイノベータ株式会社 Face image appropriateness determination device, face image appropriateness determination method, program, and recording medium
US10579864B2 (en) 2017-01-19 2020-03-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
WO2020115890A1 (en) 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
WO2020149001A1 (en) * 2019-01-17 2020-07-23 日本電気株式会社 Information processing device, control method, and program
WO2020195215A1 (en) * 2019-03-25 2020-10-01 日本電気株式会社 Image processing device and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9242710B2 (en) 2012-08-29 2016-01-26 Twin Disc, Inc. Trimmable rudder

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309490A (en) * 2005-04-28 2006-11-09 Fuji Photo Film Co Ltd Biological authentication system
JP2007034872A (en) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd Face authentication device, face authentication system and face authentication method
JP2008146136A (en) * 2006-12-06 2008-06-26 Seiko Epson Corp Image recognition device, image recognition system, image recognition method, and control program
JP2011159030A (en) * 2010-01-29 2011-08-18 Canon Inc Subject authentication apparatus, subject authentication method and program
JP2011215896A (en) * 2010-03-31 2011-10-27 Secom Co Ltd Facial image collation device
JP2013012130A (en) * 2011-06-30 2013-01-17 Canon Inc Image processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309490A (en) * 2005-04-28 2006-11-09 Fuji Photo Film Co Ltd Biological authentication system
JP2007034872A (en) * 2005-07-29 2007-02-08 Matsushita Electric Ind Co Ltd Face authentication device, face authentication system and face authentication method
JP2008146136A (en) * 2006-12-06 2008-06-26 Seiko Epson Corp Image recognition device, image recognition system, image recognition method, and control program
JP2011159030A (en) * 2010-01-29 2011-08-18 Canon Inc Subject authentication apparatus, subject authentication method and program
JP2011215896A (en) * 2010-03-31 2011-10-27 Secom Co Ltd Facial image collation device
JP2013012130A (en) * 2011-06-30 2013-01-17 Canon Inc Image processing apparatus

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10579864B2 (en) 2017-01-19 2020-03-03 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
DE102018101034B4 (en) 2017-01-19 2024-06-20 Canon Kabushiki Kaisha Image processing device and image processing method
JP7168192B2 (en) 2018-05-18 2022-11-09 Necソリューションイノベータ株式会社 Face image adequacy determination device, face image adequacy determination method, program, and recording medium
JP2019200722A (en) * 2018-05-18 2019-11-21 Necソリューションイノベータ株式会社 Face image appropriateness determination device, face image appropriateness determination method, program, and recording medium
WO2020115890A1 (en) 2018-12-07 2020-06-11 日本電気株式会社 Information processing system, information processing device, information processing method, and program
US11847848B2 (en) 2018-12-07 2023-12-19 Nec Corporation Information processing apparatus, information processing method, and program
WO2020149001A1 (en) * 2019-01-17 2020-07-23 日本電気株式会社 Information processing device, control method, and program
JPWO2020149001A1 (en) * 2019-01-17 2021-11-11 日本電気株式会社 Information processing equipment, control methods, and programs
US11812131B2 (en) 2019-01-17 2023-11-07 Nec Corporation Determination of appropriate image suitable for feature extraction of object from among captured images in which object is detected
JP7136234B2 (en) 2019-01-17 2022-09-13 日本電気株式会社 Information processing device, control method, and program
WO2020195215A1 (en) * 2019-03-25 2020-10-01 日本電気株式会社 Image processing device and image processing method
JP7363971B2 (en) 2019-03-25 2023-10-18 日本電気株式会社 Image processing device and image processing method
JP2022130470A (en) * 2019-03-25 2022-09-06 日本電気株式会社 Image processing device and image processing method
JP7092255B2 (en) 2019-03-25 2022-06-28 日本電気株式会社 Image processing device and image processing method
US11985432B2 (en) 2019-03-25 2024-05-14 Nec Corporation Image processing device and image processing method suitably applied to biometric authentication
JPWO2020195215A1 (en) * 2019-03-25 2020-10-01

Also Published As

Publication number Publication date
JP5766096B2 (en) 2015-08-19

Similar Documents

Publication Publication Date Title
JP5010905B2 (en) Face recognition device
JP5766096B2 (en) Face image authentication device
US7574021B2 (en) Iris recognition for a secure facility
JP5955031B2 (en) Face image authentication device
JP5730095B2 (en) Face image authentication device
JP6148064B2 (en) Face recognition system
US8422746B2 (en) Face authentication system and authentication method thereof
JP5127531B2 (en) Image monitoring device
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP2003141541A (en) Individual recognition device and passage control device
JP2007334623A (en) Face authentication device, face authentication method, and access control device
JP2000259814A (en) Image processor and method therefor
KR20110093659A (en) Image recognition apparatus and method
JP5808974B2 (en) Face image authentication device
US11714889B2 (en) Method for authentication or identification of an individual
KR101640014B1 (en) Iris recognition apparatus for detecting false face image
JPH11316836A (en) Person identifying
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
US11837018B1 (en) System and method for access control using a plurality of images
JP6150509B2 (en) Face recognition device
KR101596363B1 (en) Access Control Apparatus and Method by Facial Recognition
WO2020183732A1 (en) Information processing device, information processing system, information processing method, and recording medium
JP5955056B2 (en) Face image authentication device
JP6150491B2 (en) Face recognition device
JP2009032116A (en) Face authentication apparatus, face authentication method, and access management apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150616

R150 Certificate of patent or registration of utility model

Ref document number: 5766096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250