JP2010086263A - Biometrics matching device, face matching device and biometrics matching method - Google Patents

Biometrics matching device, face matching device and biometrics matching method Download PDF

Info

Publication number
JP2010086263A
JP2010086263A JP2008254342A JP2008254342A JP2010086263A JP 2010086263 A JP2010086263 A JP 2010086263A JP 2008254342 A JP2008254342 A JP 2008254342A JP 2008254342 A JP2008254342 A JP 2008254342A JP 2010086263 A JP2010086263 A JP 2010086263A
Authority
JP
Japan
Prior art keywords
information
face
feature
person
biometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008254342A
Other languages
Japanese (ja)
Inventor
Shoichi Tobari
正一 戸張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008254342A priority Critical patent/JP2010086263A/en
Publication of JP2010086263A publication Critical patent/JP2010086263A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a biometrics matching device which registers biometrics information of a lot of registrants without degrading matching speed and matching precision. <P>SOLUTION: The biometrics matching device stores biometrics information of registrants in the dictionary D, associating the biometrics information with feature information other than biometrics information that can be captured at a time of authentication. When biometrics information of an authentication subject is detected, the device extracts feature information from a captured image of the authentication subject other than biometrics information, selects biometrics information associated with the feature information which matches the extracted feature information from the dictionary D, and compares the selected biometrics information with the biometrics information of the subject to be authenticated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、たとえば、顔画像などの各人物に固有な生体情報を用いた生体照合により人物認証を行う生体照合装置、顔照合装置および生体照合方法に関するものである。   The present invention relates to a biometric matching device, a face matching device, and a biometric matching method that perform person authentication by biometric matching using biometric information unique to each person such as a face image.

従来、顔照合装置などの生体照合装置は、各人物の生体情報を用いた照合技術(いわゆる生体照合)による人物認証を行うものである。特に、生体情報としての顔画像は、指紋、静脈パターン、あるいは、虹彩などの生体情報に比べて、各人物の独自性を保ちつつ変化するという特徴が強い。このため、顔照合装置では、統計的な知見から、顔照合の一致度の効率を上げる為に照合対象とする登録者数が制限されることが多い。このような照合対象とする登録者数に制限がある顔照合装置では、所定人数を超える登録者が存在する場合、運用的な解決方法として、登録者が所定数以下となるようなグループに分類しておき、それぞれの顔画像装置が300人以下の登録者数となるように、複数の顔照合装置を設置するという手法がある。複数の顔照合装置を設置するのは、施工面あるいは費用面において現実的に困難であることが多い。   Conventionally, a biometric matching device such as a face matching device performs person authentication by a matching technique (so-called biometric matching) using the biometric information of each person. In particular, a facial image as biometric information has a strong feature that it changes while maintaining the uniqueness of each person as compared to biometric information such as fingerprints, vein patterns, or irises. For this reason, in the face collation apparatus, the number of registrants to be collated is often limited in order to increase the efficiency of the degree of coincidence of face collation based on statistical knowledge. In such a face collation apparatus with a limited number of registrants to be collated, if there are more than a predetermined number of registrants, as an operational solution, categorize the groups so that the number of registrants is less than the predetermined number In addition, there is a method of installing a plurality of face collation devices so that each face image device has a registered number of 300 or less. It is often difficult to install a plurality of face matching devices in terms of construction or cost.

また、照合対象とする登録者数の最大値を増やすための技術的な解決方法としては、顔照合処理の処理ユニットを高度化することも考えられる。たとえば、撮影する顔画像のデータ量および登録する顔画像のデータ量を多くすること、あるいは、顔画像を高解像度化などの高画質化することなども考えらえる。しかしながら、現実的には、処理ユニットを高度化すると、装置が高価なものになったり、処理時間が実用に適さないものとなったりする。すなわち、照合対象とする登録者数の最大値を増やすために、処理ユニットを高度化することは、実用性の観点からして現実的でない。
特開2003−141542号公報
Further, as a technical solution for increasing the maximum number of registrants to be collated, it is conceivable to upgrade the face collation processing unit. For example, it is conceivable to increase the data amount of the face image to be photographed and the data amount of the face image to be registered, or to improve the image quality of the face image such as higher resolution. However, in reality, when the processing unit is advanced, the apparatus becomes expensive and the processing time becomes unsuitable for practical use. That is, it is not practical from the viewpoint of practicality to upgrade the processing unit in order to increase the maximum number of registrants to be verified.
JP 2003-141542 A

この発明の一形態では、照合速度あるいは照合精度を損なうことなく、多数の登録者の生体情報が登録可能な生体照合装置、顔照合装置および生体照合方法を提供することを目的とする。   An object of one aspect of the present invention is to provide a biometric matching device, a face matching device, and a biometric matching method that can register biometric information of a large number of registrants without impairing the matching speed or matching accuracy.

この発明の一形態としての生体照合装置は、生体情報を含む情報を取得する第1の取得手段と、人物をグループ分けするための前記生体情報以外の特徴情報を含む情報を取得する第2の取得手段と、複数の登録者の生体情報を前記第2の取得手段で取得する情報に含まれる前記生体情報以外の特徴情報に対応づけて記憶する記憶手段と、前記第1の取得手段により取得した情報から認証対象者の生体情報を検出する生体情報検出手段と、前記生体情報検出手段により認証対象者の生体情報を検出した場合、前記第2の取得手段により取得した情報から当該認証対象者の生体情報以外の特徴情報を検出する特徴検出手段と、前記特徴検出手段により検出された生体情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込む選出手段と、前記生体情報検出手段により検出した生体情報と前記選出手段により選出された前記記憶手段に記憶されている登録者の生体情報とを照合する生体照合手段とを有する。   A biometric matching device as one aspect of the present invention includes a first acquisition unit that acquires information including biometric information, and a second that acquires information including feature information other than the biometric information for grouping persons. Acquisition means, storage means for storing biometric information of a plurality of registrants in association with feature information other than the biological information included in information acquired by the second acquisition means, and acquisition by the first acquisition means The biometric information detecting means for detecting the biometric information of the person to be authenticated from the information obtained, and when the biometric information of the authentication target person is detected by the biometric information detecting means, the authentication target person from the information acquired by the second acquiring means The feature detection means for detecting feature information other than the biological information, and the registrants stored in the storage means are narrowed down based on the feature information other than the biological information detected by the feature detection means Includes means exits, and a biometric matching means for matching the biometric information of the registered person stored in the elected said memory means by said selecting means and detected biometric information by the biometric information detecting means.

この発明の一形態としての生体照合装置は、生体情報を含む情報を取得する第1の取得手段と、人物をグループ分けするための前記生体情報以外の特徴情報を含む情報を取得する第2の取得手段と、複数の登録者の生体情報を前記第2の取得手段で取得する情報に含まれる前記生体情報以外の特徴情報に対応づけて記憶する記憶手段と、前記第1の取得手段により取得した情報から認証対象者の生体情報を検出する生体情報検出手段と、前記生体情報検出手段により検出した認証対象者の生体情報と前記記憶手段に記憶されている登録者の生体情報とを照合する生体照合手段と、前記生体照合手段により前記認証対象者の生体情報と同一人物であると判定される登録者の生体情報が複数存在した場合、前記第2の取得手段により取得した情報から当該認証対象者の生体情報以外の特徴情報を検出する特徴検出手段と、前記特徴検出手段により検出された前記認証対象者の生体情報以外の特徴情報と前記認証対象者と同一人物であると判定された登録者の前記生体情報以外の特徴情報とを比較することにより生体照合処理の結果を判定する判定手段とを有する。   A biometric matching device as one aspect of the present invention includes a first acquisition unit that acquires information including biometric information, and a second that acquires information including feature information other than the biometric information for grouping persons. Acquisition means, storage means for storing biometric information of a plurality of registrants in association with feature information other than the biological information included in information acquired by the second acquisition means, and acquisition by the first acquisition means The biometric information detecting means for detecting the biometric information of the person to be authenticated from the obtained information, the biometric information of the authentication target detected by the biometric information detecting means and the biometric information of the registrant stored in the storage means are collated. When there are a plurality of biometric information of the registrant who is determined to be the same person as the biometric information of the person to be authenticated by the biometric verification means and the biometric verification means, the information acquired by the second acquisition means A feature detection unit that detects feature information other than the biometric information of the authentication target person, and feature information other than the biometric information of the authentication target person detected by the feature detection unit and the same person as the authentication target person And determining means for determining the result of the biometric matching process by comparing the determined registrant with feature information other than the biometric information.

この発明の一形態としての顔照合装置は、顔画像情報を含む画像を取得する第1の取得手段と、人物をグループ分けするための前記顔画像情報以外の特徴情報を含む画像を取得する第2の取得手段と、複数の登録者の顔画像情報を前記第2の取得手段で取得する画像に含まれる前記顔画像情報以外の特徴情報に対応づけて記憶する記憶手段と、前記第1の取得手段により取得した画像から認証対象者の顔画像情報を検出する顔検出手段と、前記顔検出手段により認証対象者の顔画像情報を検出した場合、前記第2の取得手段により取得した画像から当該認証対象者の顔画像情報以外の特徴情報を検出する特徴検出手段と、前記特徴検出手段により検出された顔画像情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込む選出手段と、前記顔検出手段により検出した顔画像情報と前記選出手段により選出された前記記憶手段に記憶されている登録者の顔画像情報とを照合する顔照合手段とを有する。   According to another aspect of the present invention, there is provided a face collation apparatus that obtains an image including feature information other than the face image information for grouping persons, and a first acquisition unit that acquires an image including face image information. Two acquisition means, storage means for storing face image information of a plurality of registrants in association with feature information other than the face image information included in an image acquired by the second acquisition means, and the first A face detecting unit for detecting face image information of the person to be authenticated from the image acquired by the acquiring unit; and when the face image information of the person to be authenticated is detected by the face detecting unit, from the image acquired by the second acquiring unit A feature detection unit that detects feature information other than the face image information of the authentication target person, and a registrant stored in the storage unit based on the feature information other than the face image information detected by the feature detection unit Included It has a selecting means, and a face recognition unit that collates the registrant's face image information stored in the elected said memory means by said selecting means and detected face image information by the face detection means.

この発明の生体照合方法は、複数の登録者の生体情報を各登録者をグループ分けするための前記生体情報以外の特徴情報に対応づけて記憶手段に記憶しておき、生体情報を含む第1の情報を取得し、この取得した第1の情報から生体情報を検出し、この検出により認証対象者の生体情報を検出した場合、前記認証対象者の前記生体情報以外の特徴情報を含む第2の情報を取得し、この取得した第2の情報から認証対象者の生体情報以外の特徴情報を検出し、この検出により検出された生体情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込み、前記認証対象者の生体情報と前記絞り込んだ前記記憶手段に記憶されている登録者の生体情報とを照合する。   In the biometric matching method of the present invention, biometric information of a plurality of registrants is stored in a storage means in association with feature information other than the biometric information for grouping each registrant, and first information including biometric information is included. When the biometric information is detected from the acquired first information, and the biometric information of the person to be authenticated is detected by this detection, the second information including the characteristic information other than the biometric information of the authentication target person is obtained. And the feature information other than the biometric information of the person to be authenticated is detected from the obtained second information, and stored in the storage means based on the feature information other than the biometric information detected by the detection. The registered registrant is narrowed down, and the authentication subject's biometric information is collated with the registrant's biometric information stored in the narrowed-down storage means.

この発明の一形態によれば、照合速度あるいは照合精度を損なうことなく、多数の登録者の生体情報が登録可能な生体照合装置、顔照合装置および生体照合方法を提供できる。   According to one aspect of the present invention, it is possible to provide a biometric matching device, a face matching device, and a biometric matching method that can register biometric information of a large number of registrants without impairing the matching speed or matching accuracy.

以下、本発明を実施するための最良の形態について図面を参照して説明する。
以下に説明する実施の形態は、人物の生体情報の照合(生体照合)による個人認証を行う生体照合装置に適用できるものである。特に、本実施の形態は、後述するように、生体照合に用いる生体情報と、その生体情報以外の特徴情報とを取得できる生体照合装置に適用することができる。ただし、以下の説明では、実施の形態として、生体情報としての人物の顔画像(顔の動画像から得られる顔特徴情報)の照合(顔照合)により個人認証あるいは通行制御を行う顔照合装置について説明する。すなわち、後述する実施の形態において、顔画像、顔照合あるいは顔照合装置などは、生体情報、生体照合あるいは生体照合装置などに置き換えて実現することが可能なものである。
The best mode for carrying out the present invention will be described below with reference to the drawings.
The embodiment described below can be applied to a biometric matching apparatus that performs personal authentication by matching biometric information of a person (biometric matching). In particular, as will be described later, the present embodiment can be applied to a biometric matching apparatus that can acquire biometric information used for biometric matching and feature information other than the biometric information. However, in the following description, as an embodiment, a face matching device that performs personal authentication or traffic control by matching (face matching) of a human face image (face feature information obtained from a moving image of a face) as biometric information. explain. That is, in the embodiments described later, the face image, face collation or face collation device can be realized by replacing it with biometric information, biometric collation or biometric collation device or the like.

図1(a)及び(b)は、この発明の実施の形態に係る生体照合装置としての顔照合装置1の外観構成の例を示す図である。図1(a)は、顔照合装置1の外観構成例を示す正面図である。図1(b)は、図1(a)に示す顔照合装置1の外観構成例を示す側面図である。
図1(a)に示すように、顔照合装置1の正面には、ユーザインターフェースとしての各種のユニットが設けられている。図1(a)に示す例では、顔照合装置1の正面には、第1カメラ11、第2カメラ12、表示部13、操作部14、音声部15などを有している。
1A and 1B are diagrams showing an example of an external configuration of a face matching device 1 as a biometric matching device according to an embodiment of the present invention. FIG. 1A is a front view showing an external configuration example of the face matching device 1. FIG.1 (b) is a side view which shows the external appearance structural example of the face collation apparatus 1 shown to Fig.1 (a).
As shown in FIG. 1A, various units as a user interface are provided on the front of the face matching device 1. In the example shown in FIG. 1A, the front of the face matching device 1 includes a first camera 11, a second camera 12, a display unit 13, an operation unit 14, an audio unit 15, and the like.

上記第1カメラ11は、デジタルビデオカメラなどにより構成される。この第1カメラ11は、設置位置に応じた特定の領域(撮影範囲)の画像を撮影するものである。上記第1カメラ11は、顔画像による照合処理時あるいは顔画像の登録時には上記撮影範囲内に存在する少なくとも人物の顔を含む画像を撮影するようになっている。上記第1カメラ11は、たとえば、動画像として人物の顔画像を撮影するようになっている。上記第1カメラ11は、常時、画像を撮影しているようにしても良いし、人物検知などの特定の制御信号に応じて画像の撮影を行うようにしても良い。なお、上記第1カメラ11は、カラーであっても、モノクロであっても良い。   The first camera 11 is constituted by a digital video camera or the like. The first camera 11 captures an image of a specific area (imaging range) according to the installation position. The first camera 11 shoots an image including at least a person's face existing in the shooting range at the time of collation processing using a face image or registration of a face image. For example, the first camera 11 captures a human face image as a moving image. The first camera 11 may always take an image, or may take an image in accordance with a specific control signal such as person detection. The first camera 11 may be color or monochrome.

上記第2カメラ12は、上記第1カメラ11とほぼ同様な撮影範囲を有する。上記第2カメラ12は、上記第1カメラ11が撮影している人物を撮影するカメラである。上記第2カメラ12は、人物の顔以外の特徴を含む画像(顔画像も含んでいても良い)を撮影する。たとえば、上記第2カメラ12は、服装(制服、作業着等)、帽子、名札あるいは腕章などの各人物が常に身につけている物などを顔以外の特徴として撮影する。第2カメラ12が撮影する顔以外の特徴は、各人物を一意に特定するものである必要はなく、照合処理の対象者が所定人数以下となるように、全登録者をグループ分けするものであれば良い。上記第2カメラ12は、動画像を撮影するものであっても良いが、本実施の形態では、静止画像を撮影するものとして説明する。   The second camera 12 has a shooting range substantially similar to that of the first camera 11. The second camera 12 is a camera that photographs a person photographed by the first camera 11. The second camera 12 captures an image including a feature other than a human face (which may include a face image). For example, the second camera 12 shoots an item worn by each person such as clothes (uniforms, work clothes, etc.), a hat, a name tag, or an armband as features other than the face. The features other than the face photographed by the second camera 12 do not need to uniquely identify each person, but group all registrants so that the number of persons to be collated is a predetermined number or less. I just need it. The second camera 12 may capture a moving image, but in the present embodiment, the second camera 12 will be described as capturing a still image.

なお、第1カメラ11と第2カメラ12とは、同時あるいはほぼ同時に1人の人物が撮影できるように設置される。特に、第1カメラ11で顔を撮影されている人物と第2カメラ12で撮影される人物とが入れ替わることができないように、第1カメラ11と第2カメラ12とは配置される。これは、第1カメラ11で顔を撮影されている人物と第2カメラ12で撮影される人物との同一者性を確立するための構成である。すなわち、第1カメラ11と第2カメラ12とは、第1カメラ11で撮影される人物と第2カメラ12で撮影される人物とが同一人物であることが確定できる形態であれば良い。   The first camera 11 and the second camera 12 are installed so that one person can shoot at the same time or almost the same time. In particular, the first camera 11 and the second camera 12 are arranged so that the person whose face is photographed by the first camera 11 and the person who is photographed by the second camera 12 cannot be interchanged. This is a configuration for establishing the same identity between the person whose face is photographed by the first camera 11 and the person whose face is photographed by the second camera 12. That is, the first camera 11 and the second camera 12 may have any form that can determine that the person photographed by the first camera 11 and the person photographed by the second camera 12 are the same person.

上記表示部13は、たとえば、液晶表示装置などで構成される。上記表示部13は、上記第1カメラ11にて撮影中の顔画像、案内表示、あるいは、顔照合の結果などを表示するものである。上記操作部14は、テンキーあるいはファンクションキーなどのハードキー群により構成される。上記操作部14は、たとえば、個人識別情報としてのID番号あるいはパスワードなどをユーザが入力するものである。上記音声部15は、音声案内などの音声を出力するスピーカおよびユーザが発声する音声を入力するマイクなどにより構成される。   The display unit 13 is composed of, for example, a liquid crystal display device. The display unit 13 displays a face image being photographed by the first camera 11, a guidance display, a result of face matching, or the like. The operation unit 14 includes a group of hard keys such as numeric keys or function keys. The operation unit 14 is for the user to input an ID number or a password as personal identification information, for example. The voice unit 15 includes a speaker that outputs voice such as voice guidance and a microphone that inputs voice uttered by the user.

また、図1(b)に示すように、顔照合装置1の側面あるいは背面には、インターフェース部16が設けられている。上記インターフェース部16は、各種のインターフェースにより構成される。たとえば、上記インターフェース部16は、ネットワークインターフェースあるいは後述する通行制御システムに通行制御信号を出力するためのインターフェースなどが設けられる。   Further, as shown in FIG. 1B, an interface unit 16 is provided on the side surface or the back surface of the face matching device 1. The interface unit 16 includes various interfaces. For example, the interface unit 16 is provided with a network interface or an interface for outputting a traffic control signal to a traffic control system described later.

また、上記顔照合装置1は、制御ユニットおよび記憶装置などを内蔵している。上記制御ユニットは、上記各部11〜16と接続される。たとえば、上記制御ユニットは、上記インターフェース部16を介して各種の外部装置に接続される。上記制御ユニットは、上記各部を制御したり、後述する各種の処理を行ったりする機能を有している。たとえば、上記制御ユニットは、CPUおよび各種メモリにより構成され、CPUがメモリに記憶されている制御プログラムを実行することにより種々の機能を実現している。
また、上記顔照合装置1には、顔照合処理が成功した場合に、接点が短絡される接続端子17を設けるようにしても良い。この接続端子17は、たとえば、本顔照合装置1の顔照合処理の結果と連動して何かの動作を行わせる機器があるときに使用されるようにすれば良い。
The face matching device 1 includes a control unit and a storage device. The control unit is connected to the units 11-16. For example, the control unit is connected to various external devices via the interface unit 16. The control unit has a function of controlling each part and performing various processes described later. For example, the control unit includes a CPU and various memories, and the CPU realizes various functions by executing a control program stored in the memory.
Further, the face matching device 1 may be provided with a connection terminal 17 whose contact is short-circuited when the face matching process is successful. For example, the connection terminal 17 may be used when there is a device that performs some operation in conjunction with the result of the face matching process of the face matching device 1.

次に、上記顔照合装置1を含む顔照合システム(通行制御システム)の構成について説明する。
図2は、上記顔照合装置1を含む顔照合システム(通行制御システム)の構成例を概略的に示す図である。
図2に示すように、顔照合システムは、顔照合装置1、ネットワーク2、および、通行制御装置3などにより構成される。上記顔照合装置1は、上述したように、内蔵されている制御ユニットにより各部が制御される。上記顔照合装置1の制御ユニットは、各種のインターフェースにより、ネットワーク2、および、通行制御装置3にそれぞれ接続されている。
Next, the configuration of a face matching system (traffic control system) including the face matching device 1 will be described.
FIG. 2 is a diagram schematically showing a configuration example of a face matching system (traffic control system) including the face matching device 1.
As shown in FIG. 2, the face matching system includes a face matching device 1, a network 2, a traffic control device 3, and the like. As described above, each part of the face matching device 1 is controlled by a built-in control unit. The control unit of the face matching device 1 is connected to the network 2 and the traffic control device 3 through various interfaces.

上記ネットワーク2には、監視及び管理用のPC(監視端末)2Aおよびデータを保持するためのデータサーバ2Bなどが接続されている。すなわち、上記顔照合装置1は、上記ネットワーク2を介して、上記監視端末2Aあるいは上記データサーバ2Bと通信可能となっている。
上記通行制御装置3は、上記顔照合装置1による顔照合の結果に応じて人物の通行を制御するものである。図2に示す例では、上記通行制御装置3は、電気錠制御盤3Aにより制御される電気錠3Bが設置されたドアなどにより構成される。また、上記通行制御装置3がドアに設置された電気錠3Bで構成される場合、上記制御ユニット21は、電気錠3Bを制御する電気錠制御盤3Aに接続される。なお、上記通行制御装置3は、自動ドアなどにより構成されるようにしても良い。上記通行制御装置3が自動ドアで構成される場合、上記顔照合装置1の制御ユニットは、インターフェースを介して自動ドアの開閉を行うドア開閉機構(図示しない)に接続される。
Connected to the network 2 are a monitoring and management PC (monitoring terminal) 2A and a data server 2B for holding data. That is, the face matching device 1 can communicate with the monitoring terminal 2A or the data server 2B via the network 2.
The traffic control device 3 controls the traffic of a person according to the result of face matching by the face matching device 1. In the example shown in FIG. 2, the traffic control device 3 is configured by a door or the like provided with an electric lock 3 </ b> B controlled by an electric lock control panel 3 </ b> A. Moreover, when the said traffic control apparatus 3 is comprised with the electric lock 3B installed in the door, the said control unit 21 is connected to 3 A of electric lock control panels which control the electric lock 3B. The traffic control device 3 may be configured by an automatic door or the like. When the traffic control device 3 is composed of an automatic door, the control unit of the face matching device 1 is connected to a door opening / closing mechanism (not shown) that opens and closes the automatic door via an interface.

次に、上記顔照合装置1の制御系統の構成について説明する。
図3は、上記顔照合装置1の制御系統(制御ユニット)の構成例を概略的に示すブロック図である。
図3に示すように、上記顔照合装置1は、上述した構成に加えて、制御ユニット21、記憶装置としてのハードディスクドライブ(HDD)22、および、電源部23などが内蔵されている。
上記制御ユニット21は、CPU30、ROM(Read Only Memory)31、RAM(Random Access Memory)32、不揮発性メモリ33、第1画像入力部34、第2画像入力部35、表示制御部36、音声制御部37、および、キー入力制御部38、通信制御部39、および、出力制御部40など有している。上記制御ユニット21は、たとえば、基板上に各部が搭載された処理ボートとして構成される。
Next, the configuration of the control system of the face matching device 1 will be described.
FIG. 3 is a block diagram schematically showing a configuration example of a control system (control unit) of the face collation apparatus 1.
As shown in FIG. 3, the face matching device 1 includes a control unit 21, a hard disk drive (HDD) 22 as a storage device, a power supply unit 23, and the like in addition to the above-described configuration.
The control unit 21 includes a CPU 30, a ROM (Read Only Memory) 31, a RAM (Random Access Memory) 32, a non-volatile memory 33, a first image input unit 34, a second image input unit 35, a display control unit 36, and an audio control. Unit 37, key input control unit 38, communication control unit 39, output control unit 40, and the like. The control unit 21 is configured as, for example, a processing boat in which each part is mounted on a substrate.

上記CPU30は、上記制御ユニット21全体の制御を司るものである。上記ROM31は、不揮発性のメモリである。上記ROM31は、制御プログラムあるいは制御データなどが記憶されるプログラムメモリとして機能する。上記RAM32は、揮発性のメモリである。上記RAM32は、作業用のデータなどを一時的に保存するワーキングメモリとして機能する。上記不揮発性メモリは、EEPROMあるいはフラッシュROMなどの書換え可能な不揮発性のメモリである。上記不揮発性メモリは、アプリケーションプログラムあるいはシステムの設定情報などを記憶する書換え可能な不揮発性メモリとして機能する。上記CPU30は、ROM31、不揮発性メモリ33あるいはHDD22に記憶された制御プログラムを実行することにより、種々の処理機能を実現している。上記CPU30により実現される処理機能について後で詳細に説明する。   The CPU 30 controls the entire control unit 21. The ROM 31 is a nonvolatile memory. The ROM 31 functions as a program memory that stores control programs or control data. The RAM 32 is a volatile memory. The RAM 32 functions as a working memory that temporarily stores work data and the like. The nonvolatile memory is a rewritable nonvolatile memory such as an EEPROM or a flash ROM. The nonvolatile memory functions as a rewritable nonvolatile memory that stores application programs or system setting information. The CPU 30 realizes various processing functions by executing control programs stored in the ROM 31, the nonvolatile memory 33, or the HDD 22. The processing functions realized by the CPU 30 will be described in detail later.

上記第1画像入力部34は、上記第1カメラ11が撮影した画像を入力するインターフェースである。本実施の形態では、第1カメラ11は、人物の顔画像などを動画像として撮影することを想定している。このため、上記第1画像入力部34は、動画像を入力可能な画像インターフェースで構成される。上記第2画像入力部35は、上記第2カメラ12が撮影した画像を入力するインターフェースである。本実施の形態では、上記第2カメラ12は静止画像を撮影することを想定している。このため、上記第2画像入力部35は、静止画像を入力する画像インターフェースで構成される。   The first image input unit 34 is an interface for inputting an image taken by the first camera 11. In the present embodiment, it is assumed that the first camera 11 captures a human face image or the like as a moving image. Therefore, the first image input unit 34 is composed of an image interface capable of inputting a moving image. The second image input unit 35 is an interface for inputting an image taken by the second camera 12. In the present embodiment, it is assumed that the second camera 12 captures a still image. Therefore, the second image input unit 35 is composed of an image interface for inputting a still image.

上記表示制御部36は、上記表示部13に接続される。上記表示制御部36は、上記表示部13の表示内容を制御するものである。上記音声制御部37は、上記音声部15に接続される。上記音声制御部37は、上記音声部15としてのスピーカで発生させる音声を制御する。また、上記音声制御部37は、上記音声部15としてのマイクにより音声を入力する制御を行う。上記キー入力制御部38は、上記操作部14に接続される。上記キー入力制御部38は、上記操作部14としての各キーにより入力された情報を制御ユニット21内に取り込むインターフェースである。   The display control unit 36 is connected to the display unit 13. The display control unit 36 controls the display content of the display unit 13. The voice control unit 37 is connected to the voice unit 15. The sound control unit 37 controls sound generated by a speaker as the sound unit 15. In addition, the voice control unit 37 performs control to input voice with a microphone as the voice unit 15. The key input control unit 38 is connected to the operation unit 14. The key input control unit 38 is an interface that takes in information input by each key as the operation unit 14 into the control unit 21.

上記通信制御部39は、インターフェース部16に設けられたネットワーク通信用のコネクタに接続される。上記通信制御部39は、ネットワーク2を介したデータ通信を制御するものである。上記出力制御部40は、インターフェース部16に設けられた認証結果の出力用のコネクタに接続される。上記出力制御部40は、顔照合の結果に基づく制御信号を出力するものである。図2に示すようなシステムにおいて、上記出力制御部40は、インターフェース部16を介して通行制御装置3としての電気錠制御盤3Aと接続される。つまり、上記出力制御部40は、顔照合が成功した場合、結果に基づく制御信号を出力するものである。   The communication control unit 39 is connected to a network communication connector provided in the interface unit 16. The communication control unit 39 controls data communication via the network 2. The output control unit 40 is connected to an authentication result output connector provided in the interface unit 16. The output control unit 40 outputs a control signal based on the result of face matching. In the system as shown in FIG. 2, the output control unit 40 is connected to an electric lock control panel 3 </ b> A as the traffic control device 3 through the interface unit 16. That is, the output control unit 40 outputs a control signal based on the result when face matching is successful.

上記ハードディスクドライブ(HDD)22は、種々のデータが記憶される装置である。上記HDD22は、各登録者に対する辞書データからなる辞書Dを有している。辞書Dには、各登録者の辞書データとして、登録者の顔画像、顔の特徴量、顔特徴情報以外の特徴(静止画の特徴)情報、個人識別情報、および、バスワードなどが対応づけて記憶されている。また、上記辞書Dは、後述するように、静止画の特徴情報に基づいてグループ化された状態でHDD22に記憶される。上記電源部23は、制御ユニット21およびHDD22などの各部に電源を供給するものである。   The hard disk drive (HDD) 22 is a device that stores various data. The HDD 22 has a dictionary D composed of dictionary data for each registrant. The dictionary D is associated with each registrant's dictionary data such as the registrant's face image, facial feature amount, feature information other than facial feature information (still image feature) information, personal identification information, and a password. Is remembered. Further, as will be described later, the dictionary D is stored in the HDD 22 in a grouped state based on still image feature information. The power supply unit 23 supplies power to each unit such as the control unit 21 and the HDD 22.

次に、上記顔照合装置1における顔照合処理機能の構成について説明する。
図4は、顔照合装置1における顔照合処理機能の構成例を示すブロック図である。
上記したように、上記顔照合装置1は、CPU30が種々の制御プログラムを実行することにより、種々の処理機能を実現している。顔照合処理も、上記CPU30が顔照合用のプログラムを実行することにより実現される。図4は、顔照合処理を行うための各種の機能を示すブロック図である。このため、図4に示す各部も、上記CPU30がプログラムを実行することにより実現される機能である。
Next, the configuration of the face matching processing function in the face matching device 1 will be described.
FIG. 4 is a block diagram illustrating a configuration example of the face matching processing function in the face matching device 1.
As described above, the face collation apparatus 1 realizes various processing functions by the CPU 30 executing various control programs. The face matching process is also realized by the CPU 30 executing a face matching program. FIG. 4 is a block diagram illustrating various functions for performing face matching processing. For this reason, each part shown in FIG. 4 is also a function implement | achieved when the said CPU30 runs a program.

図4に示すように、本顔照合装置1における顔照合処理機能は、第1画像取得部(動画取得部)51、顔検出部52、顔特徴抽出部53、顔照合部54、第2画像取得部(静止画取得部)55、特徴検出部56、および、辞書選出部57などにより構成される。
上記第1画像取得部51は、第1カメラ11により撮影された画像を取得するインターフェースである。本実施の形態において、第1カメラ11は、所定間隔で連続する複数フレームの画像からなる動画像を撮影するものを想定している。この場合、上記第1画像取得部51は、動画像を取得する画像入力インターフェースにより構成される。すなわち、上記第1画像取得部51は、第1カメラ11で撮影された人物(被撮影者)の顔を含む画像データを動画像として取得するものである。上記第1画像取得部51は、第1カメラ11で撮影した動画像を顔検出部52へ出力するようになっている。
As shown in FIG. 4, the face collation processing function in the face collation apparatus 1 includes a first image acquisition unit (moving image acquisition unit) 51, a face detection unit 52, a face feature extraction unit 53, a face collation unit 54, and a second image. An acquisition unit (still image acquisition unit) 55, a feature detection unit 56, a dictionary selection unit 57, and the like are included.
The first image acquisition unit 51 is an interface for acquiring an image photographed by the first camera 11. In the present embodiment, it is assumed that the first camera 11 captures a moving image composed of a plurality of frames of images that are continuous at a predetermined interval. In this case, the first image acquisition unit 51 includes an image input interface that acquires a moving image. That is, the first image acquisition unit 51 acquires image data including the face of a person (photographed person) photographed by the first camera 11 as a moving image. The first image acquisition unit 51 outputs a moving image captured by the first camera 11 to the face detection unit 52.

上記顔検出部52は、上記第1画像取得部51により取得した動画像として各フレームの画像から人物の顔が存在する候補領域(顔領域)を検出する処理を行う。上記顔検出部52は、検出した顔領域を示す情報を顔特徴抽出部53へ出力するようになっている。また、上記顔検出部52は、人物の顔が検出された場合、人物の顔が検出されたことを示す情報を上記第2画像取得部55あるいは第2カメラ12へ通知するようになっている。
なお、上記顔検出部52では、供給される画像から顔領域を検出する手法として種々の手法が適用可能である。たとえば、上記顔検出部52は、事前に顔の学習パターンから作成しておいた検出用の辞書パターンと高い類似度を持つパターンを入力画像から顔領域として探す手法が適用可能である。
The face detection unit 52 performs a process of detecting a candidate area (face area) where a human face is present from an image of each frame as a moving image acquired by the first image acquisition unit 51. The face detection unit 52 outputs information indicating the detected face area to the face feature extraction unit 53. Further, when a human face is detected, the face detection unit 52 notifies the second image acquisition unit 55 or the second camera 12 of information indicating that a human face has been detected. .
In the face detection unit 52, various methods can be applied as a method for detecting a face region from the supplied image. For example, the face detection unit 52 can apply a method of searching a pattern having a high similarity with a dictionary pattern for detection created from a face learning pattern in advance as a face area from an input image.

上記顔特徴抽出部53は、上記顔検出部52により検出された顔領域の画像から顔の特徴情報を抽出するものである。すなわち、上記顔特徴抽出部53は、第1カメラ11が撮影した人物の顔画像から顔の特徴情報を抽出する。例えば、上記顔特徴抽出部53は、各フレームの顔画像に対して、顔の特徴点を基準に、一定の大きさ、形状に切り出し、その濃淡情報を各フレームにおける特徴量(顔特徴情報)する。上記顔特徴抽出部53は、各フレームの顔画像から算出した顔特徴情報(各フレームの特徴量)を蓄積し、それらの集合から当該人物(被撮影者)の顔特徴情報を算出する。   The face feature extraction unit 53 extracts face feature information from the face area image detected by the face detection unit 52. That is, the face feature extraction unit 53 extracts face feature information from the face image of the person photographed by the first camera 11. For example, the face feature extraction unit 53 cuts out the face image of each frame into a certain size and shape with reference to the face feature points, and uses the shade information as a feature amount (face feature information) in each frame. To do. The face feature extraction unit 53 accumulates face feature information (feature amount of each frame) calculated from the face image of each frame, and calculates face feature information of the person (photographed person) from the set.

ここでは、各フレームから切り出されるmピクセル×nピクセルの画像領域における濃淡値をそのまま特徴量として用いる。この濃淡値は、m×n次元の情報である。m×n次元の情報からなる濃淡値を各フレームの特徴ベクトルとするものとする。すると、各フレームの顔画像からは、複数の特徴ベクトルが得られる。本実施の形態では、これらの特徴ベクトルから得られる部分空間を当該人物の顔特徴情報とする。上記部分空間は、各フレームから得られる特徴ベクトルの相関行列(または共分散行列)を求め、K−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、計算される。ここで、部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現するものとする。   Here, the gray value in an image area of m pixels × n pixels cut out from each frame is used as a feature amount as it is. This gray value is m × n-dimensional information. It is assumed that a gray value composed of m × n-dimensional information is a feature vector of each frame. Then, a plurality of feature vectors are obtained from the face image of each frame. In the present embodiment, a partial space obtained from these feature vectors is used as facial feature information of the person. The subspace is calculated by obtaining a correlation matrix (or covariance matrix) of feature vectors obtained from each frame and obtaining an orthonormal vector (eigenvector) by KL expansion. Here, in the subspace, k eigenvectors corresponding to eigenvalues are selected in descending order of eigenvalues and expressed using the eigenvector set.

上記顔特徴抽出部53では、相関行列Cdを特徴ベクトルから求め、相関行列Cd=ΦdΛdΦdTと対角化して、固有ベクトルの行列Φを求めるものとする。この部分空間は、顔画像の照合を行うための顔特徴情報として利用される。なお、登録者の顔特徴情報は、あらかじめ登録者から取得し、それを辞書として登録しておけば良い。また、識別を行うための顔特徴情報として部分空間自身を利用してもよい。   The face feature extraction unit 53 obtains the correlation matrix Cd from the feature vector and diagonalizes it with the correlation matrix Cd = ΦdΛdΦdT to obtain the eigenvector matrix Φ. This partial space is used as face feature information for collating face images. The registrant's facial feature information may be acquired from the registrant in advance and registered as a dictionary. Further, the partial space itself may be used as face feature information for identification.

上記顔照合部54は、被撮影者の顔画像と辞書Dに登録されている登録者の顔画像との照合処理を行うものである。ここでは、顔照合部54は、上記顔特徴抽出部53により抽出した被撮影者の顔特徴情報(部分空間)と辞書Dに登録されている登録者の顔特徴情報との類似度を算出する。さらに、上記顔照合部54は、算出した類似度が所定の閾値以上であるか否かにより被撮影者と登録者とが同一人物であるか否かを判定する。ただし、上記顔照合部54は、辞書Dに登録されている辞書データのうち後述する辞書選出部57により絞り込まれた登録者の辞書データと被撮影者の顔特徴情報(部分空間)との顔照合処理を行うようになっている。   The face collation unit 54 performs collation processing between the face image of the photographed person and the face image of the registrant registered in the dictionary D. Here, the face collation unit 54 calculates the similarity between the face feature information (partial space) of the photographed person extracted by the face feature extraction unit 53 and the registrant face feature information registered in the dictionary D. . Further, the face collation unit 54 determines whether the subject and the registrant are the same person based on whether the calculated similarity is equal to or greater than a predetermined threshold. However, the face collation unit 54 includes the face of the registrant's dictionary data narrowed down by a dictionary selection unit 57 (to be described later) among the dictionary data registered in the dictionary D and the face feature information (subspace) of the subject. A verification process is performed.

なお、上記顔照合部54における顔照合処理には、種々の手法を適用可能である。たとえば、上記顔照合部54における顔照合処理には、相互部分空間法が用いられる。相互部分空間法では、辞書Dに登録されている登録者の顔特徴情報としての部分空間(辞書部分空間)と、認識対象者としての被撮影者の顔特徴情報としての部分空間(入力部分空間)との類似度を計算する。   Various methods can be applied to the face matching process in the face matching unit 54. For example, the mutual subspace method is used for the face matching process in the face matching unit 54. In the mutual subspace method, a partial space (dictionary subspace) as registrant face feature information registered in the dictionary D and a subspace (input subspace) as face feature information of a subject as a recognition target person ) Is calculated.

また、上記第2画像取得部55は、第2カメラ12により撮影された画像を取得するインターフェースである。本実施の形態において、第2カメラ12は、上記顔検出部52が人物の顔を検出した場合に、当該人物の静止画を撮影するものを想定している。従って、上記第2画像取得部55は、上記顔検出部52が人物の顔を検出した場合に、第2カメラ12が撮影した静止画像を取得する画像入力インターフェース(静止画取得部)により構成される。すなわち、上記第2画像取得部55は、第1カメラ11で顔が撮影されている人物(被撮影者)を第2カメラ12で撮影した静止画像を取得するものである。上記第2画像取得部55は、第2カメラ12で撮影した静止画像を特徴検出部56へ出力するようになっている。   The second image acquisition unit 55 is an interface for acquiring an image taken by the second camera 12. In the present embodiment, it is assumed that the second camera 12 captures a still image of the person when the face detection unit 52 detects the face of the person. Accordingly, the second image acquisition unit 55 includes an image input interface (still image acquisition unit) that acquires a still image captured by the second camera 12 when the face detection unit 52 detects a human face. The That is, the second image acquisition unit 55 acquires a still image in which a person (photographed person) whose face is captured by the first camera 11 is captured by the second camera 12. The second image acquisition unit 55 outputs a still image captured by the second camera 12 to the feature detection unit 56.

上記特徴検出部56は、上記第2画像取得部55により取得した静止画像から人物の顔特徴情報以外の特徴(静止画像の特徴)情報を検出する処理を行う。静止画像の特徴情報は、登録者を区分するための情報である。静止画像の特徴情報は、静止画像から検出可能な情報であり、上記顔特徴抽出部53により抽出される顔特徴情報とは異なる情報であり、かつ、常に一定の情報(登録時と同じ情報)となるものである。また、静止画像の特徴情報としては、所定人数以下であれば、複数の登録者が同じ情報となっても良い。つまり、静止画像の特徴情報は、全登録者が所定数以下のグループに分類できる程度の情報であれば良い。   The feature detection unit 56 performs processing for detecting feature (feature image feature) information other than human face feature information from the still image acquired by the second image acquisition unit 55. The feature information of the still image is information for classifying the registrant. The feature information of the still image is information that can be detected from the still image, is different from the face feature information extracted by the face feature extraction unit 53, and is always constant information (the same information as at the time of registration). It will be. Further, as the feature information of the still image, a plurality of registrants may be the same information as long as it is equal to or less than a predetermined number of people. That is, the feature information of the still image may be information that can be classified into a group of a predetermined number or less by all registered users.

たとえば、静止画像の特徴情報としては、名札の記載内容(名札に記載されている「部署」、「役職」あるいは「所在場所(フロア)」等)、名札自体の特徴(名札の色、形あるいは大きさ等)、名札に付属する物の特徴(名札に付けられているストラップの色、形あるいは長さ等)、腕章、襟章、帽子の種類(帽子に付与されている線の太さ、線の色あるいは線の数)、勲章、徽章、服(作業着)に付与されているロゴなどが想定される。たとえば、名札から検出される「部署」を静止画像の特徴情報とする場合、上記特徴検出部56は、第2画像取得部55により取得した静止画像から名札の画像領域を検出し、その名札の画像から「部署」を認識する処理を行う。   For example, the feature information of a still image includes the description content of the name tag (such as “department”, “title” or “location (floor)”) described in the name tag, and the characteristics of the name tag itself (name tag color, shape or Size, etc.), features of the items attached to the name tag (color, shape or length of the strap attached to the name tag), armband, collar emblem, type of hat (thickness of line attached to the hat, line) Color or number of lines), medals, emblems, logos attached to clothes (work clothes), and the like. For example, when the “department” detected from the name tag is used as the feature information of the still image, the feature detection unit 56 detects the image area of the name tag from the still image acquired by the second image acquisition unit 55, and the name tag The process of recognizing “department” from the image is performed.

上記辞書選出部57は、上記特徴検出部56により検出された静止画像の特徴情報により辞書データを絞り込む処理を行う。従って、上記辞書Dには、静止画像の特徴情報に対応づけて各登録者の辞書データが登録されている。たとえば、名札から検出される「部署」を静止画像の特徴情報とする場合、上記辞書選出部57は、上記特徴検出部56により静止画像から検出される「部署」を示す情報に基づいて、上記顔照合部54による顔照合に用いる辞書データを選別する。これにより、上記顔照合部54では、被撮影者の顔特徴情報と「部署」により絞り込まれた登録者の顔特徴情報とを顔照合処理することが可能となる。   The dictionary selection unit 57 performs a process of narrowing down dictionary data based on still image feature information detected by the feature detection unit 56. Accordingly, dictionary data of each registrant is registered in the dictionary D in association with the feature information of the still image. For example, when “department” detected from a name tag is used as still image feature information, the dictionary selection unit 57 performs the above operation based on information indicating “department” detected from the still image by the feature detection unit 56. Dictionary data used for face matching by the face matching unit 54 is selected. As a result, the face matching unit 54 can perform face matching processing on the face feature information of the subject and the face feature information of the registrant narrowed down by the “department”.

次に、上記辞書Dの構成について説明する。
図5は、上記辞書Dの構成例を示す図である。
図5に示す例において、上記辞書Dには、各登録者ごとに、顔照合に用いる顔動画辞書データ(登録者の登録顔データ)と指定ID番号(登録者の識別情報)とを有する辞書データが格納されている。このような各登録者の辞書データは、静止画像の特徴ごとに区分された状態で記憶されている。図5に示す例では、「メモリマッピングデータ」、複数の「静止画像の特徴データ」、および、複数の「登録者の辞書データ」がそれぞれアドレスに対応づけて記憶されている。
Next, the configuration of the dictionary D will be described.
FIG. 5 is a diagram showing a configuration example of the dictionary D. As shown in FIG.
In the example shown in FIG. 5, the dictionary D includes, for each registrant, face video dictionary data (registrant's registered face data) used for face matching and a designated ID number (registrant's identification information). Data is stored. Such dictionary data of each registrant is stored in a state of being classified for each feature of the still image. In the example illustrated in FIG. 5, “memory mapping data”, a plurality of “still image feature data”, and a plurality of “registrant dictionary data” are stored in association with addresses.

各「静止画像の特徴データ」は、登録者をグループ分けするためのデータである。本実施の形態では、静止画像の特徴データは、第2カメラ12により撮影する静止画像から検出可能であるものとしている。たとえば、胸元に付与される名札あるいは腕章から検出される「部署」を静止画像の特徴データとする場合、各「静止画像の特徴データ」には、「部署」を示す情報が格納される。図5に示す例において、アドレス「M−002」には、第1の「静止画像の特徴データ」として「S01」が格納され、アドレス「M−303」には、第2の「静止画像の特徴データ」として「S02」が格納されている。   Each “still image feature data” is data for grouping registrants. In the present embodiment, it is assumed that still image feature data can be detected from a still image captured by the second camera 12. For example, when “department” detected from a name tag or armband given to the chest is used as still image feature data, information indicating “department” is stored in each “still image feature data”. In the example shown in FIG. 5, “S01” is stored as the first “still image feature data” at the address “M-002”, and the second “still image of the still image” is stored at the address “M-303”. “S02” is stored as “feature data”.

上記辞書Dには、各「登録者の辞書データ」が、何れかの「静止画像の特徴データ」に対応づけて登録される。言い換えると、上記辞書Dにおいて、各「登録者の辞書データ」は、対応する「静止画像の特徴データ」をキーとする登録者の辞書データ群として登録される。すなわち、各「登録者の辞書データ」は、「静止画像の特徴データ」ごとに形成されるブロックに格納される。なお、このような各ブロックは、「登録者の辞書データ」の数が所定数以下となるように構成される。この理由については、後で詳細に説明する。   Each “registrant's dictionary data” is registered in the dictionary D in association with any “still image feature data”. In other words, in the dictionary D, each “registrant's dictionary data” is registered as a registrant's dictionary data group using the corresponding “still image feature data” as a key. That is, each “registrant's dictionary data” is stored in a block formed for each “still image feature data”. Each block is configured such that the number of “registrant dictionary data” is equal to or less than a predetermined number. The reason for this will be described later in detail.

たとえば、図5に示す例において、アドレス「M−002」〜「M−302」は、第1の顔辞書ブロックを形成している。第1の顔辞書ブロックにおいて、アドレス「M−003〜M−302」の各「登録者の辞書データ」(最大300人分の辞書データ)は、アドレス「M−002」の「静止画像の特徴データ」に対応づけて登録されている。同様に、アドレス「M−303」〜「M−603」は、第2の顔辞書ブロックを形成している。第2の顔辞書ブロックにおいて、アドレス「M−304〜M−603」の各「登録者の辞書データ」は、アドレス「M−303」の「静止画像の特徴データ」に対応づけて登録されている。   For example, in the example shown in FIG. 5, the addresses “M-002” to “M-302” form the first face dictionary block. In the first face dictionary block, each “registrant's dictionary data” at addresses “M-003 to M-302” (dictionary data for a maximum of 300 people) is “feature of still image” at address “M-002”. It is registered in association with “Data”. Similarly, addresses “M-303” to “M-603” form a second face dictionary block. In the second face dictionary block, each “registrant's dictionary data” at addresses “M-304 to M-603” is registered in association with “still image feature data” at address “M-303”. Yes.

上記「メモリマッピングデータ」は、各ブロックのヘッダアドレスを集約したデータである。図5に示す例では、各ブロックの先頭には、「静止画像の特徴データ」が格納されている。つまり、アドレス「M−002」が第1の顔辞書ブロックの先頭アドレスであり、アドレス「M−303」が第2の顔辞書ブロックの先頭アドレスである。従って、図5に示す例では、「メモリマッピングデータ」には、アドレス「M−002」、アドレス「M−303」などが各ブロックのヘッダアドレスとして格納される。すなわち、「メモリマッピングデータ」に格納されている各ブロックのヘッダアドレスからの情報を読み込むことにより、各ブロックの「静止画像の特徴データ」を読み込むことが可能となっている。   The “memory mapping data” is data obtained by collecting the header addresses of the respective blocks. In the example shown in FIG. 5, “feature data of still image” is stored at the head of each block. That is, the address “M-002” is the start address of the first face dictionary block, and the address “M-303” is the start address of the second face dictionary block. Therefore, in the example illustrated in FIG. 5, the “memory mapping data” stores the address “M-002”, the address “M-303”, and the like as the header address of each block. That is, by reading information from the header address of each block stored in “memory mapping data”, it is possible to read “characteristic data of still image” of each block.

次に、上記顔照合装置1の実運用を想定した実施の形態として2つの処理例について説明する。
まず、上記顔照合装置1における第1の処理例について説明する。
上記顔照合装置1では、処理速度および照合精度の観点から、1人に対する顔照合処理において照合対象とする登録者の人数に制限が設定されているものとする。すなわち、上記顔照合装置1は、所定数以下の登録者の辞書データに対する顔照合処理において、所定の照合速度および照合精度が保証されるものとする。たとえば、上記顔照合装置1は、300人以下の登録者に対する顔照合処理であれば、処理速度および照合精度が実運用に使用可能であると想定する。このような顔照合装置1では、実際の顔照合処理において、実際に照合する登録者(照合対象者)を300人以下に絞り込むことが必要となる。
Next, two processing examples will be described as an embodiment assuming the actual operation of the face matching device 1.
First, a first processing example in the face matching device 1 will be described.
In the face matching device 1, it is assumed that the number of registrants to be matched in the face matching process for one person is set from the viewpoint of processing speed and matching accuracy. That is, the face collation apparatus 1 is assumed to guarantee a predetermined collation speed and collation accuracy in the face collation process for a predetermined number or less of registrant dictionary data. For example, if the face matching device 1 is a face matching process for 300 or fewer registrants, it is assumed that the processing speed and the matching accuracy can be used in actual operation. In such a face collation apparatus 1, in an actual face collation process, it is necessary to narrow down to 300 or less registrants (persons to be collated) to be actually collated.

上記のように、本顔照合装置1では、顔画像を撮影するための第1カメラ11の他に、静止画像を撮影するための第2カメラ12を有している。本顔照合装置1では、第2カメラ12で撮影した静止画像から検出される「静止画像の特徴データ」により照合対象者を所定人数以下に絞り込む。これにより、上記顔照合装置1は、所定人数以下の登録者を対象として顔照合処理を行う。すなわち、第1の処理例では、静止画像の特徴データにより顔照合の対象となる登録者を所定人数以下に絞り込んでから顔照合処理を行う。   As described above, the face collation apparatus 1 has the second camera 12 for capturing a still image in addition to the first camera 11 for capturing a face image. In the face collation apparatus 1, the number of persons to be collated is narrowed down to a predetermined number or less by “still image feature data” detected from still images captured by the second camera 12. As a result, the face collation apparatus 1 performs face collation processing for a predetermined number or less of registrants. That is, in the first processing example, face matching processing is performed after narrowing down the number of registrants to be subjected to face matching to a predetermined number or less based on feature data of still images.

図6は、顔照合装置1における第1の処理例の処理手順を説明するためのフローチャートである。また、図7(a)〜(d)は、第1の処理例の処理手順における各種の処理状態を模式的に示す図である。
まず、当該顔照合装置1の前に認証を受けようとする人物が立ったものとする。この場合、上記第1カメラ11には、図7(a)に示すような立位姿勢の人物の顔を含む画像が撮影される(ステップS11)。上記顔照合装置1の制御ユニット21で実現される照合処理機能では、上記顔検出部52により上記第1カメラ11で撮影された画像から人物の顔を検出する処理を行っている(ステップS12)。たとえば、図7(a)に示すような画像が第1カメラ11で撮影された場合、上記顔検出部52は、図7(b)に点線で示すような顔の領域を検出する。
FIG. 6 is a flowchart for explaining the processing procedure of the first processing example in the face collation apparatus 1. FIGS. 7A to 7D are diagrams schematically showing various processing states in the processing procedure of the first processing example.
First, it is assumed that a person who wants to receive authentication stands in front of the face matching device 1. In this case, the first camera 11 captures an image including the face of a person in a standing posture as shown in FIG. 7A (step S11). In the collation processing function realized by the control unit 21 of the face collation apparatus 1, the face detection unit 52 performs a process of detecting a human face from the image photographed by the first camera 11 (step S12). . For example, when an image as shown in FIG. 7A is taken by the first camera 11, the face detection unit 52 detects a face region as shown by a dotted line in FIG. 7B.

上記顔検出部52により人物の顔が検出されると(ステップS12、YES)、上記第2カメラ12は、図7(c)に示すように、当該人物を静止画像として撮影する(ステップS21)。上記顔照合装置1の制御ユニット21で実現される照合処理機能では、上記第2カメラ12により撮影された静止画像に対して、上記特徴検出部56により当該人物の顔以外の特徴(静止画像の特徴データ)を検出する処理を行う(ステップS22)。   When the face of the person is detected by the face detection unit 52 (step S12, YES), the second camera 12 captures the person as a still image as shown in FIG. 7C (step S21). . In the collation processing function realized by the control unit 21 of the face collation apparatus 1, features other than the person's face (still image of the person) are captured by the feature detection unit 56 on the still image captured by the second camera 12. Processing for detecting feature data) is performed (step S22).

たとえば、第2カメラ12は、図7(c)に示すような静止画像を撮影する。この場合、上記特徴検出部56は、図7(c)に点線で示すような静止画像の特徴を示す画像領域を検出する。図7(c)に示す例では、上記特徴検出部56は、胸付近に付けられた名札あるいは腕章を静止画像の特徴データを示す情報として検出している。たとえば、「部署」を静止画像の特徴データとする場合、上記特徴検出部56は、上記第2カメラ12で撮影した静止画像における名札あるいは腕章の画像から「部署」を特徴データとして検出する。   For example, the second camera 12 captures a still image as shown in FIG. In this case, the feature detection unit 56 detects an image region indicating the feature of a still image as indicated by a dotted line in FIG. In the example shown in FIG. 7C, the feature detection unit 56 detects a name tag or an armband attached near the chest as information indicating feature data of a still image. For example, when “department” is used as feature data of a still image, the feature detection unit 56 detects “department” as feature data from an image of a name tag or an armband in a still image taken by the second camera 12.

上記特徴検出部56により静止画像の特徴データが検出されると、上記辞書選出部57は、検出された静止画像の特徴データに基づいて顔照合処理における照合対象者とする登録者を絞り込む処理を行う(ステップS23〜S26)。つまり、上記辞書選出部57は、上記辞書Dに記憶されている各ブロックの「静止画像の特徴データ」と上記特徴検出部56が静止画像から検出した特徴データとを照合する(ステップS23)。この照合処理により上記特徴検出部56が検出した特徴データと一致する「静止画像の特徴データ」のブロックを発見した場合(ステップS24、YES)、上記辞書選出部57は、当該ブロックのヘッダアドレスを取得し(ステップS25)、上記顔照合部54へ通知する(ステップS26)。   When the feature data of the still image is detected by the feature detection unit 56, the dictionary selection unit 57 performs a process of narrowing down registrants to be collated in the face matching process based on the detected feature data of the still image. Performed (steps S23 to S26). That is, the dictionary selection unit 57 collates the “still image feature data” of each block stored in the dictionary D with the feature data detected from the still image by the feature detection unit 56 (step S23). When a block of “still image feature data” that matches the feature data detected by the feature detection unit 56 is found by this matching process (YES in step S24), the dictionary selection unit 57 sets the header address of the block. It is acquired (step S25) and notified to the face collation unit 54 (step S26).

一方、上記第1カメラ11は、上記ステップS21〜S26の処理と並行して顔を含む画像を動画像として撮影している(ステップS31)。このような動画像(所定間隔の連続するフレームの画像)に対しては、上記顔検出部52、顔特徴抽出部53により特徴解析が実施される(ステップS32)。すなわち、上記第1カメラ11で撮影した動画像は、第1画像取得部51により取得される。上記顔検出部52は、図7(d)に示すように、上記第1画像取得部51により取得された各フレームの画像から顔領域を検出する。上記顔特徴抽出部53は、上記顔検出部52により検出された顔領域の画像から顔の特徴情報を抽出する。これにより、上記顔特徴抽出部53は、上記顔検出部52が各フレームの画像から検出した複数の顔画像に基づいて、動画像としての顔特徴情報を抽出する。上記顔特徴抽出部53により抽出された顔特徴情報は、認証対象者の顔特徴情報(入力顔特徴情報)として顔照合部54へ供給される。   On the other hand, the first camera 11 shoots an image including a face as a moving image in parallel with the processing of steps S21 to S26 (step S31). For such a moving image (images of continuous frames at a predetermined interval), feature analysis is performed by the face detection unit 52 and the face feature extraction unit 53 (step S32). That is, the moving image captured by the first camera 11 is acquired by the first image acquisition unit 51. As shown in FIG. 7D, the face detection unit 52 detects a face area from each frame image acquired by the first image acquisition unit 51. The face feature extraction unit 53 extracts face feature information from the face area image detected by the face detection unit 52. Thus, the face feature extraction unit 53 extracts face feature information as a moving image based on the plurality of face images detected by the face detection unit 52 from the image of each frame. The face feature information extracted by the face feature extraction unit 53 is supplied to the face matching unit 54 as face feature information (input face feature information) of the person to be authenticated.

上記顔照合部54は、顔特徴抽出部53から入力顔特徴情報が供給されるとともに、上記辞書選出部57から照合対象となる登録者の辞書データが記憶されている記憶領域(つまり、静止画像の特徴データにより絞り込んだ辞書データ)を示す情報が供給される。これにより、上記顔照合部54は、入力顔特徴情報と絞り込まれた各辞書データにおける辞書顔特徴情報とを照合する顔照合処理を行う(ステップS33〜S36)。   The face matching unit 54 is supplied with the input face feature information from the face feature extracting unit 53 and stores a dictionary area of the registrant to be verified from the dictionary selection unit 57 (that is, a still image). Information indicating the dictionary data narrowed down by the feature data) is supplied. Thereby, the face matching unit 54 performs face matching processing for matching the input face feature information with the dictionary face feature information in each narrowed-down dictionary data (steps S33 to S36).

すなわち、上記顔照合部54は、まず、上記辞書選出部57から供給されるヘッダアドレスを設定する(ステップS33)。これは、辞書Dにおいて、照合対象とする顔辞書ブロックの先頭位置を設定する処理である。上記顔照合部54は、辞書Dから1人分の辞書データを読み込むために、設定されているアドレスを基準に次のデータのアドレスに設定する(ステップS34)。このアドレスの更新は、たとえば、図5に示す構成の辞書では、アドレスを「+1」に更新する。   That is, the face collation unit 54 first sets the header address supplied from the dictionary selection unit 57 (step S33). This is a process of setting the head position of the face dictionary block to be collated in the dictionary D. In order to read the dictionary data for one person from the dictionary D, the face matching unit 54 sets the address of the next data based on the set address (step S34). For example, the address is updated to “+1” in the dictionary having the configuration shown in FIG.

これにより辞書Dにおける新たなアドレスが設定されると、上記顔照合部54は、上記辞書Dにおける設定されたアドレスから1人分の登録者の辞書顔特徴情報を読み込む。上記辞書Dから辞書顔特徴情報を読み込むと、上記顔照合部54は、上記顔特徴抽出部53から供給された入力顔特徴情報と当該辞書顔特徴情報とを照合(顔照合)する(ステップS35)。ここでは、顔照合として、入力顔特徴情報と辞書顔特徴情報との類似度を算出するものとする。   Thus, when a new address in the dictionary D is set, the face matching unit 54 reads the dictionary face feature information of one registrant from the set address in the dictionary D. When the dictionary face feature information is read from the dictionary D, the face collation unit 54 collates (face collation) the input face feature information supplied from the face feature extraction unit 53 and the dictionary face feature information (step S35). ). Here, the similarity between input face feature information and dictionary face feature information is calculated as face matching.

上記顔照合が完了すると、上記顔照合部54は、上記ヘッダアドレスで指定された顔辞書ブロックの全辞書データに対する照合が完了したか否かを判断する。つまり、上記顔照合部54は、次に顔照合すべき登録者の辞書データが存在するか否かを判断する(ステップS36)。上記判断により次に顔照合すべき登録者の辞書データが存在すると判断した場合(ステップS36、NO)、上記顔照合部54は、上記ステップS34へ戻り、上記辞書Dにおける次の辞書データとの顔照合を行う。   When the face matching is completed, the face matching unit 54 determines whether or not matching has been completed for all dictionary data of the face dictionary block specified by the header address. That is, the face collation unit 54 determines whether or not there is dictionary data of a registrant to be face collated next (step S36). If it is determined that there is dictionary data of the registrant to be face-matched next (NO in step S36), the face-matching unit 54 returns to step S34 and determines the next dictionary data in the dictionary D. Perform face matching.

また、上記判断により顔照合すべき登録者の辞書データが無いと判断した場合(ステップS36、YES)、上記顔照合部54は、総合的な顔照合の結果を出力し(ステップS37)、当該処理を終了する。この顔照合装置は、通行制御装置に接続されたシステムであることを想定している。このため、上記顔照合部54は、顔照合で得られた類似度が所定の閾値以上となった辞書データが存在した場合には、通行制御装置3の錠制御盤3Aに電気錠3Bを開錠する旨の制御信号を出力し、顔照合で得られた類似度が所定の閾値以上となった辞書データが存在しなかった場合には、通行制御装置3の錠制御盤3Aに電気錠を閉鎖する旨の制御信号を出力する。   If it is determined that there is no registrant's dictionary data to be face-matched (step S36, YES), the face-matching unit 54 outputs a comprehensive face-matching result (step S37). The process ends. This face matching device is assumed to be a system connected to a traffic control device. For this reason, the face collation unit 54 opens the electric lock 3B on the lock control panel 3A of the traffic control device 3 when there is dictionary data in which the similarity obtained by the face collation exceeds a predetermined threshold. If there is no dictionary data that outputs a control signal to lock and the similarity obtained by face matching is equal to or greater than a predetermined threshold, an electric lock is applied to the lock control panel 3A of the traffic control device 3. A control signal for closing is output.

ただし、上記顔照合部54は、顔照合処理の結果として、認証対象者がどの登録者と一致したかを示す情報を通知するようにしても良い。たとえば、顔照合で得られた類似度が所定の閾値以上となった辞書データが1つだけ存在した場合、上記顔照合部54は、認証対象者が当該辞書データの登録者である(登録者と一致した)旨を処理結果として出力する。また、顔照合で得られた類似度が所定の閾値以上となった辞書データが存在しなかった場合、上記顔照合部54は、認証対象者が当該辞書に登録されている登録者とは同定されなかった旨を処理結果として出力する。また、顔照合で得られた類似度が所定の閾値以上となった辞書データが複数存在した場合、上記顔照合部54は、認証対象者が最大類似度となった登録者である旨を処理結果として出力する。なお、顔照合で得られた類似度が所定の閾値以上となった辞書データが複数存在した場合、上記顔照合部54は、認証対象者が所定の閾値以上の類似度となった登録者の何れかである旨を処理結果を出力するようにしても良い。   However, the face matching unit 54 may notify information indicating which registrant matches the person to be authenticated as a result of the face matching process. For example, when there is only one dictionary data in which the similarity obtained by face matching is equal to or greater than a predetermined threshold, the face matching unit 54 indicates that the person to be authenticated is the registrant of the dictionary data (registrant Is output as a processing result. Further, when there is no dictionary data in which the similarity obtained by face matching is equal to or greater than a predetermined threshold, the face matching unit 54 identifies the person to be authenticated as the registrant registered in the dictionary. The fact that it was not done is output as a processing result. Further, when there are a plurality of dictionary data in which the similarity obtained by face matching is equal to or greater than a predetermined threshold, the face matching unit 54 determines that the person to be authenticated is a registrant who has the maximum similarity. Output as a result. When there are a plurality of dictionary data whose similarity obtained by face matching is equal to or higher than a predetermined threshold, the face matching unit 54 determines whether the person to be authenticated has a similarity equal to or higher than a predetermined threshold. A processing result may be output to indicate that it is either.

上記のような第1の処理例を適用した生体照合装置(たとえば、顔照合装置)は、認証時に撮影可能な生体情報以外の特徴情報に対応づけて登録者の生体情報を辞書に登録しておき、認証対象者の生体情報(たとえば、顔画像)が検出された場合、当該認証対象者を撮影した画像から前記生体情報とは異なる特徴情報(たとえば、当該人物が身につけている物から検出される特徴情報)を検出し、検出した特徴情報と一致する特徴情報に対応づけれられる生体情報を前記辞書から選出し、選出した生体情報と当該認証対象者の生体情報とを生体照合する。   A biometric matching device (for example, a face matching device) to which the first processing example as described above is applied registers biometric information of a registrant in a dictionary in association with feature information other than biometric information that can be photographed at the time of authentication. In addition, when biometric information (for example, a face image) of the authentication target person is detected, feature information different from the biometric information (for example, an object worn by the person) is detected from an image obtained by photographing the authentication target person. Feature information) is detected, biometric information associated with feature information that matches the detected feature information is selected from the dictionary, and the selected biometric information and biometric information of the person to be authenticated are biometrically compared.

すなわち、上記のような第1の処理例を適用した生体照合装置によれば、制限数を超える登録者の辞書データが登録される場合であっても、1回の照合処理における照合対象の登録者数を所定の制限数以下に限定でき、その結果として当該装置の処理能力として設定されている制限数以上の登録者との生体照合が可能となる。また、照合対象の登録者数を所定の制限数以下に限定できるため、生体照合の処理速度および生体照合の精度を向上させることができる。   That is, according to the biometric matching device to which the first processing example as described above is applied, even when dictionary data of registrants exceeding the limit number is registered, registration of matching targets in one matching process is performed. The number of persons can be limited to a predetermined limit number or less, and as a result, biometric matching with registrants exceeding the limit number set as the processing capability of the apparatus can be performed. In addition, since the number of registered registrants can be limited to a predetermined limit or less, the processing speed of biometric matching and the accuracy of biometric matching can be improved.

次に、上記顔照合装置1における第2の処理例について説明する。
上記第2の処理例では、照合対象とする登録者の人数を制限する形態ではなく、全登録者に対する顔照合を実施し、その結果が正しいか否かを静止画像の特徴データにより判定するものである。たとえば、第2の処理例では、顔照合処理として入力顔特徴情報と各登録者の辞書顔特徴情報との類似度を算出する。これらの類似度のうち所定閾値以上となった類似度が複数存在した場合、つまり、認証対象者らしい登録者が複数検出された場合、当該認証対象者の静止画像から検出される静止画像の特徴データが一致する登録者を照合結果として選択するようにすることが可能である。
Next, a second processing example in the face matching device 1 will be described.
In the second processing example, the face collation for all registrants is not performed, but the number of registrants to be collated is not limited, and whether or not the result is correct is determined based on still image feature data. It is. For example, in the second processing example, the similarity between the input face feature information and the dictionary face feature information of each registrant is calculated as face matching processing. Among these similarities, when there are a plurality of similarities that are equal to or greater than the predetermined threshold, that is, when a plurality of registrants that are likely to be authenticated are detected, the characteristics of the still image detected from the still image of the authentication target It is possible to select a registrant with matching data as a verification result.

図8は、顔照合装置1における第2の処理例の処理手順を説明するためのフローチャートである。   FIG. 8 is a flowchart for explaining the processing procedure of the second processing example in the face collating apparatus 1.

まず、当該顔照合装置1の前に認証を受けようとする人物が立ったものとする。この場合、上記第1カメラ11には、立位姿勢の人物の顔を含む画像が撮影される(ステップS41)。上記顔照合装置1の制御ユニット21で実現される照合処理機能では、上記顔検出部52により上記第1カメラ11で撮影された画像から人物の顔を検出する処理を行っている(ステップS42)。   First, it is assumed that a person who wants to receive authentication stands in front of the face matching device 1. In this case, the first camera 11 captures an image including the face of a person in a standing posture (step S41). In the collation processing function realized by the control unit 21 of the face collation apparatus 1, the face detection unit 52 performs a process of detecting a human face from an image photographed by the first camera 11 (step S42). .

上記顔検出部52により人物の顔が検出されると(ステップS42、YES)、上記第2カメラ12は、当該人物(第1カメラ11で撮影されている認証対象者)を静止画像として撮影する(ステップS51)。上記顔照合装置1の制御ユニット21で実現される照合処理機能では、上記第2カメラ12により撮影された静止画像に対して、上記特徴検出部56により当該人物の顔以外の特徴(静止画像の特徴データ)を検出する処理を行う(ステップS52)。上記特徴検出部56により静止画像の特徴データが検出されると、上記辞書選出部57は、検出された静止画像の特徴データを認証対象者の特徴データとしてRAM32などのメモリに保持する(ステップS53)。   When the face of the person is detected by the face detection unit 52 (YES in step S42), the second camera 12 photographs the person (the person to be authenticated photographed by the first camera 11) as a still image. (Step S51). In the collation processing function realized by the control unit 21 of the face collation apparatus 1, features other than the person's face (still image of the person) are captured by the feature detection unit 56 on the still image captured by the second camera 12. Processing for detecting feature data) is performed (step S52). When the feature data of the still image is detected by the feature detection unit 56, the dictionary selection unit 57 holds the detected feature data of the still image in the memory such as the RAM 32 as the feature data of the person to be authenticated (step S53). ).

一方、上記第1カメラ11は、上記ステップS51〜S53の処理と並行して顔を含む画像を動画像として撮影している(ステップS61)。このような動画像(所定間隔の連続するフレームの画像)に対しては、上記顔検出部52、顔特徴抽出部53により特徴解析が実施される(ステップS62)。すなわち、上記第1カメラ11で撮影した動画像は、第1画像取得部51により取得される。上記顔検出部52は、上記第1画像取得部51により取得された各フレームの画像から顔領域を検出する。上記顔特徴抽出部53は、上記顔検出部52により検出された顔領域の画像から顔の特徴情報を抽出する。これにより、上記顔特徴抽出部53は、上記顔検出部52が各フレームの画像から検出した複数の顔画像に基づいて、動画像としての顔特徴情報を抽出する。上記顔特徴抽出部53により抽出された顔特徴情報は、認証対象者の顔特徴情報(入力顔特徴情報)として顔照合部54へ供給される。   On the other hand, the first camera 11 shoots an image including a face as a moving image in parallel with the processing of steps S51 to S53 (step S61). For such a moving image (images of continuous frames at a predetermined interval), feature analysis is performed by the face detection unit 52 and the face feature extraction unit 53 (step S62). That is, the moving image captured by the first camera 11 is acquired by the first image acquisition unit 51. The face detection unit 52 detects a face region from each frame image acquired by the first image acquisition unit 51. The face feature extraction unit 53 extracts face feature information from the face area image detected by the face detection unit 52. Thus, the face feature extraction unit 53 extracts face feature information as a moving image based on the plurality of face images detected by the face detection unit 52 from the image of each frame. The face feature information extracted by the face feature extraction unit 53 is supplied to the face matching unit 54 as face feature information (input face feature information) of the person to be authenticated.

上記顔照合部54は、上記顔特徴抽出部53から供給される入力顔特徴情報と上記辞書Dに登録される全登録者の辞書データにおける辞書顔特徴情報とをそれぞれ照合する顔照合処理を行う(ステップS63〜S66)。上記顔照合部54は、まず、上記辞書Dのヘッダアドレスを設定する(ステップS63)。さらに、上記顔照合部54は、上記辞書Dから1人分の辞書データを読み込むために、設定されているアドレスを基準として次のデータのアドレスに更新する(ステップS64)。このアドレスの更新は、たとえば、図5に示す構成の辞書Dでは、アドレスを「+1」に更新する。これにより辞書Dにおける新たなアドレスが設定されると、上記顔照合部54は、上記辞書Dにおける設定されたアドレスから1人分の登録者の辞書顔特徴情報を読み込む。上記辞書Dから辞書顔特徴情報を読み込むと、上記顔照合部54は、上記顔特徴抽出部53から供給された入力顔特徴情報と当該辞書顔特徴情報とを照合(顔照合)する(ステップS65)。   The face matching unit 54 performs face matching processing for matching the input face feature information supplied from the face feature extracting unit 53 with the dictionary face feature information in the dictionary data of all registrants registered in the dictionary D. (Steps S63 to S66). The face collation unit 54 first sets the header address of the dictionary D (step S63). Furthermore, in order to read one dictionary data from the dictionary D, the face collation unit 54 updates the address of the next data with the set address as a reference (step S64). For example, the address is updated to “+1” in the dictionary D having the configuration shown in FIG. Thus, when a new address in the dictionary D is set, the face matching unit 54 reads the dictionary face feature information of one registrant from the set address in the dictionary D. When the dictionary face feature information is read from the dictionary D, the face collation unit 54 collates (face collation) the input face feature information supplied from the face feature extraction unit 53 with the dictionary face feature information (step S65). ).

ここでは、顔照合として、入力顔特徴情報と辞書顔特徴情報との類似度を算出するものとする。なお、上記顔照合により得られる類似度は、各辞書データに対応づけて全てRAM32などのメモリに保存しておくようにして良いが、ここでは、類似度が所定の閾値以上となった辞書データを示す情報をRAM32に記憶しておくものとする。   Here, the similarity between input face feature information and dictionary face feature information is calculated as face matching. It should be noted that all the similarities obtained by the face matching may be stored in a memory such as the RAM 32 in association with each dictionary data. Here, however, the dictionary data whose similarity is equal to or greater than a predetermined threshold value. Is stored in the RAM 32.

上記ステップS65の顔照合が完了すると、上記顔照合部54は、上記辞書Dに登録されている全辞書データに対する照合が完了したか否かを判断する。つまり、上記顔照合部54は、次に顔照合すべき辞書データが存在するか否かを判断する(ステップS66)。上記判断により次に顔照合すべき登録者の辞書データが存在すると判断した場合(ステップS66、NO)、上記顔照合部54は、上記ステップS64へ戻り、顔照合すべき辞書データが無くなるまで上記ステップS64〜S66の処理を繰り返し実行する。   When the face collation in step S65 is completed, the face collation unit 54 determines whether collation for all dictionary data registered in the dictionary D is completed. That is, the face matching unit 54 determines whether there is dictionary data to be face-matched next (step S66). If it is determined that there is dictionary data of the registrant to be face-matched next (step S66, NO), the face-matching unit 54 returns to step S64 and continues until the dictionary data to be face-checked disappears. Steps S64 to S66 are repeatedly executed.

また、上記判断により顔照合すべき登録者の辞書データが無いと判断した場合(ステップS66、YES)、上記顔照合部54は、総合的な顔照合結果の判定処理を行う(ステップS67)。この判定処理では、上記顔照合部54は、類似度が所定閾値以上となった各辞書データに対応づけられる静止画像の特徴データと当該認証対象者の静止画像から得られた特徴データとが一致するか否かを判定する。上記顔照合部54は、上記判定結果を最終的な顔照合処理の結果として出力する(ステップS66)。   If it is determined by the above determination that there is no registrant dictionary data to be face-matched (step S66, YES), the face matching unit 54 performs a comprehensive face-matching result determination process (step S67). In this determination processing, the face collation unit 54 matches the feature data of the still image associated with each dictionary data having a similarity equal to or greater than a predetermined threshold and the feature data obtained from the still image of the person to be authenticated. It is determined whether or not to do. The face matching unit 54 outputs the determination result as a result of the final face matching process (step S66).

たとえば、上記判定処理の結果として、類似度が所定閾値以上となった辞書データのうち、当該認証対象者の静止画像から得られた特徴データと一致する静止画像の特徴データに対応づけられた辞書データが存在する場合、上記顔照合部54は、当該認証対象者が当該辞書データの登録者と同定されたものと判定する。   For example, as a result of the determination process, among dictionary data having a similarity equal to or greater than a predetermined threshold, a dictionary associated with feature data of a still image that matches feature data obtained from the still image of the person to be authenticated When the data exists, the face matching unit 54 determines that the person to be authenticated has been identified as the registrant of the dictionary data.

また、類似度が所定閾値以上となった辞書データのうち、当該認証対象者の静止画像から得られた特徴データと一致する静止画像の特徴データに対応づけられた辞書データが存在しない場合、上記顔照合部54は、認証対象者が当該辞書に登録されている登録者とは同定されなかった旨を処理結果として出力する。
ただし、静止画像の特徴データが一致する類似度が所定閾値以上となった辞書データが複数存在する場合、上記顔照合部54は、認証対象者が最大類似度となった登録者である旨を判定結果とするようにしても良いし、認証対象者が所定の閾値以上の類似度となった登録者の何れかである旨を判定結果として出力するようにしても良い。
If there is no dictionary data associated with the feature data of the still image that matches the feature data obtained from the still image of the person to be authenticated among the dictionary data whose similarity is equal to or greater than the predetermined threshold, The face collation unit 54 outputs a processing result indicating that the person to be authenticated has not been identified as a registrant registered in the dictionary.
However, when there are a plurality of dictionary data in which the similarity of matching still image feature data is equal to or greater than a predetermined threshold, the face matching unit 54 indicates that the person to be authenticated is the registrant who has the maximum similarity. The determination result may be used, or a determination result may be output indicating that the person to be authenticated is any of the registrants having a similarity equal to or higher than a predetermined threshold.

上記のような第2の処理例を適用した生体照合装置(たとえば、顔照合装置)は、認証時に撮影可能な生体情報(たとえば、顔画像)以外の特徴情報(たとえば、当該人物が身につけている物から検出される特徴情報)に対応づけて登録者の生体情報を辞書に登録しておき、認証対象者の生体情報と当該認証対象者の生体情報とを生体照合処理において認証対象者の生体情報との照合一致の基準を満たした登録者の生体情報が複数得られた場合、
それらの登録者の生体情報に対応づけられている上記特徴情報と当該認証対象者を撮影した画像から検出される上記特徴情報とを比較することにより、上記認証対象者と登録者との生体照合結果を判定する。
A biometric matching device (for example, a face matching device) to which the second processing example as described above is applied is characterized by characteristic information (for example, a person wearing it) other than biometric information (for example, a face image) that can be photographed during authentication. The biometric information of the registrant is registered in the dictionary in association with the feature information detected from the object, and the biometric information of the authentication target person and the biometric information of the authentication target person are registered in the biometric matching process. When multiple biometric information of registrants that meet the criteria for matching with biometric information is obtained,
By comparing the feature information associated with the biometric information of the registrant and the feature information detected from the image obtained by photographing the authentication target, biometric verification between the authentication target and the registrant Determine the result.

すなわち、上記のような第2の処理例を適用した生体照合装置によれば、生体照合において照合一致の基準を満たす登録者が複数存在する場合であっても、認証時に撮影可能な生体情報以外の特徴情報により認証対象者と一致する登録者の選別あるいは選択などの判定が可能となる。さらに、上記生体情報以外の特徴情報により生体照合結果に対する判定を行わない場合であっても、上記生体情報以外の特徴情報を生体照合処理の結果に付加することにより、それらの情報が認証対象者を特定するための証拠数として利用できる。   That is, according to the biometric matching device to which the second processing example as described above is applied, even if there are a plurality of registrants that satisfy the matching match criteria in the biometric matching, other than biometric information that can be photographed at the time of authentication This feature information makes it possible to determine the selection or selection of a registrant that matches the person to be authenticated. Further, even if the determination on the biometric matching result is not performed based on the feature information other than the biometric information, the information is added to the result of the biometric matching process by adding the feature information other than the biometric information to the person to be authenticated. Can be used as the number of evidences to identify

次に、上記顔照合装置1における登録処理ついて説明する。
上記顔照合装置1では、顔画像を動画像として撮影するのとともに、当該人物を静止画像で撮影することが可能である。このような構成では、上述したような辞書データの絞込みだけでなく、管理者が不在の状態でも通行制御システムにおけるセキュリティ性の確保することも可能である。たとえば、辞書データの登録を行う場合、管理者が不在であっても、十分なるセキュリティ性を確保した状態で、登録操作を行うことが可能となる。
Next, the registration process in the face collation apparatus 1 will be described.
The face matching device 1 can capture a face image as a moving image and a person as a still image. With such a configuration, it is possible not only to narrow down the dictionary data as described above, but also to ensure security in the traffic control system even in the absence of an administrator. For example, when registering dictionary data, the registration operation can be performed in a state where sufficient security is ensured even if the administrator is absent.

すなわち、上記顔照合装置1では、表示部13、音声部15および操作部14などにより、登録者に対して、辞書登録のための操作手順などが音声案内あるいは画面によるガイダンスを行うことが可能である。つまり、上記顔照合装置1では、管理者が不在であっても、登録者自身の操作によって、顔特徴情報を辞書データとして登録することは技術的に可能になっている。ただし、管理者が不在で登録を行った場合、正常に登録操作されるもの以外には、たとえば、以下のような場合が想定される。   That is, in the face collation apparatus 1, the display unit 13, the voice unit 15, the operation unit 14, and the like can provide the registrant with voice guidance or screen guidance for an operation procedure for dictionary registration. is there. That is, in the face collation apparatus 1, it is technically possible to register face feature information as dictionary data by an operation of a registrant himself even when an administrator is absent. However, when the registration is performed in the absence of the administrator, for example, the following cases are assumed in addition to those that are normally registered.

(1)登録した番号が間違えている…操作ミス
(2)登録を予定した人が来ていない…計画不履行
(3)ナリスマシをしている…不正
これらの状況が発生した場合、管理者が不在であっても、上記顔照合装置1では、セキュリティ性を確保することが可能である。
(1) The registered number is wrong ... Operation mistake (2) The person who planned to register has not come ... Plan failure (3) Narismashi ... Unauthorized When these situations occur, there is no administrator Even so, the face matching device 1 can ensure security.

図9(a)〜(d)は、複数の登録者の状態を模式的に示す図である。また、図10は、図9(a)〜(d)に示すような複数の登録者による登録処理の結果を示す記録媒体Sである。
たとえば、図9(a)〜(d)に示すような4人の人物が登録操作を行ったものとする。この場合、顔照合装置1は、上記第1画像取得部51、上記顔検出部52および上記顔特徴抽出部53により上記第1カメラ11で撮影する人物の顔の動画像から辞書顔特徴情報を生成する。この際、上記顔照合装置1は、第2カメラ12により第1カメラ11で撮影中の人物の静止画像を撮影する。上記顔照合装置1は、上記第2画像取得部55及び上記特徴検出部56により上記第2カメラ12で撮影する静止画像から特徴情報、つまり、静止画像の特徴データを検出する。
FIGS. 9A to 9D are diagrams schematically illustrating a plurality of registrant states. FIG. 10 shows a recording medium S showing the results of registration processing by a plurality of registrants as shown in FIGS.
For example, it is assumed that four persons as shown in FIGS. 9A to 9D perform a registration operation. In this case, the face collation apparatus 1 uses the first image acquisition unit 51, the face detection unit 52, and the face feature extraction unit 53 to obtain dictionary face feature information from a moving image of a person's face photographed by the first camera 11. Generate. At this time, the face collation apparatus 1 captures a still image of the person being captured by the first camera 11 using the second camera 12. In the face collation apparatus 1, feature information, that is, feature data of a still image is detected from the still image captured by the second camera 12 by the second image acquisition unit 55 and the feature detection unit 56.

図9(a)〜(d)に示す例では、静止画像の特徴データとして、各人物の胸元に付与されている名札あるいは腕章から社員番号が検出される。図9(a)に示す例では、静止画像の特徴データとして、社員番号「001047」が検出され、図9(b)に示す例では、静止画像の特徴データとして、社員番号「001048」が検出され、図9(c)に示す例では、静止画像の特徴データとして、社員番号「001049」が検出され、図9(d)に示す例では、静止画像の特徴データとして、社員番号「001050」が検出されている。   In the example shown in FIGS. 9A to 9D, the employee number is detected from the name tag or armband attached to each person's chest as the feature data of the still image. In the example shown in FIG. 9A, the employee number “001047” is detected as the still image feature data. In the example shown in FIG. 9B, the employee number “001048” is detected as the still image feature data. In the example shown in FIG. 9C, the employee number “001049” is detected as the feature data of the still image. In the example shown in FIG. 9D, the employee number “001050” is used as the feature data of the still image. Has been detected.

これらの静止画像の特徴データは、動画像から作成される顔特徴情報を含む各登録者ごとの辞書データに対応づけて辞書DとしてのHDD22に登録される。なお、図9(a)〜(d)に示す例に対しては、たとえば、辞書D内におけるグループ分け(静止画像の特徴データ)としては、上記社員番号における上位3桁の番号(「001***」における「001」)あるいは4桁の番号(「0010**」における「0010」)を使用することが可能である。この場合、上記社員番号における上位3桁の番号(「001」)あるいは4桁の番号(「0010」)の顔辞書ブロックが辞書D内に形成される。   The still image feature data is registered in the HDD 22 as the dictionary D in association with dictionary data for each registrant including face feature information created from a moving image. For the examples shown in FIGS. 9A to 9D, for example, as the grouping (still image feature data) in the dictionary D, the upper three digits of the employee number (“001 *”) are used. It is possible to use “001” in “**”) or a four-digit number (“0010” in “0010 **”). In this case, a face dictionary block having the upper three-digit number (“001”) or the four-digit number (“0010”) in the employee number is formed in the dictionary D.

また、上記のような登録処理において、上記顔照合装置1は、登録内容を示す情報として、登録した人物の顔画像とともに静止画像の特徴データを保存する。さらに、上記顔照合装置1は、図10に示すように、登録した人物の顔画像と静止画像の特徴データとを図示しないプリンタなどにより記録媒体に記録する。図10に示す例では、特定の期間に登録した人物の一覧情報として、登録した人物の顔画像と静止画像の特徴データ(番号撮影)と実際に辞書Dに登録した番号とを対応づけたものが記録媒体Sに印刷されている。なお、登録した人物の顔画像は、たとえば、静止画像から検出される顔画像であって良いし、動画像を構成するフレームの画像から検出される顔画像であっても良い。また、図10に示すような情報は、表示部13あるいはネットワーク2に接続されたPCのディスプレイなどより表示するようにしても良い。また、上記のような記録媒体Sあるいは表示内容による確認によって、管理者が、不正な登録と判断した登録データについては、辞書Dから削除される。   In the registration process as described above, the face collation apparatus 1 stores still image feature data together with a registered person's face image as information indicating registration contents. Further, as shown in FIG. 10, the face collation apparatus 1 records the registered person's face image and still image feature data on a recording medium using a printer (not shown) or the like. In the example shown in FIG. 10, as the list information of the persons registered during a specific period, the registered face images, still image feature data (number shooting), and the numbers actually registered in the dictionary D are associated with each other. Is printed on the recording medium S. The registered person's face image may be, for example, a face image detected from a still image, or may be a face image detected from a frame image constituting a moving image. Further, the information as shown in FIG. 10 may be displayed on the display unit 13 or a display of a PC connected to the network 2. Further, the registration data that the administrator determines to be illegal registration by the confirmation by the recording medium S or the display content as described above is deleted from the dictionary D.

上記のような形態によれば、管理者は、登録処理が終了した後に、顔画像と静止画像の特徴データとの一覧が記録された記録媒体Sにより登録内容を容易に確認できる。すなわち、上記顔照合装置では、管理者が不在であっても登録処理が実行でき、さらに、そのような登録処理の内容を所定期間ごとに管理者が容易に確認できる。この結果として、管理者が不在の状態で行われた登録処理内容を、適正に管理でき、セキュリティ性が確保できる。たとえば、不正に撮影される画像で登録しようとしても、動画像から得られる顔特徴情報と、静止画像の特徴データと、顔画像とがそれぞれ明確な証拠として残ることを考えると、不正な登録に対する強い抑止力となる。   According to the above-described form, the administrator can easily confirm the registered content by using the recording medium S on which the list of the feature data of the face image and the still image is recorded after the registration process is completed. That is, in the face collation apparatus, registration processing can be executed even when the administrator is absent, and the administrator can easily confirm the contents of such registration processing every predetermined period. As a result, it is possible to properly manage the contents of registration processing performed in the absence of an administrator, and to secure security. For example, even if an attempt is made to register with an illegally shot image, considering that facial feature information obtained from moving images, still image feature data, and facial images remain as clear evidence, respectively, Strong deterrence.

なお、上述した顔照合装置1における登録処理では、静止画像の特徴データとして、社員証、名札あるいは腕章などを想定したものについて説明したが、それに限るものではない。たとえば、静止画像の特徴データとしては、写真付きの登録申請書あるいは事前に渡した手書きの番号票などの書類を一緒に撮影する場合。また、上司が登録者と並んで立ち、その上司の顔を確認するなどの方法も、運用形態として実現可能である。   In the registration processing in the face collation apparatus 1 described above, the description has been made assuming that the feature data of the still image is an employee card, a name tag, an armband, or the like, but is not limited thereto. For example, as feature data of still images, when taking documents such as registration applications with photos or handwritten number slips handed over in advance. Also, a method in which the boss stands side by side with the registrant and confirms the boss's face can be realized as an operation mode.

図1(a)は、顔照合装置の外観構成例を示す正面図である。図1(b)は、顔照合装置の外観構成例を示す側面図である。FIG. 1A is a front view showing an external configuration example of the face matching device. FIG. 1B is a side view showing an example of the external configuration of the face matching device. 図2は、顔照合装置を含む顔照合システム(通行制御システム)の構成例を概略的に示す図である。FIG. 2 is a diagram schematically illustrating a configuration example of a face matching system (traffic control system) including a face matching device. 図3は、顔照合装置の制御系統(制御ユニット)の構成例を概略的に示すブロック図である。FIG. 3 is a block diagram schematically illustrating a configuration example of a control system (control unit) of the face matching device. 図4は、顔照合装置における顔照合処理機能の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a configuration example of the face matching processing function in the face matching device. 図5は、辞書の構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of a dictionary. 図6は、顔照合装置における第1の処理例の処理手順を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining the processing procedure of the first processing example in the face collation apparatus. 図7(a)〜(d)は、第1の処理例の処理手順における各種の処理状態を模式的に示す図である。FIGS. 7A to 7D are diagrams schematically illustrating various processing states in the processing procedure of the first processing example. 図8は、顔照合装置における第2の処理例の処理手順を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining the processing procedure of the second processing example in the face collation apparatus. 図9(a)〜(d)は、複数の登録者の状態を模式的に示す図である。FIGS. 9A to 9D are diagrams schematically illustrating a plurality of registrant states. 図10は、複数の登録者による登録処理の結果を示す記録媒体である。FIG. 10 is a recording medium showing the result of registration processing by a plurality of registrants.

符号の説明Explanation of symbols

1…顔照合装置、3…通行制御装置、11…第1カメラ、12…第2カメラ、13…表示部、14…操作部、15…音声部、16…インターフェース部、21…制御ユニット、22…ハードディスクドライブ(HDD)、D…辞書、23…電源部、30…CPU、31…ROM、32…RAM、33…不揮発性メモリ、34…第1画像入力部、35…第2画像入力部、36…表示制御部、37…音声制御部、38…キー入力制御部、39…通信制御部、40…出力制御部、51…第1画像取得部、52…顔検出部、53…顔特徴抽出部、54…顔照合部、55…画像取得部、56…特徴検出部、57…辞書選出部。   DESCRIPTION OF SYMBOLS 1 ... Face collation apparatus, 3 ... Traffic control apparatus, 11 ... 1st camera, 12 ... 2nd camera, 13 ... Display part, 14 ... Operation part, 15 ... Audio | voice part, 16 ... Interface part, 21 ... Control unit, 22 DESCRIPTION OF SYMBOLS ... Hard disk drive (HDD), D ... Dictionary, 23 ... Power supply part, 30 ... CPU, 31 ... ROM, 32 ... RAM, 33 ... Non-volatile memory, 34 ... 1st image input part, 35 ... 2nd image input part, 36 ... Display control unit, 37 ... Audio control unit, 38 ... Key input control unit, 39 ... Communication control unit, 40 ... Output control unit, 51 ... First image acquisition unit, 52 ... Face detection unit, 53 ... Face feature extraction 54, a face collation unit, 55, an image acquisition unit, 56, a feature detection unit, and 57, a dictionary selection unit.

Claims (7)

生体情報を含む情報を取得する第1の取得手段と、
人物をグループ分けするための前記生体情報以外の特徴情報を含む情報を取得する第2の取得手段と、
複数の登録者の生体情報を前記第2の取得手段で取得する情報に含まれる前記生体情報以外の特徴情報に対応づけて記憶する記憶手段と、
前記第1の取得手段により取得した情報から認証対象者の生体情報を検出する生体情報検出手段と、
前記生体情報検出手段により認証対象者の生体情報を検出した場合、前記第2の取得手段により取得した情報から当該認証対象者の生体情報以外の特徴情報を検出する特徴検出手段と、
前記特徴検出手段により検出された生体情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込む選出手段と、
前記生体情報検出手段により検出した生体情報と前記選出手段により選出された前記記憶手段に記憶されている登録者の生体情報とを照合する生体照合手段と、
を有することを特徴とする生体照合装置。
First acquisition means for acquiring information including biological information;
Second acquisition means for acquiring information including feature information other than the biological information for grouping persons;
Storage means for storing biometric information of a plurality of registrants in association with feature information other than the biometric information included in the information acquired by the second acquisition means;
Biometric information detection means for detecting biometric information of the person to be authenticated from the information acquired by the first acquisition means;
A feature detection unit for detecting feature information other than the biometric information of the authentication target person from the information acquired by the second acquisition unit when the biometric information of the authentication target person is detected by the biometric information detection unit;
A selection means for narrowing down a registrant stored in the storage means based on feature information other than the biological information detected by the feature detection means;
Biometric collating means for collating biometric information detected by the biometric information detecting means and biometric information of a registrant stored in the storage means selected by the selecting means;
A biometric collation apparatus characterized by comprising:
生体情報を含む情報を取得する第1の取得手段と、
人物をグループ分けするための前記生体情報以外の特徴情報を含む情報を取得する第2の取得手段と、
複数の登録者の生体情報を前記第2の取得手段で取得する情報に含まれる前記生体情報以外の特徴情報に対応づけて記憶する記憶手段と、
前記第1の取得手段により取得した情報から認証対象者の生体情報を検出する生体情報検出手段と、
前記生体情報検出手段により検出した認証対象者の生体情報と前記記憶手段に記憶されている登録者の生体情報とを照合する生体照合手段と、
前記生体照合手段により前記認証対象者の生体情報と同一人物であると判定される登録者の生体情報が複数存在した場合、前記第2の取得手段により取得した情報から当該認証対象者の生体情報以外の特徴情報を検出する特徴検出手段と、
前記特徴検出手段により検出された前記認証対象者の生体情報以外の特徴情報と前記認証対象者と同一人物であると判定された登録者の前記生体情報以外の特徴情報とを比較することにより生体照合処理の結果を判定する判定手段と、
を有することを特徴とする生体照合装置。
First acquisition means for acquiring information including biological information;
Second acquisition means for acquiring information including feature information other than the biological information for grouping persons;
Storage means for storing biometric information of a plurality of registrants in association with feature information other than the biometric information included in the information acquired by the second acquisition means;
Biometric information detection means for detecting biometric information of the person to be authenticated from the information acquired by the first acquisition means;
Biometric matching means for matching the biometric information of the person to be authenticated detected by the biometric information detecting means with the biometric information of the registrant stored in the storage means;
When there are a plurality of biometric information of the registrant who is determined to be the same person as the biometric information of the person to be authenticated by the biometric matching means, the biometric information of the person to be authenticated is obtained from the information acquired by the second acquisition means. Feature detection means for detecting feature information other than
By comparing the feature information other than the biometric information of the person to be authenticated detected by the feature detection means with the feature information other than the biometric information of the registrant determined to be the same person as the person to be authenticated. A determination means for determining a result of the matching process;
A biometric collation apparatus characterized by comprising:
顔画像情報を含む画像を取得する第1の取得手段と、
人物をグループ分けするための前記顔画像情報以外の特徴情報を含む画像を取得する第2の取得手段と、
複数の登録者の顔画像情報を前記第2の取得手段で取得する画像に含まれる前記顔画像情報以外の特徴情報に対応づけて記憶する記憶手段と、
前記第1の取得手段により取得した画像から認証対象者の顔画像情報を検出する顔検出手段と、
前記顔検出手段により認証対象者の顔画像情報を検出した場合、前記第2の取得手段により取得した画像から当該認証対象者の顔画像情報以外の特徴情報を検出する特徴検出手段と、
前記特徴検出手段により検出された顔画像情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込む選出手段と、
前記顔検出手段により検出した顔画像情報と前記選出手段により選出された前記記憶手段に記憶されている登録者の顔画像情報とを照合する顔照合手段と、
を有することを特徴とする顔照合装置。
First acquisition means for acquiring an image including face image information;
Second acquisition means for acquiring an image including feature information other than the face image information for grouping persons;
Storage means for storing face image information of a plurality of registrants in association with feature information other than the face image information included in an image acquired by the second acquisition means;
Face detection means for detecting face image information of the person to be authenticated from the image acquired by the first acquisition means;
A feature detection unit for detecting feature information other than the authentication target person's face image information from the image acquired by the second acquisition unit when the face detection unit detects the authentication target person's face image information;
A selection means for narrowing down a registrant stored in the storage means based on feature information other than the face image information detected by the feature detection means;
Face collation means for collating face image information detected by the face detection means with face image information of a registrant stored in the storage means selected by the selection means;
A face matching device characterized by comprising:
顔画像情報を含む画像を取得する第1の取得手段と、
人物をグループ分けするための前記顔画像情報以外の特徴情報を含む画像を取得する第2の取得手段と、
複数の登録者の顔画像情報を前記第2の取得手段で取得する画像に含まれる前記顔画像情報以外の特徴情報に対応づけて記憶する記憶手段と、
前記第1の取得手段により取得した画像から認証対象者の顔画像情報を検出する顔検出手段と、
前記顔検出手段により検出した認証対象者の顔画像情報と前記記憶手段に記憶されている登録者の顔画像情報とを照合する顔照合手段と、
前記顔照合手段により前記認証対象者の顔画像情報と同一人物であると判定される登録者の顔画像情報が複数存在した場合、前記第2の取得手段により取得した画像から当該認証対象者の顔画像情報以外の特徴情報を検出する特徴検出手段と、
前記特徴検出手段により検出された前記認証対象者の顔画像情報以外の特徴情報と前記認証対象者と同一人物であると判定された登録者の前記顔画像情報以外の特徴情報とを比較することにより顔照合処理の結果を判定する判定手段と、
を有することを特徴とする顔照合装置。
First acquisition means for acquiring an image including face image information;
Second acquisition means for acquiring an image including feature information other than the face image information for grouping persons;
Storage means for storing face image information of a plurality of registrants in association with feature information other than the face image information included in an image acquired by the second acquisition means;
Face detection means for detecting face image information of the person to be authenticated from the image acquired by the first acquisition means;
Face collation means for collating the face image information of the person to be authenticated detected by the face detection means with the face image information of the registrant stored in the storage means;
When there are a plurality of face image information of a registrant who is determined to be the same person as the face image information of the person to be authenticated by the face matching means, the image of the person to be authenticated is obtained from the image obtained by the second obtaining means. Feature detection means for detecting feature information other than face image information;
Comparing feature information other than the face image information of the person to be authenticated detected by the feature detection means with feature information other than the face image information of the registrant determined to be the same person as the person to be authenticated. Determining means for determining the result of the face matching process by:
A face matching device characterized by comprising:
前記第1の取得手段は、顔画像を含む動画像を取得し、
前記顔検出手段は、前記第1の取得手段により取得した動画像の各フレームの画像から認証対象者の顔画像をそれぞれ検出し、
さらに、前記顔検出手段が前記第1の取得手段により取得した動画像の各フレームから検出した顔画像の特徴を統合することにより前記顔照合手段による顔照合に用いる顔画像情報としての顔特徴情報を抽出する顔特徴抽出手段を有する、
ことを特徴とする前記請求項3又は4の何れかに記載の顔照合装置。
The first acquisition means acquires a moving image including a face image,
The face detection means detects the face image of the person to be authenticated from each frame image of the moving image acquired by the first acquisition means,
Further, by integrating the features of the face image detected from each frame of the moving image acquired by the face acquisition means by the face detection means, face feature information as face image information used for face matching by the face matching means Having facial feature extraction means for extracting
The face collation apparatus according to claim 3 or 4, characterized in that
複数の登録者の生体情報を各登録者をグループ分けするための前記生体情報以外の特徴情報に対応づけて記憶手段に記憶しておき、
生体情報を含む第1の情報を取得し、
この取得した第1の情報から生体情報を検出し、
この検出により認証対象者の生体情報を検出した場合、前記認証対象者の前記生体情報以外の特徴情報を含む第2の情報を取得し、
この取得した第2の情報から認証対象者の生体情報以外の特徴情報を検出し、
この検出により検出された生体情報以外の特徴情報に基づいて前記記憶手段に記憶されている登録者を絞り込み、
前記認証対象者の生体情報と前記絞り込んだ前記記憶手段に記憶されている登録者の生体情報とを照合する、
を有することを特徴とする生体照合方法。
The biometric information of a plurality of registrants is stored in storage means in association with feature information other than the biometric information for grouping each registrant,
Obtaining first information including biological information;
The biological information is detected from the acquired first information,
When the biometric information of the person to be authenticated is detected by this detection, second information including feature information other than the biometric information of the person to be authenticated is acquired,
The feature information other than the biometric information of the person to be authenticated is detected from the acquired second information,
Narrow down registrants stored in the storage means based on feature information other than biological information detected by this detection,
Collating the biometric information of the person to be authenticated with the biometric information of the registrant stored in the narrowed-down storage means;
A biometric matching method characterized by comprising:
複数の登録者の生体情報を各登録者をグループ分けするための前記生体情報以外の特徴情報に対応づけて記憶手段に記憶しておき、
生体情報を含む第1の情報を取得し、
この取得した第1の情報から認証対象者の生体情報を検出し、
この検出した認証対象者の生体情報と前記記憶手段に記憶されている登録者の生体情報とを照合し、
この照合により前記認証対象者の生体情報と同一人物であると判定される登録者の生体情報が複数存在した場合、当該認証対象者の前記生体情報以外の特徴情報を含む第2の情報を取得し、
この取得した第2の情報から当該認証対象者の生体情報以外の特徴情報を検出し、
この検出された前記認証対象者の生体情報以外の特徴情報と前記認証対象者と同一人物であると判定された登録者の前記生体情報以外の特徴情報とを比較することにより生体照合処理の結果を判定する、
ことを特徴とする生体照合方法。
The biometric information of a plurality of registrants is stored in storage means in association with feature information other than the biometric information for grouping each registrant,
Obtaining first information including biological information;
The biometric information of the person to be authenticated is detected from the acquired first information,
The biometric information of the detected person to be authenticated is collated with the biometric information of the registrant stored in the storage means,
When there are a plurality of biometric information of the registrant who is determined to be the same person as the biometric information of the person to be authenticated by this collation, second information including feature information other than the biometric information of the person to be authenticated is acquired. And
From the acquired second information, feature information other than the biometric information of the person to be authenticated is detected,
The result of the biometric matching process is performed by comparing the detected feature information other than the biometric information of the authentication target person with the feature information other than the biometric information of the registrant determined to be the same person as the authentication target person. Determine
A biometric matching method characterized by the above.
JP2008254342A 2008-09-30 2008-09-30 Biometrics matching device, face matching device and biometrics matching method Withdrawn JP2010086263A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008254342A JP2010086263A (en) 2008-09-30 2008-09-30 Biometrics matching device, face matching device and biometrics matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008254342A JP2010086263A (en) 2008-09-30 2008-09-30 Biometrics matching device, face matching device and biometrics matching method

Publications (1)

Publication Number Publication Date
JP2010086263A true JP2010086263A (en) 2010-04-15

Family

ID=42250167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008254342A Withdrawn JP2010086263A (en) 2008-09-30 2008-09-30 Biometrics matching device, face matching device and biometrics matching method

Country Status (1)

Country Link
JP (1) JP2010086263A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191066A (en) * 2012-03-14 2013-09-26 Toshiba Corp Collation device, method, and program
JP2021056959A (en) * 2019-10-02 2021-04-08 ビーコア株式会社 Authentication device, method, and program
JP2021179890A (en) * 2020-05-15 2021-11-18 国立大学法人広島大学 Image recognition device, authentication system, image recognition method, and program
WO2022092305A1 (en) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 Biological information acquisition device, biological authentication device, and biological information acquisition method
WO2024057457A1 (en) * 2022-09-14 2024-03-21 日本電気株式会社 Authentication terminal, system, control method of authentication terminal, and recording medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013191066A (en) * 2012-03-14 2013-09-26 Toshiba Corp Collation device, method, and program
US9471830B2 (en) 2012-03-14 2016-10-18 Kabushiki Kaisha Toshiba Collation apparatus, collation method, and computer program product
JP2021056959A (en) * 2019-10-02 2021-04-08 ビーコア株式会社 Authentication device, method, and program
JP2021179890A (en) * 2020-05-15 2021-11-18 国立大学法人広島大学 Image recognition device, authentication system, image recognition method, and program
WO2022092305A1 (en) * 2020-10-30 2022-05-05 パナソニックIpマネジメント株式会社 Biological information acquisition device, biological authentication device, and biological information acquisition method
WO2024057457A1 (en) * 2022-09-14 2024-03-21 日本電気株式会社 Authentication terminal, system, control method of authentication terminal, and recording medium

Similar Documents

Publication Publication Date Title
US20210334571A1 (en) System for multiple algorithm processing of biometric data
US10728242B2 (en) System and method for biometric authentication in connection with camera-equipped devices
Jain et al. An introduction to biometric recognition
JP4177598B2 (en) Face image recording apparatus, information management system, face image recording method, and information management method
US20060158307A1 (en) System and method for face recognition
TWI727329B (en) Anti-spoofing system and method for providing selective access to resources based on a deep learning method
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
US20210006558A1 (en) Method, apparatus and system for performing authentication using face recognition
JP7056194B2 (en) Information processing equipment
JP2008305400A (en) Face image recording apparatus, and face image recording method
CN108959884B (en) Human authentication verification device and method
JP4521086B2 (en) Face image recognition apparatus and face image recognition method
JP2010086263A (en) Biometrics matching device, face matching device and biometrics matching method
JP6707702B1 (en) User authentication device and program
JP4812400B2 (en) Authentication apparatus and authentication method
JP4571426B2 (en) Authentication system
JP2008165353A (en) Monitoring system
JP2012108645A (en) Egress/ingress management system and personal identification data reading device
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
JP2003256813A (en) Operator monitoring device
Dhir et al. Biometric recognition: A modern era for security
JP4434560B2 (en) Entrance / exit management system
TWI771819B (en) Authentication system, authentication device, authentication method, and program product
JP2018074317A (en) Person specification support device
AU2005100275A4 (en) User authentication appratus using human body movement detection biometrics system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206