JP2005202765A - Biometric collating device, biometric collating method, and passing controller - Google Patents

Biometric collating device, biometric collating method, and passing controller Download PDF

Info

Publication number
JP2005202765A
JP2005202765A JP2004009331A JP2004009331A JP2005202765A JP 2005202765 A JP2005202765 A JP 2005202765A JP 2004009331 A JP2004009331 A JP 2004009331A JP 2004009331 A JP2004009331 A JP 2004009331A JP 2005202765 A JP2005202765 A JP 2005202765A
Authority
JP
Japan
Prior art keywords
person
information
biometric information
biometric
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004009331A
Other languages
Japanese (ja)
Other versions
JP4363994B2 (en
Inventor
Osamu Ishihara
修 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004009331A priority Critical patent/JP4363994B2/en
Publication of JP2005202765A publication Critical patent/JP2005202765A/en
Application granted granted Critical
Publication of JP4363994B2 publication Critical patent/JP4363994B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a biometric collating device for enabling a collation object person to feel that collation processing has ended in a shorter period of time than the actual collating time, and for enabling the collation object person to move to a position optimal to the collation processing. <P>SOLUTION: In 1 to N collation in a biometric collating device for deciding whether or not the collation object person is a principal by using the moving image of the collation object person, when the face region of the collation object person is detected, the collation processing is started, and it is displayed that the collation processing is under way after the lapse of a predetermined time (for three frame images). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、たとえば、セキュリティ管理などにおいて人物の顔画像、指紋画像、虹彩情報、掌形画像、指画像、音声情報、精脈情報などの生体情報を用いて当該人物が本人であるか否かを判定する生体照合装置および生体照合方法に関する。
また、本発明は、上記生体照合装置を用いて通行者の通行(たとえば、重要施設の入退場など)を制御する通行制御装置に関する。
Whether or not the person is the person using the biological information such as the face image, fingerprint image, iris information, palm image, finger image, voice information, sympathetic information, etc. The present invention relates to a biometric matching device and a biometric matching method.
The present invention also relates to a traffic control device that controls a passerby's traffic (for example, entrance / exit of an important facility) using the biometric matching device.

一般に、この種の生体照合装置は、あらかじめ照合対象者として登録された人物の生体情報をカメラやセンサなどを用いて取得し、この取得した生体情報から得られる当該人物固有の特徴情報を辞書情報として辞書記憶手段にあらかじめ記憶(登録)しておく。   In general, this type of biometric matching device acquires biometric information of a person registered in advance as a verification target person using a camera, a sensor, or the like, and the person-specific feature information obtained from the acquired biometric information is dictionary information. Is stored (registered) in advance in the dictionary storage means.

そして、照合時には、照合対象者としての人物の生体情報をカメラやセンサなどを用いて再度取得し、この取得した生体情報から得られる当該人物固有の特徴情報を辞書記憶手段にあらかじめ記憶(登録)されている辞書情報と照合することにより両情報の類似度を求めることにより、その求めた類似度により当該照合対象者が本人であるか否かを判定するようになっている。   And at the time of collation, the biometric information of the person as a collation subject is acquired again using a camera, a sensor, etc., and the characteristic information peculiar to the person obtained from the acquired biometric information is stored (registered) in the dictionary storage means in advance. By determining the similarity between the two information by collating with the dictionary information, it is determined whether or not the person to be collated is the person himself / herself based on the obtained similarity.

このような生体照合装置では、辞書記憶手段に登録されている全て(複数)の辞書情報とそれぞれ照合を行なう照合モード(以下、これを1:N照合モードと称す)、および、特定情報により照合する人物を特定してから当該人物に対応する辞書情報と照合を行なう照合モード(以下、これを1:1照合モードと称す)などがあり、照合中は照合対象者に対し照合中であることを知らせるようになっている。   In such a biometric collation apparatus, collation mode (hereinafter referred to as 1: N collation mode) in which collation is performed with all (a plurality of) dictionary information registered in the dictionary storage unit, and collation is performed using specific information. A collation mode (hereinafter referred to as 1: 1 collation mode) for collating with dictionary information corresponding to the person after specifying the person to be collated, and collating with the person to be collated during collation Is to inform you.

ところで、最近、入力される動画像により生体照合(たとえば、顔照合)を行なう生体照合装置が開発されている。この動画像による生体照合を行なう生体照合装置は、たとえば、ビデオカメラを用いて、照合対象者としての人物の顔画像を連続的に複数フレーム入力し、この連続的に入力される複数フレームの入力画像からそれぞれ得られる当該人物固有の顔の特徴情報を辞書記憶手段にあらかじめ記憶されている辞書情報と順次照合することにより両情報の各類似度をそれぞれ求め、この求めた各類似度により当該人物が本人であるか否かを判定するものである。   By the way, recently, a biometric matching apparatus that performs biometric matching (for example, face matching) using an input moving image has been developed. A biometric matching device that performs biometric matching using moving images, for example, using a video camera, continuously inputs a plurality of frames of a person's face image as a person to be verified, and inputs a plurality of frames that are continuously input. The person's unique facial feature information respectively obtained from the image is sequentially compared with dictionary information stored in advance in the dictionary storage means to obtain the similarity between the two information, and the person is obtained from the obtained similarity. Is to determine whether or not the person is the person.

しかし、動画像による生体照合を行なう生体照合装置では、必要な枚数(フレーム分)の画像を取得するまで照合結果を出力することができないので、照合時間が長くなるという特徴がある。そこで、照合時間を短くするために、複数の画像の取得間隔を短くすることが考えられるが、そのようにした場合、高速に処理できる計算機が必要になる上、入力画像間の変化が少なく、入力画像のバリエーションがなくなり、照合性能に影響がでてしまう。   However, a biometric matching device that performs biometric matching using moving images is characterized in that the matching result cannot be output until the necessary number of images (for frames) are acquired, and therefore the matching time is increased. Therefore, in order to shorten the collation time, it is conceivable to shorten the acquisition interval of a plurality of images, but in such a case, a computer that can process at high speed is required, and there is little change between input images, There will be no variations in the input image, and the collation performance will be affected.

また、通常、1対N照合では、照合対象者が画像取得手段としてのカメラに対し遠くから近ずいたり、カメラの左右方向から中央に移動してきて、顔領域が検出された時点で照合処理を開始する。照合処理を開始した時点で直ぐに照合処理を開始したことを照合対象者に知らせると、照合対象者はその位置で立ち止まることがある。その場合、照合処理に適切な顔領域ではなく、ぎりぎり検出できた顔領域で照合処理することになり、照合性能に大きな影響がでてしまう。   Normally, in 1-to-N collation, the collation process is performed when a face area is detected when the person to be collated approaches from the camera as the image acquisition means from the distance or moves from the left-right direction to the center of the camera. Start. If the verification target person is informed that the verification process is started immediately after the verification process is started, the verification target person may stop at that position. In this case, the matching process is performed not on the face area suitable for the matching process but on the face area that can be detected at the last minute, which greatly affects the matching performance.

そこで、本発明は、照合対象者に対し実際の照合時間よりも短い時間で照合処理が終了したように感じさせることができ、かつ、照合処理に最適な位置に照合対象者を移動させることができる生体照合装置、生体照合方法および通行制御装置を提供することを目的とする。   Therefore, the present invention makes it possible for the verification target person to feel that the verification process has been completed in a time shorter than the actual verification time, and to move the verification target person to an optimal position for the verification process. An object of the present invention is to provide a biometric matching device, a biometric matching method, and a traffic control device.

本発明の生体照合装置は、照合対象者としての人物の生体情報を取得する生体情報取得手段と、あらかじめ照合対象者として登録された複数の人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、前記生体情報取得手段の取得結果から前記照合対象者としての人物の生体情報領域を検出する生体情報領域検出手段と、この生体情報領域検出手段により前記照合対象者としての人物の生体情報領域が検出されると、当該人物の生体情報を連続的に複数取得するよう前記生体情報取得手段を制御する第1の制御手段と、この第1の制御手段の制御により前記生体情報取得手段から得られる複数の生体情報を前記辞書記憶手段に記憶された複数の辞書情報とそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、前記生体情報領域検出手段により前記照合対象者としての人物の生体情報領域が検出されると計時動作を開始する計時手段と、この計時手段により計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示手段とを具備している。   The biometric matching device of the present invention includes a biometric information acquisition unit that acquires biometric information of a person as a person to be collated, and unique feature information obtained from biometric information of a plurality of persons registered in advance as a person to be collated. Dictionary storage means for storing information, biometric information area detecting means for detecting a biometric information area of a person as the verification target person from the acquisition result of the biometric information acquisition means, and the verification target person by the biometric information area detection means When the biometric information area of the person is detected, a first control unit that controls the biometric information acquisition unit so as to continuously acquire a plurality of biometric information of the person, and the control of the first control unit A plurality of pieces of biological information obtained from the biological information acquisition unit are respectively compared with a plurality of pieces of dictionary information stored in the dictionary storage unit. The collating means for determining whether or not the person as the person to be collated is the person, and the time counting operation that starts when the biological information area of the person as the person to be collated is detected by the biological information area detecting means And a display means for displaying information indicating that the collation is currently being performed when the time counted by the timing means reaches a predetermined set value.

また、本発明の生体照合方法は、照合対象者としての人物の生体情報を取得する生体情報取得ステップと、この生体情報取得ステップの取得結果から前記照合対象者としての人物の生体情報領域を検出する生体情報領域検出ステップと、この生体情報領域検出ステップにより前記照合対象者としての人物の生体情報領域が検出されると、前記照合対象者としての人物の生体情報を連続的に複数取得するよう制御する第1の制御ステップと、この第1の制御ステップの制御により得られる複数の生体情報と、あらかじめ照合対象者として登録された複数の人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段に記憶された複数の辞書情報とをそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合ステップと、前記生体情報領域検出ステップにより前記照合対象者としての人物の生体情報領域が検出されると計時動作を開始する計時ステップと、この計時ステップにより計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示ステップとを具備している。   The biometric matching method of the present invention includes a biometric information acquisition step for acquiring biometric information of a person as a verification target person, and a biometric information region of the person as the verification target person from the acquisition result of the biometric information acquisition step. A biometric information area detecting step, and when the biometric information area of the person as the verification target person is detected by the biometric information area detection step, a plurality of biometric information of the person as the verification target person is continuously acquired. A first control step to be controlled, a plurality of pieces of biometric information obtained by the control of the first control step, and unique feature information obtained from biometric information of a plurality of persons registered in advance as verification subjects By collating each of a plurality of dictionary information stored in the dictionary storage means for storing as information, the person to be collated is based on each collation result A collation step for determining whether or not the person is the person, and a clocking step for starting a clocking operation when the biometric information area of the person as the collation target person is detected by the biometric information area detection step, When the time counted by this timing step reaches a predetermined set value, a display step is provided for displaying information indicating that the current verification is being performed.

さらに、本発明の通行制御装置は、照合対象者としての通行者の生体情報を取得する生体情報取得手段と、あらかじめ照合対象者として登録された複数の通行者の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、前記生体情報取得手段の取得結果から前記照合対象者としての通行者の生体情報領域を検出する生体情報領域検出手段と、この生体情報領域検出手段により前記照合対象者としての通行者の生体情報領域が検出されると、当該通行者の生体情報を連続的に複数取得するよう前記生体情報取得手段を制御する第1の制御手段と、この第1の制御手段の制御により前記生体情報取得手段から得られる複数の生体情報を前記辞書記憶手段に記憶された複数の辞書情報とそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての通行者が本人であるか否かを判定する照合手段と、この照合手段の判定結果に応じて前記照合対象者としての通行者の通行を制御する通行制御手段と、前記生体情報領域検出手段により前記照合対象者としての通行者の生体情報領域が検出されると計時動作を開始する計時手段と、この計時手段により計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示手段とを具備している。   Furthermore, the traffic control device of the present invention includes a biometric information acquisition unit that acquires biometric information of a passer-by as a person to be verified, and a unique information obtained from biometric information of a plurality of passers-by who have been registered in advance as verification persons. Dictionary storage means for storing feature information as dictionary information, biometric information area detection means for detecting a biometric information area of a passerby as the person to be collated from the acquisition result of the biometric information acquisition means, and this biometric information area detection means When the biometric information area of the passerby as the person to be collated is detected by the first control unit, the first control unit controls the biometric information acquisition unit so as to continuously acquire a plurality of the biometric information of the passerby, A plurality of pieces of biological information obtained from the biological information acquisition means by the control of one control means, respectively, by collating with a plurality of dictionary information stored in the dictionary storage means, Collation means for determining whether or not the passerby as the person to be collated is a person based on the result of collation, and traffic control for controlling the passage of the passerby as the person to be collated according to the determination result of the collation means And a time setting means for starting the time measuring operation when the biometric information area of the passerby as the person to be collated is detected by the biometric information area detecting means, and a time set by the time measuring means set in advance. When the value is reached, display means for displaying information indicating that the verification is currently being performed is provided.

本発明によれば、照合対象者に対し実際の照合時間よりも短い時間で照合処理が終了したように感じさせることができ、かつ、照合処理に最適な位置に照合対象者を移動させることができる生体照合装置、生体照合方法および通行制御装置を提供できる。   According to the present invention, it is possible to make the verification target person feel that the verification process is completed in a time shorter than the actual verification time, and to move the verification target person to an optimal position for the verification process. A biometric matching device, a biometric matching method, and a traffic control device can be provided.

以下、本発明の実施の形態について図面を参照して説明する。
なお、以下の説明では、人物の生体情報として顔画像を用いた場合を例として述べるが、顔画像以外に、指紋画像、虹彩情報、掌形画像、指画像、音声情報、精脈情報などの他の生体情報を用いても同様に実施できる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, a case where a face image is used as the biological information of a person will be described as an example. However, in addition to the face image, a fingerprint image, an iris information, a palm-shaped image, a finger image, voice information, rhythm information, etc. The same can be implemented using other biological information.

図1は、本実施の形態に係る生体照合装置の構成を概略的に示すものである。この生体照合装置は、照合対象者(以下、人物ともいう)100の顔画像(少なくとも顔を含んでいる画像)を撮像して入力する画像取得手段および生体情報取得手段としてのテレビジョンカメラ101、カメラ101の近傍から照合対象者100の少なくとも顔に向けて一定の照度で光を照射する照明手段としての照明部102、照合対象者100に対して入力された顔画像や各種案内などを表示したり、照合対象者100を特定するID番号(特定情報)やパスワードなどを入力したりする表示手段および入力手段としての入出力部103、および、カメラ101から入力された顔画像を処理して顔画像の認識処理などを行なう処理部104を有して構成されている。   FIG. 1 schematically shows a configuration of a biometric matching apparatus according to the present embodiment. The biometric matching device includes an image acquisition unit that captures and inputs a face image (an image including at least a face) of a verification target person (hereinafter also referred to as a person) 100, and a television camera 101 as a biometric information acquisition unit. Illumination unit 102 as illumination means for irradiating light with a constant illuminance from the vicinity of the camera 101 toward at least the face of the person 100 to be collated, a face image input to the person 100 to be collated, various types of guidance, and the like are displayed. Or a display unit for inputting an ID number (specific information) or a password for identifying the person to be verified 100, a password or the like, and an input / output unit 103 as an input unit, and a face image input from the camera 101 to process the face The image processing apparatus includes a processing unit 104 that performs image recognition processing and the like.

カメラ101は、照合対象者100の顔画像を下方から所定角度で撮像して入力するものであり、たとえば、CCDセンサなどの撮像素子を用いたテレビジョンカメラを有して構成されている。   The camera 101 captures and inputs a face image of the person 100 to be collated from below at a predetermined angle. For example, the camera 101 includes a television camera using an image sensor such as a CCD sensor.

照明部102は、カメラ101の近傍(たとえば、カメラ101の側部)から照合対象者100の顔に向けて一定の照度で光を照射する蛍光灯などの照明器具である。   The illuminating unit 102 is an illuminating device such as a fluorescent lamp that emits light at a constant illuminance from the vicinity of the camera 101 (for example, the side of the camera 101) toward the face of the person 100 to be verified.

入出力部103は、照合対象者100に対して、カメラ101で撮影されている照合対象者100の顔画像や各種ガイダンス、処理結果などを表示したり、照合対象者100の個人IDやパスワードなどを入力したりするもので、たとえば、液晶表示部とタッチパネルとを一体化して構成されていて、カメラ101の近傍、たとえば、カメラ101の上部で、ほぼ照合対象者100の顔部分と相対応する位置に設けられている。なお、表示によるガイダンスのみに限らず、音声によるガイダンス機能を付加してもよい。   The input / output unit 103 displays the face image of the verification target person 100 captured by the camera 101, various guidance, processing results, and the like for the verification target person 100, and the personal ID and password of the verification target person 100. For example, the liquid crystal display unit and the touch panel are integrated, and substantially correspond to the face portion of the person 100 to be collated near the camera 101, for example, above the camera 101. In the position. Note that not only the guidance by display but also a voice guidance function may be added.

処理部104は、カメラ101からの顔画像を入力する画像取得手段および生体情報取得手段としての画像入力部105、画像入力部105から得られた人物の顔画像を用いて、あらかじめ準備されたパターン辞書との照合で顔および目、鼻などの顔部品の位置を検出する顔検出手段および生体情報領域検出手段としての顔検出部106、顔検出部106の出力に基づき濃淡情報あるいは部分空間情報などの顔の特徴量(特徴情報)を抽出する特徴抽出手段としての特徴抽出部107、辞書情報の登録時に、特徴抽出部107で抽出された顔の特徴量(特徴情報)を辞書情報(認識データ)として記憶(登録)する辞書記憶手段としての辞書情報記憶部108、生体照合(顔照合)時には、特徴抽出部107で抽出された顔の特徴量(入力特徴情報)と辞書情報記憶部108に記憶されている辞書情報とを照合することにより、その照合結果に基づき当該照合対象者100は本人であるか否かを判定する照合手段としての認識部109、照明部102および入出力部103などを制御する制御手段としての制御部110を有して構成されている。   The processing unit 104 uses an image acquisition unit that inputs a face image from the camera 101, an image input unit 105 as a biometric information acquisition unit, and a human face image obtained from the image input unit 105 to prepare a pattern prepared in advance. Face detection means for detecting the position of face parts such as face, eyes and nose by collation with a dictionary, face detection section 106 as biometric information area detection means, density information or partial space information based on the output of face detection section 106, etc. The feature extraction unit 107 as a feature extraction unit that extracts the feature amount (feature information) of the face, and the facial feature amount (feature information) extracted by the feature extraction unit 107 at the time of registration of dictionary information is converted into dictionary information (recognition data). ) Is stored (registered) as dictionary storage means 108, and at the time of biometric matching (face matching), the facial feature amount (input characteristics) extracted by the feature extraction unit 107 is stored. Information) and the dictionary information stored in the dictionary information storage unit 108, thereby recognizing unit 109 as a verification unit for determining whether or not the verification target person 100 is the person based on the verification result, The control unit 110 is configured as a control unit that controls the illumination unit 102, the input / output unit 103, and the like.

なお、以下の説明では、画像入力データ、抽出した特徴量(特徴情報)、部分空間、部分空間を構成するための固有ベクトル、相関行列、登録の時刻、日時、場所などの状況情報、暗証番号、ID番号などの個人情報の各情報が存在する。そして、認識データと言うときは、部分空間、または、部分空間を構成するための固有ベクトルを含み、辞書情報(登録情報)と言うときは、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、状況情報、個人情報を含んでいる。したがって、認識データは登録情報に含まれる。   In the following description, image input data, extracted feature quantities (feature information), subspace, eigenvectors for constructing the subspace, correlation matrix, registration time, date / time, status information such as location, password, Each piece of personal information such as an ID number exists. And when it says recognition data, it contains the eigenvector for comprising a partial space or a partial space, and when it says dictionary information (registration information), it is image input data, the extracted feature-value, partial space, partial space. Includes an eigenvector, a correlation matrix, situation information, and personal information. Accordingly, the recognition data is included in the registration information.

画像入力部105は、カメラ101からの顔画像を入力し、A/D変換してデジタル化した後、顔検出部106へ送る。
顔検出部106は、まず、画像入力部105で入力された顔画像から照合対象者100の顔の領域を検出する。たとえば、あらかじめ用意されたテンプレートを、画像中を移動させながら相関値を求めることにより、最も高い相関値を持った場所を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などの顔検出手段でもよい。
The image input unit 105 inputs the face image from the camera 101, digitizes it by A / D conversion, and sends it to the face detection unit 106.
First, the face detection unit 106 detects a face area of the person 100 to be collated from the face image input by the image input unit 105. For example, by obtaining a correlation value while moving a template prepared in advance in an image, a place having the highest correlation value is set as a face region. In addition, face detection means such as a face region extraction method using an eigenspace method or a subspace method may be used.

顔検出部106は、次に、検出された顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。その検出方法は、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などの方法を用いてよい。   Next, the face detection unit 106 detects the position of the facial parts such as eyes, nose, and mouth from the detected face area. The detection method is described in, for example, literature (Kazuhiro Fukui, Osamu Yamaguchi: “Face Feature Point Extraction by Combination of Shape Extraction and Pattern Matching”, IEICE Transactions (D), vol. J80-D-II, No. 8, pp2170-2177 (1997)).

図2に、顔の検出結果と目、鼻の検出結果の一例を示す。図2において、(fx,fy)は顔の中心座標、(fw,fh)は顔の大きさ、(EyeLx,EyeLy)、(EyeRx,EyeRy)は左右の目の位置座標、(NoseLx,NoseLy)、(NoseRx,NoseRy)は左右の鼻孔の位置座標を示している。なお、目の位置とは黒目の中心点、鼻の位置とは鼻孔の中心点を示しているものとする。   FIG. 2 shows an example of face detection results and eye / nose detection results. In FIG. 2, (fx, fy) is the center coordinates of the face, (fw, fh) is the size of the face, (EyeLx, EyeLy), (EyeRx, EyeRy) are the position coordinates of the left and right eyes, (NoseLx, NoseLy) , (NoseRx, NoseRy) indicate the position coordinates of the left and right nostrils. The eye position indicates the center point of the black eye, and the nose position indicates the center point of the nostril.

特徴抽出部107は、顔検出部106で検出された顔部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、たとえば、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。   The feature extraction unit 107 cuts the face area into a certain size and shape based on the position of the face part detected by the face detection unit 106, and uses the shading information as a feature amount. Here, for example, the gray value of an area of m pixels × n pixels is used as information as it is, and m × n-dimensional information is used as a feature vector.

また、後で述べるように、認識を行なうための入力データとして部分空間自身を利用してもよい。したがって、部分空間を算出した結果は、認識部109および辞書情報記憶部108に送られる。   Further, as will be described later, the partial space itself may be used as input data for recognition. Therefore, the result of calculating the partial space is sent to the recognition unit 109 and the dictionary information storage unit 108.

辞書情報記憶部108は、照合対象者100を認識あるいは同定するために利用する部分空間(または、相関行列)などの辞書情報を保持している。また、登録の際の日時、時刻、場所などの属性情報も保持できる。なお、辞書情報として、部分空間に限らず、入力された顔画像や抽出された顔の特徴量そのものを用いてもよい。   The dictionary information storage unit 108 holds dictionary information such as a partial space (or correlation matrix) used for recognizing or identifying the person 100 to be verified. Also, attribute information such as date and time, time, and place at the time of registration can be held. The dictionary information is not limited to the partial space, and an input face image or an extracted face feature amount itself may be used.

認識部109は、辞書情報記憶部108に蓄えられた認識データ(部分空間)と特徴抽出部107で得られた特徴量(濃淡情報あるいは部分空間情報)とを照合(比較)することにより、カメラ101で撮影している照合対象者100が誰であるかを認識、あるいは、該当人物であるかどうかを同定する。人物を認識するためには、どの人物のデータに最も類似しているかを求めればよく、最大類似度をとるデータに対応する人物を認識結果とすればよい。   The recognizing unit 109 collates (compares) the recognition data (partial space) stored in the dictionary information storage unit 108 with the feature amount (shading information or partial space information) obtained by the feature extracting unit 107, thereby It recognizes who the person 100 to be collated who is photographing at 101 is identified, or identifies whether it is a corresponding person. In order to recognize a person, it suffices to determine which person's data is most similar, and the person corresponding to the data having the maximum similarity may be used as the recognition result.

また、カードやID番号、暗証番号、鍵などを用いて、顔画像による認識を行なう場合には、それぞれの人物のカードやID番号などの個人情報に対応する認識データとの類似度を計算して、設定した閾値と照合し、その閾値を越えた場合に、その人物と同定する。   In addition, when performing facial recognition using a card, ID number, personal identification number, key, etc., the degree of similarity with recognition data corresponding to personal information such as each person's card or ID number is calculated. The threshold is set, and if the threshold is exceeded, the person is identified.

これらカードやID番号、暗証番号、鍵など入力する手段が必要であるが、たとえば、カードならICカード、IDカード、無線カードなどを用いることで実現できる。ID番号や暗証番号を用いる場合は、キー入力手段を設ければよい。   Means for inputting such a card, an ID number, a personal identification number, a key, and the like are necessary. When an ID number or a password is used, key input means may be provided.

認識の方法としては、特徴抽出部107の情報を用いる場合は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での認識方法は、たとえば、文献(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」、電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))に記載されている公知の認識方法である相互部分空間法を用いる。   As a recognition method, when information of the feature extraction unit 107 is used, a method such as a subspace method or a composite similarity method may be used. The recognition method in the present embodiment is, for example, a literature (Kenichi Maeda, Sadaichi Watanabe: “Pattern matching method introducing a local structure”, IEICE Transactions (D), vol. J68-D, No. 3, pp 345-352 (1985)), a mutual subspace method which is a known recognition method is used.

この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、

Figure 2005202765
In this method, both the recognition data in the registration information stored in advance and the input data are expressed as partial spaces, and the “angle” formed by the two partial spaces is defined as the similarity. The subspace input here is referred to as an input subspace. Similarly, a correlation matrix Cin is obtained for the input data string,
Figure 2005202765

と対角化し、固有ベクトルΦinを求める。2つのΦin、Φdで表わされる部分空間の部分空間類似度(0.0〜1.0)を求め、それを認識するための類似度とする。 And the eigenvector Φin is obtained. The subspace similarity (0.0 to 1.0) of the subspace represented by two Φin and Φd is obtained and used as the similarity for recognizing it.

認識部109は、図3に示すフローチャートのように動作する。まず、認識処理(1対N照合)を行なうか、同定処理(1対1照合)を行なうかによって動作が異なる(ステップST1)。同定処理を行なう場合は、まず対象とする照合対象者のID番号を読込む(ステップST2)。次に、対象とするID番号に対応した登録情報(辞書情報)を辞書情報記憶部108から読出す(ステップST3)。   The recognition unit 109 operates as in the flowchart shown in FIG. First, the operation varies depending on whether recognition processing (one-to-one matching) or identification processing (one-to-one matching) is performed (step ST1). When performing the identification process, first, the ID number of the target person to be collated is read (step ST2). Next, registration information (dictionary information) corresponding to the target ID number is read from the dictionary information storage unit 108 (step ST3).

次に、上述したように、部分空間法などにより認識を行なうため、各登録情報の部分空間と、入力ベクトル(特徴抽出部107からの固有ベクトル)、または、入力部分空間との類似度を計算する(ステップST4)。次に、その類似度をあらかじめ設定されている閾値と比較し(ステップST5,ST6)、同定結果を出力する(ステップST7)。   Next, as described above, in order to perform recognition by the subspace method or the like, the similarity between the subspace of each registered information and the input vector (eigenvector from the feature extraction unit 107) or the input subspace is calculated. (Step ST4). Next, the similarity is compared with a preset threshold value (steps ST5 and ST6), and the identification result is output (step ST7).

認識処理を行なう場合、照合対象となる辞書情報を全て辞書情報記憶部108から読出す(ステップST8)。そして、それぞれの辞書情報との類似度を計算する(ステップST9)。次に、計算された類似度の中から最大のものを選択し(ステップST10)、それを認識結果として出力する(ステップST12)。   When performing recognition processing, all dictionary information to be collated is read from the dictionary information storage unit 108 (step ST8). Then, the similarity with each dictionary information is calculated (step ST9). Next, the maximum similarity is selected from the calculated similarities (step ST10), and is output as a recognition result (step ST12).

なお、図3の破線で囲んだステップST11のように、最大類似度を閾値判定することによって、認識結果が正しいかどうかを検証することもできる(ステップST13)。たとえば、類似度があまりに低い場合には、どの認識対象でもないと判断することもできる。   Note that it is also possible to verify whether the recognition result is correct by determining the maximum similarity as a threshold value as in step ST11 surrounded by a broken line in FIG. 3 (step ST13). For example, when the degree of similarity is too low, it can be determined that it is not any recognition target.

次に、このような構成において図4に示すフローチャートを参照して顔照合処理の流れについて説明する。
いま、照合対象者100が本装置(カメラ101)に向かってくるものとすると、カメラ101はその照合対象者100の顔画像を取込み(ステップS1)、画像入力部105を介して顔検出部106および制御部110へ送る。制御部110は、取込んだ画像を入出力部103に表示する(ステップS2)。このときの表示画像例を図5(a)に示している。図中、符号M1は取込んだ照合対象者100の顔画像(入力画像)を示し、符号P1は照合対象者100に対して表示される案内文(たとえば「カメラの前にお立ちください」)を示しており、この入力画像例は照合対象者100がまだカメラ101から遠い位置にいることを示している。
Next, the flow of face matching processing in such a configuration will be described with reference to the flowchart shown in FIG.
Now, assuming that the verification target person 100 comes toward the present apparatus (camera 101), the camera 101 captures the face image of the verification target person 100 (step S1), and the face detection unit 106 via the image input unit 105. And to the control unit 110. The control unit 110 displays the captured image on the input / output unit 103 (step S2). An example of the display image at this time is shown in FIG. In the figure, symbol M1 indicates the captured face image (input image) of the person 100 to be verified, and symbol P1 indicates a guidance sentence displayed for the person 100 to be verified (for example, “Please stand in front of the camera”). This example of the input image shows that the verification target person 100 is still far from the camera 101.

顔検出部106は、カメラ101により取込んだ画像から顔領域を検出する処理を行なう(ステップS3)。次に、顔領域を検出できたか否かをチェックし(ステップS4)、顔領域を検出できなかった場合、ステップS1に戻って再度顔画像を取込み、上記同様な処理を繰り返す。   The face detection unit 106 performs a process of detecting a face area from the image captured by the camera 101 (step S3). Next, it is checked whether or not the face area can be detected (step S4). If the face area cannot be detected, the process returns to step S1 to capture the face image again and repeat the same processing as described above.

たとえば、カメラ101により取込んだ画像が図5(b)に示すM2のようになり、ステップS4において顔領域を検出できた場合、制御部110は、図示しないハードタイマあるいはソフトタイマを用いて計時動作を開始する(ステップS5)とともに、1対N照合モード(登録してある全ての辞書情報と照合するモード)による照合処理を開始する(ステップS6)。ここに、ステップS5の処理が本発明における計時手段に対応している。   For example, when the image captured by the camera 101 becomes like M2 shown in FIG. 5B and the face area can be detected in step S4, the control unit 110 counts time using a hardware timer or software timer (not shown). The operation is started (step S5) and collation processing in the 1-to-N collation mode (a mode for collating with all registered dictionary information) is started (step S6). Here, the process of step S5 corresponds to the time measuring means in the present invention.

すなわち、画像入力部105は、カメラ101から第1フレーム目の画像を取得し、顔検出部106へ送る(ステップS7)。顔検出部106は、カメラ101により取込んだ第1フレーム目の画像から顔領域を検出し、検出した顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。   That is, the image input unit 105 acquires the first frame image from the camera 101, and sends the image to the face detection unit 106 (step S7). The face detection unit 106 detects a face area from the first frame image captured by the camera 101, and detects the position of a facial part such as eyes, nose, and mouth from the detected face area.

次に、特徴抽出部107は、顔検出部106で検出された顔部品の位置を基に顔の特徴量を抽出し、認識部109へ送る。認識部109は、特徴抽出部107で抽出された顔の特徴量(特徴情報)を辞書情報記憶部108内の全ての辞書情報とをそれぞれ照合することにより両情報の各類似度を求め、この求めた各類似度の中から最大値を示す類似度を選択し、この選択した最大値を示す類似度を図示しないメモリに一時記憶する(ステップS8)。   Next, the feature extraction unit 107 extracts a facial feature amount based on the position of the face part detected by the face detection unit 106 and sends it to the recognition unit 109. The recognizing unit 109 obtains each similarity degree of both pieces of information by collating the feature amount (feature information) of the face extracted by the feature extracting unit 107 with all the dictionary information in the dictionary information storage unit 108. A similarity indicating a maximum value is selected from the obtained similarities, and the similarity indicating the selected maximum value is temporarily stored in a memory (not shown) (step S8).

次に、制御部110は、ステップS5で計時動作を開始した計時時間があらかじめ定められた設定値に達したか否かをチェックし(ステップS9)、計時時間がまだ設定値に達していない場合はステップS7に戻り、次のフレームに対し上記同様な処理を繰り返す。ここに、上記設定値は、たとえば、カメラ101により画像を取込むフレーム間隔が100msであるとすると、300ms(フレーム画像を3枚取得する時間)に設定される。   Next, the control unit 110 checks whether or not the time measured when the time measuring operation is started in step S5 has reached a predetermined set value (step S9), and the time measured has not yet reached the set value. Returns to step S7 and repeats the same processing as described above for the next frame. Here, for example, if the frame interval for capturing an image by the camera 101 is 100 ms, the set value is set to 300 ms (time for acquiring three frame images).

ステップS9におけるチェックの結果、計時時間が設定値に達した場合、制御部110は、図5(c)に示すように、入出力部103の画面内に、現在照合中であることを示す情報、たとえば、照合中であることを示す文字パターン(たとえば、「照合中」)P2を、このときの入力画像M3とともに照合対象者100に対し表示する(ステップS10)。   As a result of the check in step S9, when the timekeeping time reaches the set value, the control unit 110, as shown in FIG. For example, a character pattern (for example, “under collation”) P2 indicating that collation is being performed is displayed to the collation target person 100 together with the input image M3 at this time (step S10).

次に、制御部110は、あらかじめ定められたフレーム数(たとえば、前述したように画像を取込むフレーム間隔が100msであるとすると、13枚)の画像取得が終了したか否かをチェックし(ステップS11)、まだ終了していない場合はステップS7に戻り、次のフレームに対し上記同様な処理を繰り返す。   Next, the control unit 110 checks whether or not image acquisition for a predetermined number of frames (for example, 13 frames if the frame interval for capturing images is 100 ms as described above) has ended ( Step S11) If not completed yet, the process returns to Step S7, and the same processing as described above is repeated for the next frame.

ステップS11におけるチェックの結果、あらかじめ定められたフレーム数の画像取得が終了した場合、制御部110は、図示しないメモリに一時記憶しておいた各フレーム画像ごとの最大類似度(第1フレーム画像から第13フレーム画像までの各最大類似度)から最高値を示す類似度を選択し、この選択した最高値を示す類似度の人物を照合対象者100であると判定し、その判定結果を出力する(ステップS12)。
次に、制御部110は、入出力部103の画面内に表示した現在照合中であることを示す文字パターンP2を消灯せしめ(ステップS12)、照合処理を終了する。
As a result of the check in step S11, when image acquisition for a predetermined number of frames is completed, the control unit 110 determines the maximum similarity (from the first frame image) for each frame image temporarily stored in a memory (not shown). The similarity indicating the highest value is selected from each maximum similarity (up to the 13th frame image), the person having the similarity indicating the selected highest value is determined to be the person 100 to be collated, and the determination result is output. (Step S12).
Next, the control unit 110 turns off the character pattern P2 displayed on the screen of the input / output unit 103 and indicating that the current verification is being performed (step S12), and ends the verification process.

なお、上記第1の実施の形態では、現在照合中であることを示す情報として文字パターン(たとえば、「照合中」)を表示する場合について説明したが、本発明はこれに限定されるものでなく、たとえば、記号や入出力部103とは別の専用の表示器などで表示してもよい。   In the first embodiment, the case where a character pattern (for example, “during collation”) is displayed as information indicating that collation is currently being performed has been described. However, the present invention is not limited to this. For example, the display may be performed by a dedicated display or the like other than the symbols and the input / output unit 103.

次に、第2の実施の形態について説明する。
第2の実施の形態は、第1の実施の形態で説明した生体照合装置を、通行者の顔画像を認識して通行者の通行を制御する通行制御装置に適用した場合の例である。
Next, a second embodiment will be described.
The second embodiment is an example in which the biometric matching device described in the first embodiment is applied to a traffic control device that recognizes a passer's face image and controls the traffic of the passer.

図6は、第2の実施の形態に係る通行制御装置の構成を概略的に示すものである。この通行制御装置は、たとえば、重要施設(セキュリティ重視の部屋など)への入退室管理を行なうもので、利用者(通行者)の顔画像を認識して、その認識結果に基づき重要施設の入退室用ドアの開閉制御を行なうものであり、カメラ101、照明部102、入出力部103、処理部104、および、認識部109の認識結果に応じて重要施設201の入退室用ドア202の開閉制御を行なう通行制御手段としてのドア制御部112を有して構成されている。
なお、図6において、ドア制御部112以外は図1の生体照合装置と同じ構成であるので、同一符号を付して、その説明は省略する。
FIG. 6 schematically shows the configuration of the traffic control device according to the second embodiment. This traffic control device, for example, manages entry / exit to important facilities (such as security-oriented rooms), recognizes the face image of the user (passerby), and enters the important facility based on the recognition result. Open / close control of the exit door is performed, and the entrance / exit door 202 of the important facility 201 is opened / closed according to the recognition results of the camera 101, the illumination unit 102, the input / output unit 103, the processing unit 104, and the recognition unit 109. The door control unit 112 is configured as a traffic control means for performing control.
In FIG. 6, the configuration other than the door control unit 112 is the same as that of the biometric matching device in FIG. 1, and thus the same reference numerals are given and description thereof is omitted.

認識部109は、照合対象者100が本人であると判定した場合、ドア制御部112に「ドア開」の信号を出力し、照合対象者100が本人でないと判定した場合、ドア制御部112に「ドア閉」の信号を出力する。
ドア制御部112は、認識部109から「ドア開」の信号を受取ると、入退室用ドア202を開状態に制御して、照合対象者(この場合は通行者)100の入室を許可し、「ドア閉」の信号を受取ると、入退室用ドア202を閉状態に保持して、通行者100の入室を拒否する。
このように、第2の実施の形態によれば、第1の実施の形態で説明した生体照合装置を用いて通行者の通行を制御することができる。
When the recognition unit 109 determines that the verification target person 100 is the person himself / herself, the recognition unit 109 outputs a “door open” signal to the door control unit 112. When the recognition unit 109 determines that the verification target person 100 is not the person himself / herself, Outputs “door closed” signal.
When the door control unit 112 receives the “door open” signal from the recognition unit 109, the door control unit 112 controls the entrance / exit door 202 to be in an open state, and allows the verification target person (passer in this case) 100 to enter the room. When the “door closed” signal is received, the entrance / exit door 202 is kept closed, and the passer-by 100 is refused to enter the room.
As described above, according to the second embodiment, it is possible to control the passage of passers-by using the biometric matching device described in the first embodiment.

以上説明したように、上記実施の形態によれば以下のような作用効果が期待できる。
すなわち、キー入力などの操作を伴わない1対N照合では、いつ照合処理が開始されたのかわからないため、照合中を示す表示があって初めて照合中であることを照合対象者は認識する。そのため、照合処理が開始されているのに、この照合中表示の開始を遅らせても違和感なく照合処理を行なわせることができる。これにより、実際には照合処理に必要な画像を既に取得しているのに照合対象者は意識していなく、実際に照合中という表示があってから取得しているように認識させ、実際の照合時間よりも短い時間で照合処理が終了したように感じさせ、照合処理の負担を軽減させることができる。
As described above, according to the above embodiment, the following operational effects can be expected.
That is, in the one-to-N collation that does not involve an operation such as key input, it is not known when the collation process is started. Therefore, the collation target person recognizes that the collation is in progress only after the display indicating that collation is being performed. Therefore, even if the collation process is started, the collation process can be performed without a sense of incongruity even if the start of the collation display is delayed. As a result, the target person is not aware of the image that is actually required for the verification process, but the target person is not aware of it. It is possible to make the user feel as if the collation process has been completed in a time shorter than the collation time, thereby reducing the burden of the collation process.

また、1対N照合では、照合対象者は顔領域が検出されない位置から顔検出が行なわれる位置へ移動して照合処理を開始させる。その際、照合対象者に照合処理が開始されたことを知らせるのを遅らせることにより、顔領域検出のぎりぎりの位置に立ち止まらず、さらにカメラに近ずいたり中央に移動するようになる。それにより、顔照合に最適な顔領域にさせることができ、照合性能を向上させることができる。   In the 1-to-N matching, the person to be matched moves from a position where no face area is detected to a position where face detection is performed, and starts the matching process. At that time, by delaying notifying the person to be collated that the collation process has been started, the person closes to the camera or moves to the center without stopping at the last position of face area detection. Thereby, it is possible to make the face region optimal for face matching, and to improve matching performance.

本発明の第1の実施の形態に係る生体照合装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing a configuration of a biometric matching device according to a first embodiment of the present invention. 顔検出部の処理を説明するための図。The figure for demonstrating the process of a face detection part. 認識部の処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process of a recognition part. 顔照合処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a face collation process. 入力画像および現在照合中を示す情報の表示例を示す図。The figure which shows the example of a display of the information which shows that an input image and now collating. 本発明の第2の実施の形態に係る通行制御装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the traffic control apparatus which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

100…照合対象者(人物、通行者)、101…カメラ(生体情報取得手段、画像入力手段)、102…照明部、103…入出力部(入力手段、表示手段)、104…処理部、105…画像入力部(生体情報取得手段、画像入力手段)、106…顔検出部(生体情報領域検出手段、顔検出手段)、107…特徴抽出部(特徴抽出手段)、108…辞書情報記憶部(辞書記憶手段)、109…認識部(照合手段)、110…制御部(制御手段、計時手段)、112…ドア制御部(通行制御手段)、201…重要施設、202…入退室用ドア。   DESCRIPTION OF SYMBOLS 100 ... Person to be verified (person, passerby), 101 ... Camera (biological information acquisition means, image input means), 102 ... Illumination section, 103 ... Input / output section (input means, display means), 104 ... Processing section, 105 ... image input part (biological information acquisition means, image input means), 106 ... face detection part (biological information area detection means, face detection means), 107 ... feature extraction part (feature extraction means), 108 ... dictionary information storage part ( Dictionary storage means), 109... Recognition section (collation means), 110... Control section (control means, timing means), 112. Door control section (traffic control means), 201.

Claims (6)

照合対象者としての人物の生体情報を取得する生体情報取得手段と、
あらかじめ照合対象者として登録された複数の人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記生体情報取得手段の取得結果から前記照合対象者としての人物の生体情報領域を検出する生体情報領域検出手段と、
この生体情報領域検出手段により前記照合対象者としての人物の生体情報領域が検出されると、当該人物の生体情報を連続的に複数取得するよう前記生体情報取得手段を制御する第1の制御手段と、
この第1の制御手段の制御により前記生体情報取得手段から得られる複数の生体情報を前記辞書記憶手段に記憶された複数の辞書情報とそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、
前記生体情報領域検出手段により前記照合対象者としての人物の生体情報領域が検出されると計時動作を開始する計時手段と、
この計時手段により計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示手段と、
を具備したことを特徴とする生体照合装置。
Biometric information acquisition means for acquiring biometric information of a person as a person to be verified;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from biometric information of a plurality of persons registered in advance as verification subjects;
Biometric information area detection means for detecting a biometric information area of a person as the person to be collated from the acquisition result of the biometric information acquisition means;
When the biological information area of the person as the person to be collated is detected by the biological information area detection means, a first control means for controlling the biological information acquisition means to continuously acquire a plurality of biological information of the person. When,
By collating a plurality of pieces of biometric information obtained from the biometric information acquisition unit by the control of the first control unit with a plurality of dictionary information stored in the dictionary storage unit, the collation target is based on each collation result. Verification means for determining whether or not the person as the person is the person,
Timing means for starting a timing operation when the biological information area of the person as the person to be collated is detected by the biological information area detection means;
When the time measured by the time measuring means reaches a predetermined set value, display means for displaying information indicating that the current verification is being performed;
A biometric collation apparatus comprising:
照合対象者としての人物の顔画像を取得する画像取得手段と、
あらかじめ照合対象者として登録された複数の人物の顔画像から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記画像取得手段により取得された画像から前記照合対象者としての人物の顔領域を検出する顔検出手段と、
この顔検出手段により前記照合対象者としての人物の顔領域が検出されると、当該人物の顔画像を連続的に複数取得するよう前記画像取得手段を制御する第1の制御手段と、
この第1の制御手段により前記画像取得手段から得られる複数の顔画像に対し前記顔検出手段により前記照合対象者としての人物の顔領域が検出されると、当該顔領域の画像情報により当該人物固有の特徴情報を抽出する特徴抽出手段と、
この特徴抽出手段により抽出された特徴情報と前記辞書記憶手段に記憶された複数の辞書情報とをそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、
前記顔検出手段により前記照合対象者としての人物の顔領域が検出されると計時動作を開始する計時手段と、
この計時手段により計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示手段と、
を具備したことを特徴とする生体照合装置。
Image acquisition means for acquiring a face image of a person as a person to be verified;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from face images of a plurality of persons registered in advance as verification targets;
Face detection means for detecting a face area of a person as the person to be collated from the image acquired by the image acquisition means;
A first control unit that controls the image acquisition unit so as to continuously acquire a plurality of face images of the person when the face detection unit detects the face area of the person as the person to be collated;
When a face area of a person as the person to be collated is detected by the face detection means for a plurality of face images obtained from the image acquisition means by the first control means, the person is identified by image information of the face area. Feature extraction means for extracting unique feature information;
Whether or not the person as the person to be collated is the person himself / herself by collating the feature information extracted by the feature extraction unit with the plurality of dictionary information stored in the dictionary storage unit. A verification means for determining whether or not
A timing unit that starts a timing operation when a face area of the person as the person to be collated is detected by the face detection unit;
When the time measured by the time measuring means reaches a predetermined set value, display means for displaying information indicating that the current verification is being performed;
A biometric collation apparatus comprising:
前記照合手段による照合処理が終了すると、前記表示手段による現在照合中であることを示す情報の表示を停止せしめる第2の制御手段をさらに具備したことを特徴とする請求項1または請求項2記載の生体照合装置。   3. A second control unit for stopping display of information indicating that the collating unit is currently collating by the display unit when the collating process by the collating unit is completed. Biometric verification device. 照合対象者としての人物の生体情報を取得する生体情報取得ステップと、
この生体情報取得ステップの取得結果から前記照合対象者としての人物の生体情報領域を検出する生体情報領域検出ステップと、
この生体情報領域検出ステップにより前記照合対象者としての人物の生体情報領域が検出されると、前記照合対象者としての人物の生体情報を連続的に複数取得するよう制御する第1の制御ステップと、
この第1の制御ステップの制御により得られる複数の生体情報と、あらかじめ照合対象者として登録された複数の人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段に記憶された複数の辞書情報とをそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合ステップと、
前記生体情報領域検出ステップにより前記照合対象者としての人物の生体情報領域が検出されると計時動作を開始する計時ステップと、
この計時ステップにより計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示ステップと、
を具備したことを特徴とする生体照合方法。
A biometric information acquisition step of acquiring biometric information of a person as a person to be verified;
A biometric information area detecting step for detecting a biometric information area of the person as the person to be collated from the acquisition result of the biometric information acquiring step;
A first control step for controlling to continuously acquire a plurality of pieces of biometric information of the person as the verification target when a biometric information area of the person as the verification target is detected by the biometric information area detection step; ,
A plurality of biometric information obtained by the control of the first control step and unique feature information obtained from biometric information of a plurality of persons registered in advance as collation subjects are stored in dictionary storage means for storing as dictionary information. A collation step of determining whether or not the person as the person to be collated is the person himself / herself by collating each of the plurality of dictionary information performed,
A timing step for starting a timing operation when a biological information area of the person as the person to be collated is detected by the biological information area detection step;
When the time counted by this timing step reaches a predetermined set value, a display step for displaying information indicating that the current verification is being performed;
A biometric matching method characterized by comprising:
照合対象者としての通行者の生体情報を取得する生体情報取得手段と、
あらかじめ照合対象者として登録された複数の通行者の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記生体情報取得手段の取得結果から前記照合対象者としての通行者の生体情報領域を検出する生体情報領域検出手段と、
この生体情報領域検出手段により前記照合対象者としての通行者の生体情報領域が検出されると、当該通行者の生体情報を連続的に複数取得するよう前記生体情報取得手段を制御する第1の制御手段と、
この第1の制御手段の制御により前記生体情報取得手段から得られる複数の生体情報を前記辞書記憶手段に記憶された複数の辞書情報とそれぞれ照合することにより、その各照合結果に基づき前記照合対象者としての通行者が本人であるか否かを判定する照合手段と、
この照合手段の判定結果に応じて前記照合対象者としての通行者の通行を制御する通行制御手段と、
前記生体情報領域検出手段により前記照合対象者としての通行者の生体情報領域が検出されると計時動作を開始する計時手段と、
この計時手段により計時された時間があらかじめ定められた設定値に達すると、現在照合中であることを示す情報を表示する表示手段と、
を具備したことを特徴とする通行制御装置。
Biometric information acquisition means for acquiring biometric information of a passerby as a person to be verified;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from biometric information of a plurality of passers-by who has been registered in advance as verification subjects;
Biometric information area detection means for detecting a biometric information area of a passerby as the person to be collated from the acquisition result of the biometric information acquisition means;
When the biometric information area of the passerby as the person to be collated is detected by the biometric information area detection unit, the biometric information acquisition unit is controlled to acquire a plurality of biometric information of the passerby continuously. Control means;
By collating a plurality of pieces of biometric information obtained from the biometric information acquisition unit by the control of the first control unit with a plurality of dictionary information stored in the dictionary storage unit, the collation target is based on each collation result. A verification means for determining whether or not the passerby is a person,
A passage control means for controlling the passage of the passerby as the person to be collated according to the determination result of the matching means;
Timing means for starting a timing operation when the biological information area of the passerby as the person to be collated is detected by the biological information area detection means;
When the time measured by the time measuring means reaches a predetermined set value, display means for displaying information indicating that the current verification is being performed;
A traffic control device comprising:
前記照合手段による照合処理が終了すると、前記表示手段による現在照合中であることを示す情報の表示を停止せしめる第2の制御手段をさらに具備したことを特徴とする請求項5記載の通行制御装置。   6. The traffic control apparatus according to claim 5, further comprising second control means for stopping display of information indicating that the display means is currently being verified by the display means when the verification processing by the verification means is completed. .
JP2004009331A 2004-01-16 2004-01-16 Biometric matching device, biometric matching method, and traffic control device Expired - Fee Related JP4363994B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004009331A JP4363994B2 (en) 2004-01-16 2004-01-16 Biometric matching device, biometric matching method, and traffic control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004009331A JP4363994B2 (en) 2004-01-16 2004-01-16 Biometric matching device, biometric matching method, and traffic control device

Publications (2)

Publication Number Publication Date
JP2005202765A true JP2005202765A (en) 2005-07-28
JP4363994B2 JP4363994B2 (en) 2009-11-11

Family

ID=34822407

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004009331A Expired - Fee Related JP4363994B2 (en) 2004-01-16 2004-01-16 Biometric matching device, biometric matching method, and traffic control device

Country Status (1)

Country Link
JP (1) JP4363994B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206833A (en) * 2006-01-31 2007-08-16 Toshiba Corp Biological collation method and device
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2018204282A (en) * 2017-06-02 2018-12-27 株式会社Lixil Door and access control system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007206833A (en) * 2006-01-31 2007-08-16 Toshiba Corp Biological collation method and device
JP2017224186A (en) * 2016-06-16 2017-12-21 株式会社 日立産業制御ソリューションズ Security system
JP2018204282A (en) * 2017-06-02 2018-12-27 株式会社Lixil Door and access control system

Also Published As

Publication number Publication date
JP4363994B2 (en) 2009-11-11

Similar Documents

Publication Publication Date Title
JP4314016B2 (en) Person recognition device and traffic control device
JP3974375B2 (en) Person recognition device, person recognition method, and traffic control device
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
JP2004118627A (en) Figure identification device and method
JP2008009753A (en) Biometrics method and biometrics system
JP2001338296A (en) Face image recognizing device and passing through controller
JP2007179569A (en) Person recognizing device, person recognizing method, passage control device
JP2006309562A (en) Biological information registering device
KR102160137B1 (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
JP2003233816A (en) Access control system
JP2005182184A (en) Person recognition apparatus, person recognition method and access control apparatus
JP2006215858A (en) Entrance and exit management system and entrance and exit management method
JP2010182056A (en) Password input device and password verification system
JP4363994B2 (en) Biometric matching device, biometric matching method, and traffic control device
KR20110092848A (en) Method for recognizing and registering face
JP2004157771A (en) Person identification device, person identification method, and passage controller
JP2005242777A (en) Face collation device and passage control device
JP2005202732A (en) Biometric collating device, biometric collating method, and passing controller
JP2004151978A (en) Figure recognition device, figure recognition method and passage control device
KR20070118806A (en) Method of detecting face for embedded system
JP2002334335A (en) Face image recognition device and passage controller
JP2000339466A (en) Data retaining device and face image retaining device
CN112241674A (en) Face recognition method and system
JP2004139259A (en) Figure recognition device, figure recognition method and passing control unit
JP2004310287A (en) Person recognition device and passing controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090721

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees