JP2005202732A - Biometric collating device, biometric collating method, and passing controller - Google Patents

Biometric collating device, biometric collating method, and passing controller Download PDF

Info

Publication number
JP2005202732A
JP2005202732A JP2004008858A JP2004008858A JP2005202732A JP 2005202732 A JP2005202732 A JP 2005202732A JP 2004008858 A JP2004008858 A JP 2004008858A JP 2004008858 A JP2004008858 A JP 2004008858A JP 2005202732 A JP2005202732 A JP 2005202732A
Authority
JP
Japan
Prior art keywords
person
information
biometric
acquired
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004008858A
Other languages
Japanese (ja)
Inventor
Osamu Ishihara
修 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004008858A priority Critical patent/JP2005202732A/en
Publication of JP2005202732A publication Critical patent/JP2005202732A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a biometric collating device for notifying a collation object person that the position or size of biological information is proper, and for acquiring the biological information in state optimal for the collation, and for improving collating precision. <P>SOLUTION: This biometric collating device for deciding whether or not a figure is the principal by using a face image is configured so that when the face region of an input image is positioned and sized suitably for collation, a circular pattern in green can be displayed in the same size as the size of the face image so as to be overlapped with the face region of the input image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、たとえば、セキュリティ管理などにおいて人物の顔画像、指紋画像、虹彩情報、掌形画像、指画像、音声情報、精脈情報などの生体情報を用いて当該人物が本人であるか否かを判定する生体照合装置および生体照合方法に関する。
また、本発明は、上記生体照合装置を用いて通行者の通行(たとえば、重要施設の入退場など)を制御する通行制御装置に関する。
Whether or not the person is the person using the biological information such as the face image, fingerprint image, iris information, palm image, finger image, voice information, sympathetic information, etc. The present invention relates to a biometric matching device and a biometric matching method.
The present invention also relates to a traffic control device that controls a passerby's traffic (for example, entrance / exit of an important facility) using the biometric matching device.

一般に、この種の生体照合装置は、あらかじめ照合対象者としての人物の生体情報をカメラやセンサなどを用いて取得し、この取得した生体情報から得られる当該人物固有の特徴情報を辞書情報として辞書記憶手段にあらかじめ記憶(登録)しておく。   In general, this type of biometric collation apparatus acquires biometric information of a person as a collation target in advance using a camera, a sensor, or the like, and uses the acquired biometric information as characteristic information unique to the person as dictionary information. It is stored (registered) in advance in the storage means.

そして、照合時には、照合対象者としての人物の生体情報をカメラやセンサなどを用いて再度取得し、この取得した生体情報から得られる当該人物固有の特徴情報を辞書記憶手段にあらかじめ記憶(登録)されている辞書情報と照合することにより両情報の類似度を求めることにより、その求めた類似度により当該人物が本人であるか否かを判定するようになっている。   And at the time of collation, the biometric information of the person as a collation subject is acquired again using a camera, a sensor, etc., and the characteristic information peculiar to the person obtained from the acquired biometric information is stored (registered) in the dictionary storage means in advance. By determining the similarity between the two information by collating with the dictionary information, it is determined whether or not the person is the person based on the determined similarity.

このような生体照合装置において、入力される生体情報の位置や大きさを一定させる手段として、生体情報の大きさや位置を指定するための枠を表示する方法(たとえば、特許文献1参照)や、生体情報の大きさと位置を指定するための指標を表示する方法(たとえば、特許文献2参照)がある。これらの方法は、生体情報の位置と大きさを合わせるパターンの表示をあらかじめ行なっておいて、そのパターンに照合対象者が合わせるということに特徴がある。
特開2002−229955号公報 特開2003−317100号公報
In such a biometric matching device, as a means for fixing the position and size of the input biometric information, a method for displaying a frame for designating the size and position of the biometric information (for example, see Patent Document 1), There is a method of displaying an index for designating the size and position of biological information (for example, see Patent Document 2). These methods are characterized in that a pattern for matching the position and size of biological information is displayed in advance, and the person to be matched matches the pattern.
JP 2002-229955 A JP 2003-317100 A

しかし、生体情報を用いた生体照合装置では、照合を行なうたびに入力される生体情報の位置や大きさが変化するため、生体情報を登録したときと同じ位置や大きさで照合が行なわれるとは限らない。また、入力される生体情報が登録時の位置や大きさから離れるほど、照合精度に大きな影響を与えるという問題がある。   However, in the biometric matching device using biometric information, the position and size of the input biometric information changes each time collation is performed, so that collation is performed at the same position and size as when biometric information was registered. Is not limited. Further, there is a problem that the accuracy of collation is greatly affected as the input biometric information is moved away from the position and size at the time of registration.

そこで、本発明は、生体情報の位置や大きさが適切になったことを照合対象者に知らせることができ、もって照合に最適な状態で生体情報を取得できるようになり、照合精度を向上させることができる生体照合装置、生体照合方法および通行制御装置を提供することを目的とする。   Therefore, the present invention can notify the person to be collated that the position and size of the biometric information has become appropriate, so that the biometric information can be acquired in an optimal state for collation, and the collation accuracy is improved. An object of the present invention is to provide a biometric matching device, a biometric matching method, and a traffic control device.

本発明の生体照合装置は、照合対象者としての人物の生体情報を取得する生体情報取得手段と、この生体情報取得手段により取得された生体情報を前記照合対象者としての人物に対し表示する表示手段と、あらかじめ照合対象者として登録された人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、前記生体情報取得手段により取得された生体情報と前記辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、前記生体情報取得手段により取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定手段と、この判定手段により前記生体情報取得手段で取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示手段を制御する制御手段とを具備している。   The biometric matching device of the present invention includes a biometric information acquisition unit that acquires biometric information of a person as a verification target person, and a display that displays the biometric information acquired by the biometric information acquisition unit for the person as the verification target person. Means, dictionary storage means for storing unique feature information obtained from biometric information of a person registered in advance as a collation target person as dictionary information, biometric information acquired by the biometric information acquisition means, and dictionary storage means The collation means for collating with the dictionary information stored in the information to determine whether or not the person as the person to be collated is the person himself / herself based on the respective collation results, and the biometric information acquired by the biometric information acquisition means A determination means for determining whether at least one of the position and the size of the information has reached a predetermined value, and the determination means When it is determined that at least one of the position and size of the biometric information acquired by the biometric information acquisition means has reached a predetermined value, at least one of the position and size of the acquired biometric information Control means for controlling the display means so as to display information indicating that has reached a predetermined value together with the acquired biological information.

また、本発明の生体照合方法は、照合対象者としての人物の生体情報を取得する生体情報取得ステップと、この生体情報取得ステップにより取得された生体情報を前記照合対象者としての人物に対し表示する第1の表示ステップと、前記生体情報取得ステップにより取得された生体情報と、あらかじめ照合対象者として登録された人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合ステップと、前記生体情報取得ステップにより取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定ステップと、この判定ステップにより前記生体情報取得ステップで取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示ステップを制御する制御ステップとを具備している。   Further, the biometric matching method of the present invention includes a biometric information acquisition step for acquiring biometric information of a person as a verification target person, and the biometric information acquired by the biometric information acquisition step for the person as the verification target person. Dictionary storage means for storing, as dictionary information, the first display step, the biometric information acquired by the biometric information acquisition step, and unique feature information obtained from the biometric information of a person registered in advance as a person to be collated A collation step for collating with the dictionary information stored in the database to determine whether or not the person as the person to be collated is the person based on each collation result, and the biometric information acquired by the biometric information acquisition step A determination step for determining whether at least one of the position and the size of the information has reached a predetermined value. If it is determined in this determination step that at least one of the position and size of the biological information acquired in the biological information acquisition step has reached a predetermined value, the position and size of the acquired biological information And a control step for controlling the display step so that information indicating that at least one of the values has reached a predetermined value is displayed together with the acquired biological information.

さらに、本発明の通行制御装置は、照合対象者としての通行者の生体情報を取得する生体情報取得手段と、この生体情報取得手段により取得された生体情報を前記照合対象者としての通行者に対し表示する表示手段と、あらかじめ照合対象者として登録された通行者の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、前記生体情報取得手段により取得された生体情報と前記辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての通行者が本人であるか否かを判定する照合手段と、この照合手段の判定結果に応じて前記照合対象者としての通行者の通行を制御する通行制御手段と、前記生体情報取得手段により取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定手段と、この判定手段により前記生体情報取得手段で取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示手段を制御する制御手段とを具備している。   Furthermore, the traffic control device of the present invention provides biometric information acquisition means for acquiring biometric information of a passerby as a person to be collated and biometric information acquired by the biometric information acquisition means to the passerby as the person to be collated. Display means for displaying, dictionary storage means for storing unique feature information obtained from biometric information of a passerby previously registered as a person to be verified as dictionary information, and biometric information acquired by the biometric information acquiring means And collating the dictionary information stored in the dictionary storage means to determine whether or not the passerby as the person to be collated is the person himself / herself based on the result of each collation, A passage control means for controlling the passage of the passerby as the person to be collated according to the determination result, and the position and size of the biological information acquired by the biological information acquisition means; A determination unit that determines whether or not at least one of the predetermined values has been determined in advance, and at least one of the position and the size of the biological information acquired by the biological information acquisition unit by the determination unit is When it is determined that a predetermined value has been reached, the display is performed so that information indicating that at least one of the position and size of the acquired biological information has reached a predetermined value is displayed together with the acquired biological information. Control means for controlling the means.

本発明によれば、生体情報の位置や大きさが適切になったことを照合対象者に知らせることができ、もって照合に最適な状態で生体情報を取得できるようになり、照合精度を向上させることができる生体照合装置、生体照合方法および通行制御装置を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, it can notify a collation subject that the position and magnitude | size of biometric information became suitable, and biometric information can be acquired now in the optimal state for collation, and collation precision is improved. A biometric matching device, a biometric matching method, and a traffic control device can be provided.

以下、本発明の実施の形態について図面を参照して説明する。
なお、以下の説明では、人物の生体情報として顔画像を用いた場合を例として述べるが、顔画像以外に、指紋画像、虹彩情報、掌形画像、指画像、音声情報、精脈情報などの他の生体情報を用いても同様に実施できる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, a case where a face image is used as the biological information of a person will be described as an example. However, in addition to the face image, a fingerprint image, an iris information, a palm-shaped image, a finger image, voice information, rhythm information, etc. The same can be implemented using other biological information.

図1は、本実施の形態に係る生体照合装置の構成を概略的に示すものである。この生体照合装置は、照合対象者(以下、人物ともいう)100の顔画像(少なくとも顔を含んでいる画像)を撮像して入力する画像取得手段および生体情報取得手段としてのテレビジョンカメラ101、カメラ101の近傍から照合対象者100の少なくとも顔に向けて一定の照度で光を照射する照明手段としての照明部102、照合対象者100に対して入力された顔画像や各種案内などを表示したり、照合対象者100を特定するID番号(特定情報)やパスワードなどを入力したりする表示手段および入力手段としての入出力部103、および、カメラ101から入力された顔画像を処理して顔画像の認識処理などを行なう処理部104を有して構成されている。   FIG. 1 schematically shows a configuration of a biometric matching apparatus according to the present embodiment. The biometric matching device includes an image acquisition unit that captures and inputs a face image (an image including at least a face) of a verification target person (hereinafter also referred to as a person) 100, and a television camera 101 as a biometric information acquisition unit. Illumination unit 102 as illumination means for irradiating light with a constant illuminance from the vicinity of the camera 101 toward at least the face of the person 100 to be collated, a face image input to the person 100 to be collated, various types of guidance, and the like are displayed. Or a display unit for inputting an ID number (specific information) or a password for identifying the person to be verified 100, a password or the like, and an input / output unit 103 as an input unit, and a face image input from the camera 101 to process the face The image processing apparatus includes a processing unit 104 that performs image recognition processing and the like.

カメラ101は、照合対象者100の顔画像を下方から所定角度で撮像して入力するものであり、たとえば、CCDセンサなどの撮像素子を用いたテレビジョンカメラを有して構成されている。   The camera 101 captures and inputs a face image of the person 100 to be collated from below at a predetermined angle. For example, the camera 101 includes a television camera using an image sensor such as a CCD sensor.

照明部102は、カメラ101の近傍(たとえば、カメラ101の側部)から照合対象者100の顔に向けて一定の照度で光を照射する蛍光灯などの照明器具である。   The illuminating unit 102 is an illuminating device such as a fluorescent lamp that emits light at a constant illuminance from the vicinity of the camera 101 (for example, the side of the camera 101) toward the face of the person 100 to be verified.

入出力部103は、照合対象者100に対して、カメラ101で撮影されている照合対象者100の顔画像や各種ガイダンス、処理結果などを表示したり、照合対象者100の個人IDやパスワードなどを入力したりするもので、たとえば、液晶表示部とタッチパネルとを一体化して構成されていて、カメラ101の近傍、たとえば、カメラ101の上部で、ほぼ照合対象者100の顔部分と相対応する位置に設けられている。なお、表示によるガイダンスのみに限らず、音声によるガイダンス機能を付加してもよい。   The input / output unit 103 displays the face image of the verification target person 100 captured by the camera 101, various guidance, processing results, and the like for the verification target person 100, and the personal ID and password of the verification target person 100. For example, the liquid crystal display unit and the touch panel are integrated, and substantially correspond to the face portion of the person 100 to be collated near the camera 101, for example, above the camera 101. In the position. Note that not only the guidance by display but also a voice guidance function may be added.

処理部104は、カメラ101からの顔画像を入力する画像取得手段および生体情報取得手段としての画像入力部105、画像入力部105から得られた人物の顔画像を用いて、あらかじめ準備されたパターン辞書との照合で顔および目、鼻などの顔部品の位置を検出する顔検出手段としての顔検出部106、顔検出部106の出力に基づき濃淡情報あるいは部分空間情報などの顔の特徴量(特徴情報)を抽出する特徴抽出手段としての特徴抽出部107、辞書情報の登録時に、特徴抽出部107で抽出された顔の特徴量(特徴情報)を辞書情報(認識データ)として記憶(登録)する辞書記憶手段としての辞書情報記憶部108、生体照合(顔照合)時には、特徴抽出部107で抽出された顔の特徴量(入力特徴情報)と辞書情報記憶部108に記憶されている辞書情報とを照合することにより、その照合結果に基づき当該照合対象者100は本人であるか否かを判定する照合手段としての認識部109、照明部102および入出力部103などを制御する制御手段としての制御部110を有して構成されている。   The processing unit 104 uses an image acquisition unit that inputs a face image from the camera 101, an image input unit 105 as a biometric information acquisition unit, and a human face image obtained from the image input unit 105 to prepare a pattern prepared in advance. Face detection unit 106 serving as a face detection unit that detects the position of facial parts such as the face, eyes, and nose by collation with a dictionary, and facial features such as grayscale information or partial space information based on the output of the face detection unit 106 ( Feature extraction unit 107 as a feature extraction means for extracting feature information), and at the time of registration of dictionary information, the facial feature amount (feature information) extracted by feature extraction unit 107 is stored (registered) as dictionary information (recognition data). The dictionary information storage unit 108 serving as a dictionary storage unit for performing the biometric matching (face matching) and the facial feature amount (input feature information) extracted by the feature extraction unit 107 and the dictionary information storage unit 1 8, a recognition unit 109, a lighting unit 102, and an input / output unit as collation means for judging whether or not the collation target person 100 is the person based on the collation result by collating with the dictionary information stored in FIG. The control unit 110 is configured as control means for controlling the control unit 103 and the like.

なお、以下の説明では、画像入力データ、抽出した特徴量(特徴情報)、部分空間、部分空間を構成するための固有ベクトル、相関行列、登録の時刻、日時、場所などの状況情報、暗証番号、ID番号などの個人情報の各情報が存在する。そして、認識データと言うときは、部分空間、または、部分空間を構成するための固有ベクトルを含み、辞書情報(登録情報)と言うときは、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、状況情報、個人情報を含んでいる。したがって、認識データは登録情報に含まれる。   In the following description, image input data, extracted feature quantities (feature information), subspace, eigenvectors for constructing the subspace, correlation matrix, registration time, date / time, status information such as location, password, Each piece of personal information such as an ID number exists. And when it says recognition data, it contains the eigenvector for comprising a partial space or a partial space, and when it says dictionary information (registration information), it is image input data, the extracted feature-value, partial space, partial space. Includes an eigenvector, a correlation matrix, situation information, and personal information. Accordingly, the recognition data is included in the registration information.

画像入力部105は、カメラ101からの顔画像を入力し、A/D変換してデジタル化した後、顔検出部106へ送る。
顔検出部106は、まず、画像入力部105で入力された顔画像から照合対象者100の顔の領域を検出する。たとえば、あらかじめ用意されたテンプレートを、画像中を移動させながら相関値を求めることにより、最も高い相関値を持った場所を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などの顔検出手段でもよい。
The image input unit 105 inputs the face image from the camera 101, digitizes it by A / D conversion, and sends it to the face detection unit 106.
First, the face detection unit 106 detects a face area of the person 100 to be collated from the face image input by the image input unit 105. For example, by obtaining a correlation value while moving a template prepared in advance in an image, a place having the highest correlation value is set as a face region. In addition, face detection means such as a face region extraction method using an eigenspace method or a subspace method may be used.

顔検出部106は、次に、検出された顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。その検出方法は、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などの方法を用いてよい。   Next, the face detection unit 106 detects the position of the facial parts such as eyes, nose, and mouth from the detected face area. The detection method is described in, for example, literature (Kazuhiro Fukui, Osamu Yamaguchi: “Face Feature Point Extraction by Combination of Shape Extraction and Pattern Matching”, IEICE Transactions (D), vol. J80-D-II, No. 8, pp2170-2177 (1997)).

図2に、顔の検出結果と目、鼻の検出結果の一例を示す。図2において、(fx,fy)は顔の中心座標、(fw,fh)は顔の大きさ、(EyeLx,EyeLy)、(EyeRx,EyeRy)は左右の目の位置座標、(NoseLx,NoseLy)、(NoseRx,NoseRy)は左右の鼻孔の位置座標を示している。なお、目の位置とは黒目の中心点、鼻の位置とは鼻孔の中心点を示しているものとする。   FIG. 2 shows an example of face detection results and eye / nose detection results. In FIG. 2, (fx, fy) is the center coordinates of the face, (fw, fh) is the size of the face, (EyeLx, EyeLy), (EyeRx, EyeRy) are the position coordinates of the left and right eyes, (NoseLx, NoseLy) , (NoseRx, NoseRy) indicate the position coordinates of the left and right nostrils. The eye position indicates the center point of the black eye, and the nose position indicates the center point of the nostril.

特徴抽出部107は、顔検出部106で検出された顔部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、たとえば、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。   The feature extraction unit 107 cuts the face area into a certain size and shape based on the position of the face part detected by the face detection unit 106, and uses the shading information as a feature amount. Here, for example, the gray value of an area of m pixels × n pixels is used as information as it is, and m × n-dimensional information is used as a feature vector.

また、後で述べるように、認識を行なうための入力データとして部分空間自身を利用してもよい。したがって、部分空間を算出した結果は、認識部109および辞書情報記憶部108に送られる。   Further, as will be described later, the partial space itself may be used as input data for recognition. Therefore, the result of calculating the partial space is sent to the recognition unit 109 and the dictionary information storage unit 108.

辞書情報記憶部108は、照合対象者100を認識あるいは同定するために利用する部分空間(または、相関行列)などの辞書情報を保持している。また、登録の際の日時、時刻、場所などの属性情報も保持できる。なお、辞書情報として、部分空間に限らず、入力された顔画像や抽出された顔の特徴量そのものを用いてもよい。   The dictionary information storage unit 108 holds dictionary information such as a partial space (or correlation matrix) used for recognizing or identifying the person 100 to be verified. Also, attribute information such as date and time, time, and place at the time of registration can be held. The dictionary information is not limited to the partial space, and an input face image or an extracted face feature amount itself may be used.

認識部109は、辞書情報記憶部108に蓄えられた認識データ(部分空間)と特徴抽出部107で得られた特徴量(濃淡情報あるいは部分空間情報)とを照合(比較)することにより、カメラ101で撮影している照合対象者100が誰であるかを認識、あるいは、該当人物であるかどうかを同定する。人物を認識するためには、どの人物のデータに最も類似しているかを求めればよく、最大類似度をとるデータに対応する人物を認識結果とすればよい。   The recognizing unit 109 collates (compares) the recognition data (partial space) stored in the dictionary information storage unit 108 with the feature amount (shading information or partial space information) obtained by the feature extracting unit 107, thereby It recognizes who the person 100 to be collated who is photographing at 101 is identified, or identifies whether it is a corresponding person. In order to recognize a person, it suffices to determine which person's data is most similar, and the person corresponding to the data having the maximum similarity may be used as the recognition result.

また、カードやID番号、暗証番号、鍵などを用いて、顔画像による認識を行なう場合には、それぞれの人物のカードやID番号などの個人情報に対応する認識データとの類似度を計算して、設定した閾値と照合し、その閾値を越えた場合に、その人物と同定する。   In addition, when performing facial recognition using a card, ID number, personal identification number, key, etc., the degree of similarity with recognition data corresponding to personal information such as each person's card or ID number is calculated. The threshold is set, and if the threshold is exceeded, the person is identified.

これらカードやID番号、暗証番号、鍵など入力する手段が必要であるが、たとえば、カードならICカード、IDカード、無線カードなどを用いることで実現できる。ID番号や暗証番号を用いる場合は、キー入力手段を設ければよい。   Means for inputting such a card, an ID number, a personal identification number, a key, and the like are necessary. When an ID number or a password is used, key input means may be provided.

認識の方法としては、特徴抽出部107の情報を用いる場合は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での認識方法は、たとえば、文献(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」、電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))に記載されている公知の認識方法である相互部分空間法を用いる。   As a recognition method, when information of the feature extraction unit 107 is used, a method such as a subspace method or a composite similarity method may be used. The recognition method in the present embodiment is, for example, a literature (Kenichi Maeda, Sadaichi Watanabe: “Pattern matching method introducing a local structure”, IEICE Transactions (D), vol. J68-D, No. 3, pp 345-352 (1985)), a mutual subspace method which is a known recognition method is used.

この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、

Figure 2005202732
In this method, both the recognition data in the registration information stored in advance and the input data are expressed as partial spaces, and the “angle” formed by the two partial spaces is defined as the similarity. The subspace input here is referred to as an input subspace. Similarly, a correlation matrix Cin is obtained for the input data string,
Figure 2005202732

と対角化し、固有ベクトルΦinを求める。2つのΦin、Φdで表わされる部分空間の部分空間類似度(0.0〜1.0)を求め、それを認識するための類似度とする。 And the eigenvector Φin is obtained. The subspace similarity (0.0 to 1.0) of the subspace represented by two Φin and Φd is obtained and used as the similarity for recognizing it.

認識部109は、図3に示すフローチャートのように動作する。まず、認識処理(1対N照合)を行なうか、同定処理(1対1照合)を行なうかによって動作が異なる(ステップST1)。同定処理を行なう場合は、まず対象とする照合対象者のID番号を読込む(ステップST2)。次に、対象とするID番号に対応した登録情報(辞書情報)を辞書情報記憶部108から読出す(ステップST3)。   The recognition unit 109 operates as in the flowchart shown in FIG. First, the operation varies depending on whether recognition processing (one-to-one matching) or identification processing (one-to-one matching) is performed (step ST1). When performing the identification process, first, the ID number of the target person to be collated is read (step ST2). Next, registration information (dictionary information) corresponding to the target ID number is read from the dictionary information storage unit 108 (step ST3).

次に、上述したように、部分空間法などにより認識を行なうため、各登録情報の部分空間と、入力ベクトル(特徴抽出部107からの固有ベクトル)、または、入力部分空間との類似度を計算する(ステップST4)。次に、その類似度をあらかじめ設定されている閾値と比較し(ステップST5,ST6)、同定結果を出力する(ステップST7)。   Next, as described above, in order to perform recognition by the subspace method or the like, the similarity between the subspace of each registered information and the input vector (eigenvector from the feature extraction unit 107) or the input subspace is calculated. (Step ST4). Next, the similarity is compared with a preset threshold value (steps ST5 and ST6), and the identification result is output (step ST7).

認識処理を行なう場合、照合対象となる辞書情報を全て辞書情報記憶部108から読出す(ステップST8)。そして、それぞれの辞書情報との類似度を計算する(ステップST9)。次に、計算された類似度の中から最大のものを選択し(ステップST10)、それを認識結果として出力する(ステップST12)。   When performing recognition processing, all dictionary information to be collated is read from the dictionary information storage unit 108 (step ST8). Then, the similarity with each dictionary information is calculated (step ST9). Next, the maximum similarity is selected from the calculated similarities (step ST10), and is output as a recognition result (step ST12).

なお、図3の破線で囲んだステップST11のように、最大類似度を閾値判定することによって、認識結果が正しいかどうかを検証することもできる(ステップST13)。たとえば、類似度があまりに低い場合には、どの認識対象でもないと判断することもできる。   Note that it is also possible to verify whether the recognition result is correct by determining the maximum similarity as a threshold value as in step ST11 surrounded by a broken line in FIG. 3 (step ST13). For example, when the degree of similarity is too low, it can be determined that it is not any recognition target.

次に、入力画像が顔照合に適切した位置、大きさになったことがわかる表示処理を中心とした顔照合処理の流れについて図4に示すフローチャートを参照して説明する。   Next, the flow of the face matching process centered on the display process that reveals that the input image has become a position and size suitable for face matching will be described with reference to the flowchart shown in FIG.

いま、照合対象者100が本装置(カメラ101)に向かってくるものとすると、カメラ101はその照合対象者100の顔画像を取込み(ステップS1)、画像入力部105を介して顔検出部106および制御部110へ送る。制御部110は、取込んだ画像を入出力部103に表示する(ステップS2)。このときの表示画像例を図5(a)に示している。図中、符号M1が取込んだ照合対象者100の顔画像(入力画像)を示しており、この例は照合対象者100がまだカメラ101から遠い位置にいることを示している。   Now, assuming that the verification target person 100 comes toward the present apparatus (camera 101), the camera 101 captures the face image of the verification target person 100 (step S1), and the face detection unit 106 via the image input unit 105. And to the control unit 110. The control unit 110 displays the captured image on the input / output unit 103 (step S2). An example of the display image at this time is shown in FIG. In the figure, reference sign M1 represents the face image (input image) of the verification target person 100, and this example indicates that the verification target person 100 is still far from the camera 101.

顔検出部106は、カメラ101により取込んだ画像から顔領域を検出する処理を行なう(ステップS3)。次に、顔領域を検出できたか否かをチェックし(ステップS4)、顔領域を検出できなかった場合、ステップS1に戻って再度顔画像を取込み、上記同様な処理を繰り返す。   The face detection unit 106 performs a process of detecting a face area from the image captured by the camera 101 (step S3). Next, it is checked whether or not the face area can be detected (step S4). If the face area cannot be detected, the process returns to step S1 to capture the face image again and repeat the same processing as described above.

ステップS4におけるチェックの結果、顔領域を検出できた場合、制御部110は、当該顔領域の位置および大きさがあらかじめ定められた所定値、たとえば、顔照合に適した位置および大きさになったか否かを判定する(ステップS5)。
なお、この場合、必ずしも顔領域の位置および大きさの両方が顔照合に適した値になったか否かを判定する必要はなく、位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定すればよい。
If the face area is detected as a result of the check in step S4, the control unit 110 determines whether the position and size of the face area has reached a predetermined value, for example, a position and size suitable for face matching. It is determined whether or not (step S5).
In this case, it is not always necessary to determine whether or not both the position and size of the face area have values suitable for face matching, and at least one of the position and size is predetermined. What is necessary is just to determine whether it became a value.

ステップS5におけるチェックの結果、検出された顔領域の位置および大きさが顔照合に適した値になっていない場合、制御部110は、ステップS1に戻って再度顔画像を取込み、上記同様な処理を繰り返す。ここに、ステップS5の処理が本発明における判定手段および第1の制御手段に対応している。   As a result of the check in step S5, if the position and size of the detected face area are not values suitable for face matching, the control unit 110 returns to step S1 to capture the face image again, and performs the same processing as above. repeat. Here, the processing in step S5 corresponds to the determination means and the first control means in the present invention.

たとえば、カメラ101により取込んだ画像が図5(b)に示すM2のようになり、ステップS5において、検出された顔領域の位置および大きさが顔照合に適した値になった場合、制御部110は、図5(c)に示すように、カメラ101からの入力画像M3を表示している入出力部103の画面内に、検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報、この例では検出された顔領域の大きさと同じ大きさで緑色の円状パターン(環状パターン)P1を、このときの入力画像M3の顔領域に重ね合わせて表示する(ステップS6)。ここに、ステップS6の処理が本発明における第2の制御手段に対応している。
なお、図5(c)に示すように、このとき照合中であることを示す文字パターン(照合中)P2も同時に表示される。
For example, when the image captured by the camera 101 becomes like M2 shown in FIG. 5B, and the position and size of the detected face area become values suitable for face matching in step S5, control is performed. 5C, the position and size of the detected face area in the screen of the input / output unit 103 displaying the input image M3 from the camera 101 are suitable for face matching, as shown in FIG. In this example, a green circular pattern (annular pattern) P1 having the same size as the detected face area is superimposed on the face area of the input image M3 at this time. Displayed (step S6). Here, the process of step S6 corresponds to the second control means in the present invention.
As shown in FIG. 5 (c), a character pattern (during collation) P2 indicating that collation is being performed is also displayed at the same time.

次に、制御部110は、照合モードが1対N照合モード(登録してある全ての辞書情報と照合するモード)であるか否かをチェックし(ステップS7)、1対N照合モードの場合には円状パターンP1を表示した時点で照合処理を開始する(ステップS8,S9)。   Next, the control unit 110 checks whether or not the collation mode is a 1-to-N collation mode (a mode for collating with all registered dictionary information) (step S7). Is started when the circular pattern P1 is displayed (steps S8 and S9).

すなわち、カメラ101で照合対象者100の画像を取込み、画像入力部105を介して顔検出部106へ送る。顔検出部106は、カメラ101により取込んだ画像から顔領域を検出し、検出した顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。   That is, the camera 101 captures the image of the person 100 to be verified and sends it to the face detection unit 106 via the image input unit 105. The face detection unit 106 detects a face area from the image captured by the camera 101, and detects the positions of face parts such as eyes, nose, and mouth from the detected face area.

次に、特徴抽出部107は、顔検出部106で検出された顔部品の位置を基に顔の特徴量を抽出し、認識部109へ送る。認識部109は、特徴抽出部107で抽出された顔の特徴量(特徴情報)を辞書情報記憶部108内の全ての辞書情報とをそれぞれ照合することにより両情報の各類似度を求め、この求めた各類似度の中から最大値を示す類似度を選択し、この選択した最大値を示す類似度の人物を照合対象者100であると判定する。ここに、ステップS8の処理が本発明における第3の制御手段に対応している。   Next, the feature extraction unit 107 extracts a facial feature amount based on the position of the face part detected by the face detection unit 106 and sends it to the recognition unit 109. The recognizing unit 109 obtains each similarity degree of both pieces of information by collating the feature amount (feature information) of the face extracted by the feature extracting unit 107 with all the dictionary information in the dictionary information storage unit 108. A similarity indicating the maximum value is selected from the obtained similarities, and the person having the similarity indicating the selected maximum value is determined to be the person 100 to be collated. Here, the process of step S8 corresponds to the third control means in the present invention.

ステップS7におけるチェックの結果、1対N照合モードでない場合、制御部110は、照合モードが1対1照合モード(あらかじめ特定された人物の辞書情報と照合するモード)であると判断し、照合対象者100によるID番号の入力が完了しているか否かをチェックし、ID番号の入力が完了していない場合はID番号が入力されるのを待機する(ステップS10)。   If the result of the check in step S7 is not the one-to-N collation mode, the control unit 110 determines that the collation mode is the one-to-one collation mode (a mode for collating with dictionary information of a person specified in advance). It is checked whether or not the input of the ID number by the person 100 has been completed. If the input of the ID number has not been completed, the system waits for the ID number to be input (step S10).

ステップS10において、ID番号の入力が完了すると、照合処理を開始する(ステップS11,S12)。すなわち、カメラ101で照合対象者100の画像を取込み、画像入力部105を介して顔検出部106へ送る。顔検出部106は、カメラ101により取込んだ画像から顔領域を検出し、検出した顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。   In step S10, when the input of the ID number is completed, the collation process is started (steps S11 and S12). That is, the camera 101 captures the image of the person 100 to be verified and sends it to the face detection unit 106 via the image input unit 105. The face detection unit 106 detects a face area from the image captured by the camera 101, and detects the positions of face parts such as eyes, nose, and mouth from the detected face area.

次に、特徴抽出部107は、顔検出部106で検出された顔部品の位置を基に顔の特徴量を抽出し、認識部109へ送る。認識部109は、特徴抽出部107で抽出された顔の特徴量と辞書情報記憶部108内の先に入力された照合対象者100のID番号と対応する辞書情報とを照合することにより両情報の類似度を求め、求めた類似度が閾値よりも高い場合には当該照合対象者100は登録者(本人)であると判定し、求めた類似度が閾値よりも低い場合には未登録者(本人ではない)と判定する。   Next, the feature extraction unit 107 extracts a facial feature amount based on the position of the face part detected by the face detection unit 106 and sends it to the recognition unit 109. The recognizing unit 109 collates the facial feature amount extracted by the feature extracting unit 107 with the dictionary information corresponding to the ID number of the person 100 to be collated previously input in the dictionary information storage unit 108 to thereby obtain both information. If the obtained similarity is higher than the threshold, it is determined that the person to be collated 100 is a registrant (person), and if the obtained similarity is lower than the threshold, an unregistered person It is determined that it is not the person.

なお、上記第1の実施の形態では、検出された顔領域の位置および大きさが顔照合に適した値になったとき、入出力部103の画面内に表示する、検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報として、検出された顔領域の大きさと同じ大きさで緑色の円状パターン(環状パターン)P1を、このときの入力画像M3の顔領域に重ね合わせて表示する場合について説明したが、本発明はこれに限定されるものでなく、たとえば、図6に示すように、検出された顔領域の大きさと同じ大きさで緑色の矩形状パターン(環状パターン)P3を、このときの入力画像M3の顔領域に重ね合わせて表示してもよく、また、たとえば、図7(a)に示すように、緑色の円状パターンP1を、検出された顔領域の大きさとは異なる大きさで、このときの入力画像M3の顔領域とは異なる位置に表示したり、あるいは、たとえば、図7(b)に示すように、緑色の矩形状パターンP3を、検出された顔領域の大きさとは異なる大きさで、このときの入力画像M3の顔領域とは異なる位置に表示したりしてもよい。   In the first embodiment, the detected face area displayed on the screen of the input / output unit 103 when the position and size of the detected face area are suitable for face matching. As information indicating that the position and size have become values suitable for face matching, a green circular pattern (annular pattern) P1 having the same size as the size of the detected face region is used as the input image M3 at this time. However, the present invention is not limited to this. For example, as shown in FIG. 6, the size of the detected face region is the same as that of the detected face region. A rectangular pattern (annular pattern) P3 may be displayed superimposed on the face area of the input image M3 at this time. For example, as shown in FIG. 7A, a green circular pattern P1 is displayed. , Detected face area size Is displayed in a position different from the face area of the input image M3 at this time, or, for example, as shown in FIG. 7B, a green rectangular pattern P3 is displayed on the detected face. The size may be different from the size of the area, and may be displayed at a position different from the face area of the input image M3 at this time.

さらに、たとえば、図8に示すように、検出された顔領域の位置が顔照合に適した値になったとき円状パターンP4を表示し、検出された顔領域の大きさが顔照合に適した値になったとき矩形状パターンP5を表示するようにしてもよい。
また、円状や矩形状などの環状パターンの外、たとえば、文字パターンで表示してもよい(検出された顔領域の位置が顔照合に適した値になったとき「OK」を表示し、検出された顔領域の大きさが顔照合に適した値になったとき「OK」を表示する)。
また、たとえば、あらかじめ特定の記号等を表示しておき、検出された顔領域の位置および大きさが顔照合に適した値になったとき、当該記号等を点滅させるようにしてもよい。
Further, for example, as shown in FIG. 8, a circular pattern P4 is displayed when the position of the detected face area becomes a value suitable for face matching, and the size of the detected face area is suitable for face matching. The rectangular pattern P5 may be displayed when the value is reached.
In addition, a circular pattern such as a circle or a rectangle may be displayed, for example, as a character pattern (“OK” is displayed when the position of the detected face area becomes a value suitable for face matching, “OK” is displayed when the size of the detected face area becomes a value suitable for face collation).
Further, for example, a specific symbol or the like may be displayed in advance, and the symbol or the like may be blinked when the position and size of the detected face area become values suitable for face matching.

次に、第2の実施の形態について説明する。
第2の実施の形態は、第1の実施の形態で説明した生体照合装置を、通行者の顔画像を認識して通行者の通行を制御する通行制御装置に適用した場合の例である。
Next, a second embodiment will be described.
The second embodiment is an example in which the biometric matching device described in the first embodiment is applied to a traffic control device that recognizes a passer's face image and controls the traffic of the passer.

図9は、第2の実施の形態に係る通行制御装置の構成を概略的に示すものである。この通行制御装置は、たとえば、重要施設(セキュリティ重視の部屋など)への入退室管理を行なうもので、利用者(通行者)の顔画像を認識して、その認識結果に基づき重要施設の入退室用ドアの開閉制御を行なうものであり、カメラ101、照明部102、入出力部103、処理部104、および、認識部109の認識結果に応じて重要施設201の入退室用ドア202の開閉制御を行なう通行制御手段としてのドア制御部112を有して構成されている。
なお、図9において、ドア制御部112以外は図1の生体照合装置と同じ構成であるので、同一符号を付して、その説明は省略する。
FIG. 9 schematically shows the configuration of the traffic control device according to the second embodiment. This traffic control device, for example, manages entry / exit to important facilities (such as security-oriented rooms), recognizes the face image of the user (passerby), and enters the important facility based on the recognition result. Open / close control of the exit door is performed, and the entrance / exit door 202 of the important facility 201 is opened / closed according to the recognition results of the camera 101, the illumination unit 102, the input / output unit 103, the processing unit 104, and the recognition unit 109. The door control unit 112 is configured as a traffic control means for performing control.
9, since it is the same structure as the biometric collation apparatus of FIG. 1 except the door control part 112, the same code | symbol is attached | subjected and the description is abbreviate | omitted.

認識部109は、照合対象者100が本人であると判定した場合、ドア制御部112に「ドア開」の信号を出力し、照合対象者100が本人でないと判定した場合、ドア制御部112に「ドア閉」の信号を出力する。
ドア制御部112は、認識部109から「ドア開」の信号を受取ると、入退室用ドア202を開状態に制御して、照合対象者(この場合は通行者)100の入室を許可し、「ドア閉」の信号を受取ると、入退室用ドア202を閉状態に保持して、通行者100の入室を拒否する。
このように、第2の実施の形態によれば、第1の実施の形態で説明した生体照合装置を用いて通行者の通行を制御することができる。
When the recognition unit 109 determines that the verification target person 100 is the person himself / herself, the recognition unit 109 outputs a “door open” signal to the door control unit 112. When the recognition unit 109 determines that the verification target person 100 is not the person himself / herself, Outputs “door closed” signal.
When the door control unit 112 receives the “door open” signal from the recognition unit 109, the door control unit 112 controls the entrance / exit door 202 to be in an open state, and allows the verification target person (passer in this case) 100 to enter the room. When the “door closed” signal is received, the entrance / exit door 202 is kept closed, and the passer-by 100 is refused to enter the room.
As described above, according to the second embodiment, it is possible to control the passage of passers-by using the biometric matching device described in the first embodiment.

以上説明したように、上記実施の形態によれば、顔画像を用いて当該人物が本人であるか否かを判定する生体照合装置において、入力画像の顔領域が照合に適した位置、大きさになったときに、顔領域の大きさと同じ大きさで緑色の円状パターンを、このときの入力画像の顔領域に重ね合わせて表示することにより、顔画像の位置や大きさが適切になったことを照合対象者に知らせることができ、もって照合に最適な状態で顔画像を取得できるようになり、照合精度を向上させることができる。   As described above, according to the above-described embodiment, in the biometric matching apparatus that determines whether or not the person is the person using the face image, the face area of the input image is suitable for matching and size. The position and size of the face image become appropriate by displaying a green circular pattern with the same size as the face area on the face area of the input image at this time. This makes it possible to notify the person to be collated, so that a face image can be acquired in an optimal state for collation, and collation accuracy can be improved.

本発明の第1の実施の形態に係る生体照合装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing a configuration of a biometric matching device according to a first embodiment of the present invention. 顔検出部の処理を説明するための図。The figure for demonstrating the process of a face detection part. 認識部の処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process of a recognition part. 顔照合処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a face collation process. 入力画像および当該入力画像に対する検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報の表示例を示す図。The figure which shows the example of a display of the information which shows that the position and the magnitude | size of the detected face area with respect to the said input image became the value suitable for face collation. 検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報の他の表示例を示す図。The figure which shows the other example of a display of the information which shows that the position and magnitude | size of the detected face area became a value suitable for face collation. 検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報のさらに他の表示例を示す図。The figure which shows the further another example of a display of the information which shows that the position and magnitude | size of the detected face area became a value suitable for face collation. 検出された顔領域の位置および大きさが顔照合に適した値になったことを示す情報のさらに他の表示例を示す図。The figure which shows the further another example of a display of the information which shows that the position and magnitude | size of the detected face area became a value suitable for face collation. 本発明の第2の実施の形態に係る通行制御装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the traffic control apparatus which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

100…照合対象者(人物、通行者)、101…カメラ(生体情報取得手段、画像入力手段)、102…照明部、103…入出力部(入力手段、表示手段)、104…処理部、105…画像入力部(生体情報取得手段、画像入力手段)、106…顔検出部(顔検出手段)、107…特徴抽出部(特徴抽出手段)、108…辞書情報記憶部(辞書記憶手段)、109…認識部(照合手段)、110…制御部(判定手段、制御手段)、112…ドア制御部(通行制御手段)、201…重要施設、202…入退室用ドア。   DESCRIPTION OF SYMBOLS 100 ... Person to be verified (person, passerby), 101 ... Camera (biological information acquisition means, image input means), 102 ... Illumination section, 103 ... Input / output section (input means, display means), 104 ... Processing section, 105 ... Image input unit (biological information acquisition unit, image input unit) 106. Face detection unit (face detection unit) 107. Feature extraction unit (feature extraction unit) 108. Dictionary information storage unit (dictionary storage unit) 109 ... recognition unit (collation unit), 110 ... control unit (determination unit, control unit), 112 ... door control unit (traffic control unit), 201 ... important facility, 202 ... door for entry / exit.

Claims (8)

照合対象者としての人物の生体情報を取得する生体情報取得手段と、
この生体情報取得手段により取得された生体情報を前記照合対象者としての人物に対し表示する表示手段と、
あらかじめ照合対象者として登録された人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記生体情報取得手段により取得された生体情報と前記辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、
前記生体情報取得手段により取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定手段と、
この判定手段により前記生体情報取得手段で取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示手段を制御する制御手段と、
を具備したことを特徴とする生体照合装置。
Biometric information acquisition means for acquiring biometric information of a person as a person to be verified;
Display means for displaying the biometric information acquired by the biometric information acquisition means for the person as the person to be collated;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from biometric information of a person registered in advance as a verification target;
By comparing the biometric information acquired by the biometric information acquisition means with the dictionary information stored in the dictionary storage means, it is determined whether or not the person as the verification target person is the person based on the result of each verification. A verification means for determining;
Determination means for determining whether at least one of the position and the size of the biological information acquired by the biological information acquisition means has reached a predetermined value;
When it is determined by this determination means that at least one of the position and size of the biological information acquired by the biological information acquisition means has reached a predetermined value, the position and size of the acquired biological information Control means for controlling the display means to display information indicating that at least one of the values has reached a predetermined value together with the acquired biological information;
A biometric collation apparatus comprising:
前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報は、あらかじめ定められた特定の色の環状パターンであることを特徴とする請求項1記載の生体照合装置。   The information indicating that at least one of the position and the size of the acquired biological information has reached a predetermined value is a predetermined circular pattern of a specific color. Biometric verification device. 前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報は、あらかじめ定められた特定の色の文字パターンであることを特徴とする請求項1記載の生体照合装置。   2. The information indicating that at least one of the position and the size of the acquired biological information is a predetermined value is a character pattern of a specific color determined in advance. Biometric verification device. 前記第2の制御手段は、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報に対し重ね合わせて表示するよう前記表示手段を制御することを特徴とする請求項1から請求項3のうちいずれか1つに記載の生体照合装置。   The second control means superimposes and displays information indicating that at least one of the position and size of the acquired biological information has reached a predetermined value on the acquired biological information. The biometric matching device according to any one of claims 1 to 3, wherein the display means is controlled. 前記照合手段は、前記判定手段により前記生体情報取得手段で取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合に照合動作を開始することを特徴とする請求項1記載の生体照合装置。   The collation unit starts a collation operation when it is determined by the determination unit that at least one of the position and the size of the biometric information acquired by the biometric information acquisition unit has reached a predetermined value. The biometric matching device according to claim 1. 照合対象者としての人物の顔画像を取得する画像取得手段と、
この画像取得手段により取得された顔画像を前記照合対象者としての人物に対し表示する表示手段と、
あらかじめ照合対象者として登録された人物の顔画像から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記画像取得手段により取得された画像から前記照合対象者としての人物の顔領域を検出する顔検出手段と、
この顔検出手段により前記照合対象者としての人物の顔領域が検出されると、当該顔領域の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定手段と、
この判定手段により前記検出された顔領域の位置および大きさのうち少なくともいずれか一方が所定値にならないと判定された場合、前記画像取得手段による顔画像の取得を再度行なうよう制御する第1の制御手段と、
前記判定手段により前記検出された顔領域の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記検出された顔領域の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す環状パターンを前記取得された顔画像とともに表示するよう前記表示手段を制御する第2の制御手段と、
前記判定手段により前記検出された顔領域の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記照合対象者としての人物の顔画像を再度取得するよう前記画像取得手段を制御する第3の制御手段と、
この第3の制御手段の制御により前記画像取得手段から得られる画像に対し前記顔検出手段により前記照合対象者としての人物の顔領域が検出されると、当該顔領域の画像情報により当該人物固有の特徴情報を抽出する特徴抽出手段と、
この特徴抽出手段により抽出された特徴情報と前記辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合手段と、
を具備したことを特徴とする生体照合装置。
Image acquisition means for acquiring a face image of a person as a person to be verified;
Display means for displaying the face image acquired by the image acquisition means to the person as the person to be collated;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from a face image of a person registered in advance as a verification target;
Face detection means for detecting a face area of a person as the person to be collated from the image acquired by the image acquisition means;
When the face area of the person as the person to be collated is detected by the face detection means, it is determined whether or not at least one of the position and size of the face area has reached a predetermined value. A determination means;
When it is determined by this determination means that at least one of the detected position and size of the face area does not reach a predetermined value, control is performed so that the face acquisition by the image acquisition means is performed again. Control means;
If it is determined by the determining means that at least one of the position and size of the detected face area has reached a predetermined value, at least one of the position and size of the detected face area is Second control means for controlling the display means to display an annular pattern indicating that the predetermined value has been reached together with the acquired face image;
If the determination means determines that at least one of the position and size of the detected face region has reached a predetermined value, the image acquisition is performed so that the face image of the person as the person to be collated is acquired again. Third control means for controlling the means;
When a face area of the person as the person to be collated is detected by the face detection means with respect to the image obtained from the image acquisition means by the control of the third control means, the person-specific information is obtained from the image information of the face area. Feature extraction means for extracting feature information of
By comparing the feature information extracted by the feature extraction means with the dictionary information stored in the dictionary storage means, it is determined whether or not the person as the person to be verified is the person himself / herself based on the result of each comparison Matching means to
A biometric collation apparatus comprising:
照合対象者としての人物の生体情報を取得する生体情報取得ステップと、
この生体情報取得ステップにより取得された生体情報を前記照合対象者としての人物に対し表示する第1の表示ステップと、
前記生体情報取得ステップにより取得された生体情報と、あらかじめ照合対象者として登録された人物の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての人物が本人であるか否かを判定する照合ステップと、
前記生体情報取得ステップにより取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定ステップと、
この判定ステップにより前記生体情報取得ステップで取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示ステップを制御する制御ステップと、
を具備したことを特徴とする生体照合方法。
A biometric information acquisition step of acquiring biometric information of a person as a person to be verified;
A first display step for displaying the biometric information acquired in this biometric information acquisition step for the person as the person to be collated;
Biometric information acquired by the biometric information acquisition step and dictionary information stored in a dictionary storage unit that stores unique feature information obtained from biometric information of a person registered as a person to be collated in advance as dictionary information. A collation step of determining whether or not the person as the person to be collated is the person himself / herself based on the collation result by collating;
A determination step of determining whether or not at least one of the position and the size of the biological information acquired by the biological information acquisition step has reached a predetermined value;
When it is determined that at least one of the position and size of the biological information acquired in the biological information acquisition step has reached a predetermined value by this determination step, out of the position and size of the acquired biological information A control step for controlling the display step to display information indicating that at least one of the values has reached a predetermined value together with the acquired biological information;
A biometric matching method characterized by comprising:
照合対象者としての通行者の生体情報を取得する生体情報取得手段と、
この生体情報取得手段により取得された生体情報を前記照合対象者としての通行者に対し表示する表示手段と、
あらかじめ照合対象者として登録された通行者の生体情報から得られた固有の特徴情報を辞書情報として記憶する辞書記憶手段と、
前記生体情報取得手段により取得された生体情報と前記辞書記憶手段に記憶された辞書情報とを照合することにより、その各照合結果に基づき前記照合対象者としての通行者が本人であるか否かを判定する照合手段と、
この照合手段の判定結果に応じて前記照合対象者としての通行者の通行を制御する通行制御手段と、
前記生体情報取得手段により取得された生体情報の位置および大きさのうち少なくともいずれか一方があらかじめ定められた所定値になったか否かを判定する判定手段と、
この判定手段により前記生体情報取得手段で取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったと判定された場合、前記取得された生体情報の位置および大きさのうち少なくともいずれか一方が所定値になったことを示す情報を前記取得された生体情報とともに表示するよう前記表示手段を制御する制御手段と、
を具備したことを特徴とする通行制御装置。
Biometric information acquisition means for acquiring biometric information of a passerby as a person to be verified;
Display means for displaying the biometric information acquired by the biometric information acquisition means for a passerby as the person to be collated;
Dictionary storage means for storing, as dictionary information, unique feature information obtained from biometric information of a passerby registered in advance as a verification target;
Whether or not the passerby as the person to be collated is the person himself / herself by collating the biometric information acquired by the biometric information acquisition means with the dictionary information stored in the dictionary storage means, based on the result of each collation Verification means for determining
A passage control means for controlling the passage of the passerby as the person to be collated according to the determination result of the matching means;
Determination means for determining whether at least one of the position and the size of the biological information acquired by the biological information acquisition means has reached a predetermined value;
When it is determined by this determination means that at least one of the position and size of the biological information acquired by the biological information acquisition means has reached a predetermined value, the position and size of the acquired biological information Control means for controlling the display means to display information indicating that at least one of the values has reached a predetermined value together with the acquired biological information;
A traffic control device comprising:
JP2004008858A 2004-01-16 2004-01-16 Biometric collating device, biometric collating method, and passing controller Pending JP2005202732A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004008858A JP2005202732A (en) 2004-01-16 2004-01-16 Biometric collating device, biometric collating method, and passing controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004008858A JP2005202732A (en) 2004-01-16 2004-01-16 Biometric collating device, biometric collating method, and passing controller

Publications (1)

Publication Number Publication Date
JP2005202732A true JP2005202732A (en) 2005-07-28

Family

ID=34822062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004008858A Pending JP2005202732A (en) 2004-01-16 2004-01-16 Biometric collating device, biometric collating method, and passing controller

Country Status (1)

Country Link
JP (1) JP2005202732A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241500A (en) * 2006-03-07 2007-09-20 Toshiba Corp Face authentication device and face authentication method
JP2009048447A (en) * 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2019525358A (en) * 2016-08-24 2019-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identity verification method, apparatus and system
US10974537B2 (en) 2019-08-27 2021-04-13 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification
US11003957B2 (en) 2019-08-21 2021-05-11 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241500A (en) * 2006-03-07 2007-09-20 Toshiba Corp Face authentication device and face authentication method
JP2009048447A (en) * 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2019525358A (en) * 2016-08-24 2019-09-05 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identity verification method, apparatus and system
US10997443B2 (en) 2016-08-24 2021-05-04 Advanced New Technologies Co., Ltd. User identity verification method, apparatus and system
US11003957B2 (en) 2019-08-21 2021-05-11 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification
US10974537B2 (en) 2019-08-27 2021-04-13 Advanced New Technologies Co., Ltd. Method and apparatus for certificate identification

Similar Documents

Publication Publication Date Title
JP4314016B2 (en) Person recognition device and traffic control device
JP3974375B2 (en) Person recognition device, person recognition method, and traffic control device
JP4762805B2 (en) Biometric authentication method and biometric authentication system
US7120278B2 (en) Person recognition apparatus
JP2008071158A (en) Living body guide control method for biometrics authentication device, and biometrics authentication device
JP2004213087A (en) Device and method for personal identification
JP2007179569A (en) Person recognizing device, person recognizing method, passage control device
JP2004234355A (en) Human body recognition device, human body recognition method and passing controller
JP4992517B2 (en) Face matching device
KR20200080533A (en) Apparatus and Method for Recognizing Fake Face By Using Minutia Data Variation
JP2006031103A (en) Biometric system, biometric method and passing control device
JP2005182184A (en) Person recognition apparatus, person recognition method and access control apparatus
JP4620086B2 (en) Personal authentication device and personal authentication method
JP2005202732A (en) Biometric collating device, biometric collating method, and passing controller
JP4320775B2 (en) Face recognition device
JP2004157771A (en) Person identification device, person identification method, and passage controller
JP2003256813A (en) Operator monitoring device
JP2004151978A (en) Figure recognition device, figure recognition method and passage control device
JP2005242777A (en) Face collation device and passage control device
JP4363994B2 (en) Biometric matching device, biometric matching method, and traffic control device
JP2005292994A (en) Personal recognition system and passage control system
JP2002334335A (en) Face image recognition device and passage controller
JP2005063172A (en) Face verifying apparatus and passage controller
JP2004139259A (en) Figure recognition device, figure recognition method and passing control unit
JP2004310287A (en) Person recognition device and passing controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100223