JP2010152706A - Biometric authentication device - Google Patents

Biometric authentication device Download PDF

Info

Publication number
JP2010152706A
JP2010152706A JP2008330888A JP2008330888A JP2010152706A JP 2010152706 A JP2010152706 A JP 2010152706A JP 2008330888 A JP2008330888 A JP 2008330888A JP 2008330888 A JP2008330888 A JP 2008330888A JP 2010152706 A JP2010152706 A JP 2010152706A
Authority
JP
Japan
Prior art keywords
image
contour
data
biometric
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008330888A
Other languages
Japanese (ja)
Other versions
JP5439809B2 (en
Inventor
Toshio Endo
利生 遠藤
Hiroki Yokoi
宏紀 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008330888A priority Critical patent/JP5439809B2/en
Publication of JP2010152706A publication Critical patent/JP2010152706A/en
Application granted granted Critical
Publication of JP5439809B2 publication Critical patent/JP5439809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve authentication accuracy of identification processing (1: N authentication) without deteriorating convenience, in personal authentication using biological information. <P>SOLUTION: A biometric authentication device includes: a means for storing contour images of a predetermined body portion of a plurality of registrants and biological images existing in contour shapes of the contour images as registration data; a means for acquiring a contour image of the predetermined body portion of a user and a biological image existing in the contour shape of the contour image as collation data, for identification processing; a means for aligning the positions of the biological image of the collation data with the biological images of the registration data to calculate similarity; a means for selecting the registration data on the basis of the calculated similarity; a means for extracting a difference characteristic from contour images of the registration data and the contour image of the collation data when two or more selected registration data exist; a means for refining the registration data on the basis of the extracted difference characteristic to obtain an authentication result; and a means for outputting the authentication result. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、生体情報を用いた個人認証(バイオメトリクス認証)のうち識別処理(1:N認証)における認証精度を向上させる技術に関する。   The present invention relates to a technique for improving authentication accuracy in identification processing (1: N authentication) in personal authentication (biometric authentication) using biometric information.

従来から、施設への入退出等の際に人手を介さずに本人であることを確認する手段として、磁気カードや暗証番号(PIN:Personal Identification Number)が用いられている。しかし、これらの手段には、紛失(忘却)や盗用の問題がある。紛失(忘却)や盗用の心配がない本人確認手段として、指紋、顔、静脈等の個人の生体情報を用いる個人認証技術が盛んに研究されている。   Conventionally, a magnetic card or a personal identification number (PIN) has been used as means for confirming the identity of a person without entering a person when entering or leaving a facility. However, these means have problems of loss (forgetting) and theft. As a means for identifying a person who is not worried about losing (forgetting) or stealing, personal authentication technology using personal biometric information such as fingerprints, faces, veins and the like has been actively studied.

特許文献1には生体情報として手のひら等の静脈像(静脈パターン)を用いた認証技術が開示されている。このような静脈認証には以下の特徴がある。
・被撮影者の負担が小さい。
・身体の内部にある生体情報であるため偽造が困難である。
・表面の荒れに強く、ほとんどの人に適用できる。
・認証精度が比較的高い。
・近赤外光で撮影するので、外光変動に強い。
Patent Document 1 discloses an authentication technique using a vein image (vein pattern) such as a palm as biometric information. Such vein authentication has the following characteristics.
-The burden on the subject is small.
-It is difficult to forge because it is biological information inside the body.
-Resistant to rough surfaces and applicable to most people.
・ Authentication accuracy is relatively high.
・ Since it is shot with near infrared light, it is resistant to fluctuations in external light.

一方、個人認証技術は、利用者がカードや番号(ID:Identification)等によって表される特定の人であるかどうかを判定する検証処理(1:1認証)と、登録された複数の人の中の特定の1人であると判定する識別処理(1:N認証)に分類される。本願では、後者の識別処理を対象とする。   On the other hand, the personal authentication technology includes a verification process (1: 1 authentication) for determining whether a user is a specific person represented by a card or a number (ID: Identification), and a plurality of registered persons. It is classified into identification processing (1: N authentication) for determining that it is a specific one of them. In the present application, the latter identification processing is targeted.

静脈像を対象に識別処理を行う静脈認証装置の基本的な動作は次のようになる。   The basic operation of the vein authentication apparatus that performs identification processing on a vein image is as follows.

すなわち、静脈を撮影しやすい手のひら等の人体の部位に近赤外光を照射し、反射あるいは透過した光の強度分布を撮影して静脈像を検出する。このような手法により、あらかじめ各個人毎に静脈像を取得して登録(記憶)しておく。登録されている静脈像を登録静脈像と呼ぶこととする。なお、登録静脈像の取得は識別処理を行う装置とは別に設けた登録用の装置によって行うこともできる。   That is, near-infrared light is irradiated to a part of a human body such as a palm that easily captures a vein, and a vein image is detected by capturing the intensity distribution of reflected or transmitted light. With such a method, a vein image is acquired and registered (stored) for each individual in advance. The registered vein image is called a registered vein image. The registered vein image can be acquired by a registration device provided separately from the device that performs the identification process.

認証時にも同様の手法により静脈像を検出する。認証時に取得された静脈像を照合静脈像と呼ぶこととする。   A vein image is detected by the same method at the time of authentication. The vein image acquired at the time of authentication is called a verification vein image.

そして、複数の登録静脈像と照合静脈像が一致するかどうかを比較判断して認証を行ない、認証結果を出力する。ただし、生体情報は同一人物であってもある程度は変動するので、静脈像の一致の判断においては、ある程度の変動を許容して比較する必要がある。
米国特許第4699149号公報(英国特許第2156127号公報) 特開2003−141542号公報 特許第3356144号公報 特開平9−91434号公報
Then, a comparison is made to determine whether or not a plurality of registered vein images match the verification vein image, authentication is performed, and an authentication result is output. However, since the biometric information varies to some extent even for the same person, it is necessary to allow a certain variation and compare in determining whether the vein images match.
US Pat. No. 4,699,149 (UK Patent No. 2156127) JP 2003-141542 A Japanese Patent No. 3356144 Japanese Patent Laid-Open No. 9-91434

上述した識別処理(1:N認証)では、認証時にカードの提示や利用者を表す番号の入力作業が不要であるという利点があるが、多数の登録データとの照合処理を行なうため、類似した生体情報が登録されている場合には誤識別を起こしやすいという問題がある。   The above-described identification process (1: N authentication) has the advantage that it does not require the card presentation or the input operation of the number representing the user at the time of authentication. When biometric information is registered, there is a problem that misidentification is likely to occur.

識別処理において誤識別を減少させる従来技術として、以下の手法が知られている。
(1)本人判定閾値の厳格化
特許文献2には、類似した顔画像が登録されている場合に、本人判定閾値を上げる(厳しくする)手法が開示されている。この手法により誤識別を減らすことができるが、反面、真正な利用者が本人と認証されにくくなり利便性が低下する問題がある。
(2)認証処理に用いる特徴の増加
公知技術として、複数種類の特徴で認証を行なうマルチモーダルバイオメトリクス技術が広く知られている。例えば、顔と手のひらの撮影を同時に行ない、顔認証と静脈認証を組み合わせて識別処理を行なえば、顔だけでは区別できない2人を識別することが可能となる。ただし、生体情報は同一人物であってもある程度は変動するので、認証処理に用いる特徴を増やすと真正な利用者が本人と認証されにくくなり、利便性が低下するという問題がある。更に、特徴の種類によっては、撮影の手間が増大するという問題がある。
(3)追加情報(ID、パスワード、他の生体情報等)の要求
特許文献3には、認証不可の際にパスワード等を用いて代替認証を行なう方式が開示されている。誤識別を確実に減少させる利点があるが、認証操作が繁雑となり利便性が低下するという問題がある。
(4)類似生体情報の登録拒否
特許文献4には、登録時に既登録の他人の生体情報との類似度を算出し、類似度の高い生体情報が存在しない場合に限って登録処理を行う方式が開示されている。他人と類似した登録データがなくなり誤識別が減少する効果があるが、生体認証を利用できない利用者が現れ、利便性が低下するという問題がある。
The following methods are known as conventional techniques for reducing misidentification in identification processing.
(1) Tightening of personal identification threshold value Patent Document 2 discloses a technique for increasing (strictening) a personal identification threshold value when similar face images are registered. Although this method can reduce misidentification, there is a problem that a genuine user is not easily authenticated as the user and convenience is lowered.
(2) Increase in characteristics used for authentication processing As a known technique, a multimodal biometric technique for performing authentication with a plurality of types of characteristics is widely known. For example, if a face and a palm are photographed at the same time, and identification processing is performed by combining face authentication and vein authentication, it is possible to identify two persons who cannot be distinguished by only the face. However, since the biometric information varies to some extent even if it is the same person, there is a problem that if the features used for the authentication process are increased, it becomes difficult for a genuine user to be authenticated as the user and convenience is lowered. Furthermore, depending on the type of feature, there is a problem that the time and effort of photographing increase.
(3) Request for Additional Information (ID, Password, Other Biometric Information, etc.) Patent Document 3 discloses a method of performing alternative authentication using a password or the like when authentication is impossible. Although there is an advantage of reliably reducing misidentification, there is a problem that authentication operation becomes complicated and convenience is lowered.
(4) Refusal of registration of similar biometric information Patent Document 4 describes a method of calculating a similarity with biometric information of another person who has already been registered at the time of registration, and performing registration processing only when there is no biometric information with a high similarity Is disclosed. There is an effect that there is no registered data similar to others and misidentification is reduced, but there is a problem that a user who cannot use biometric authentication appears and convenience is lowered.

このように、誤識別を減少させる従来技術はいくつか存在するが、利用者の使い勝手を悪化させ、利便性が低下するという問題がある。   As described above, there are several conventional techniques for reducing misidentification, but there is a problem in that convenience for users is deteriorated and convenience is lowered.

上記の従来の問題点に鑑み、生体情報を用いた個人認証において、利便性を損なわずに識別処理(1:N認証)に対する認証精度を向上させることを目的とする。   In view of the above-described conventional problems, an object of the present invention is to improve authentication accuracy for identification processing (1: N authentication) without impairing convenience in personal authentication using biometric information.

この生体認証装置の一実施態様では、複数の登録者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を登録データとして保持する手段と、識別処理の実行に際し、利用者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を照合データとして取得する手段と、前記照合データの生体画像と前記登録データの生体画像の位置合わせを行ない、類似度を算出する手段と、算出された類似度に基づいて登録データを選択する手段と、選択された登録データが2つ以上存在する場合に、当該登録データの輪郭像と前記照合データの輪郭像から差異特徴を抽出する手段と、抽出された差異特徴に基づいて登録データの絞り込みを行い、認証結果を得る手段と、認証結果を出力する手段とを備える。   In one embodiment of this biometric authentication apparatus, when executing a discrimination process, means for holding a contour image of a predetermined body part of a plurality of registrants and a biometric image existing inside the contour shape of the contour image as registration data. Means for acquiring a contour image of a predetermined body part of a user and a biometric image existing inside the contour shape of the contour image as collation data, and alignment of the biometric image of the collation data and the biometric image of the registration data Means for calculating similarity, means for selecting registration data based on the calculated similarity, and when there are two or more selected registration data, the contour image of the registration data and the collation Means for extracting a difference feature from a contour image of data, means for narrowing down registered data based on the extracted difference feature, obtaining an authentication result, and means for outputting the authentication result.

開示の生体認証装置にあっては、与えられた生体情報との類似性が高い登録データが複数存在する場合、それらの登録データを識別できる差異特徴を抽出して絞り込みに利用することで、生体情報を用いた個人認証において、利便性を損なわずに識別処理に対する認証精度を向上させることができる。   In the disclosed biometric authentication device, when there are a plurality of registration data having high similarity to given biometric information, the biometric authentication device extracts the difference features that can identify the registration data and uses them for narrowing down, In personal authentication using information, it is possible to improve the authentication accuracy for identification processing without impairing convenience.

以下、本発明の好適な実施形態につき説明する。   Hereinafter, preferred embodiments of the present invention will be described.

<概要>
本実施形態は、生体情報を用いた個人認証の識別処理(1:N認証)において、誤識別を低減させるものである。なお、生体情報として、手のひら輪郭と手のひら静脈を認証に用いる場合について説明を行なうが、他部位の輪郭と静脈像に対しても適用可能である。更に、静脈像以外の生体情報を対象とすることもできる。
<Overview>
In the present embodiment, misidentification is reduced in identification processing (1: N authentication) for personal authentication using biometric information. In addition, although the case where a palm outline and a palm vein are used for authentication as biometric information will be described, the present invention can also be applied to outlines and vein images of other parts. Furthermore, biological information other than vein images can be targeted.

基本的な処理手順は以下の通りである。すなわち、与えられた照合静脈像と各登録静脈像の類似度を算出する。なお、類似度の算出においては、それぞれの輪郭像(照合輪郭像、登録輪郭像)および静脈像(照合静脈像、登録静脈像)を用いた位置合わせを行い、位置合わせの済んだ状態での最適な類似度を出力する。位置合わせの処理については後述する。   The basic processing procedure is as follows. That is, the similarity between the given verification vein image and each registered vein image is calculated. In the calculation of the similarity, alignment is performed using each contour image (collation contour image, registered contour image) and vein image (collation vein image, registered vein image), and the alignment is completed. The optimal similarity is output. The alignment process will be described later.

与えられた閾値よりも類似度が高い登録静脈像が1つだけの場合には、認証結果として、その登録データのIDを返す。1つも存在しない場合には、認証結果として、未登録を返す。   If there is only one registered vein image having a similarity higher than the given threshold, the ID of the registered data is returned as the authentication result. If none exists, an unregistered result is returned as an authentication result.

以下、与えられた閾値よりも類似度が高い登録静脈像が複数存在する場合を扱う。類似度の算出に伴い、各登録静脈像と照合静脈像の位置合わせ結果が得られる。   Hereinafter, a case where there are a plurality of registered vein images having a similarity higher than a given threshold value will be handled. With the calculation of the similarity, the registration result of each registered vein image and verification vein image is obtained.

静脈像の位置合わせ結果を利用して、輪郭像の位置合わせを行ない、輪郭形状から登録データを識別できる差異特徴を抽出する。差異特徴の抽出の詳細については後述する。   Using the result of registration of the vein image, the contour image is aligned, and the difference feature that can identify the registered data is extracted from the contour shape. Details of the extraction of the difference feature will be described later.

そして、抽出された差異特徴によって登録静脈像の絞り込みを行ない、1つの登録データを選択し、認証結果として、その登録データのIDを返す。   Then, the registered vein image is narrowed down based on the extracted difference feature, one registered data is selected, and the ID of the registered data is returned as an authentication result.

本手法には以下の特徴があり、利用者の利便性を損なわないという利点がある。
・本人判定閾値は不変であり、閾値の変動に起因する本人拒否は増加しない。
・輪郭像と静脈像は1度の撮影で得られるので、撮影の手間は増えない。
・利用者の追加操作は不要である。
・登録時の拒否は発生しない。
This method has the following features and has the advantage that it does not impair user convenience.
・ The identity determination threshold is unchanged, and the rejection of identity due to the fluctuation of the threshold does not increase.
・ Since the contour image and vein image can be obtained once, the time and effort of photographing does not increase.
-No additional user operation is required.
・ No rejection at registration.

<装置構成>
図1は一実施形態にかかる生体認証装置の構成例を示す図である。
<Device configuration>
FIG. 1 is a diagram illustrating a configuration example of a biometric authentication apparatus according to an embodiment.

図1において、生体認証装置1は、照射部2と撮影部3と記憶部4と認証部5とを備えている。   In FIG. 1, the biometric authentication device 1 includes an irradiation unit 2, an imaging unit 3, a storage unit 4, and an authentication unit 5.

照射部2は、静脈像を撮影しやすい手のひら等の人体の部位Pに近赤外光を照射する機能を有している。   The irradiation unit 2 has a function of irradiating a near-infrared light to a part P of a human body such as a palm that easily captures a vein image.

撮影部3は、部位Pにより反射あるいは透過した光の強度分布を撮影して照合データを検出する機能を有している。照合データは照合静脈像と照合輪郭像とを含んでいる。   The imaging unit 3 has a function of detecting collation data by imaging the intensity distribution of light reflected or transmitted by the part P. The verification data includes a verification vein image and a verification contour image.

記憶部4は、あらかじめ各個人毎の登録データを登録して記憶しておくものである。登録データは登録静脈像と登録輪郭像とを含んでいる。   The storage unit 4 registers and stores registration data for each individual in advance. The registration data includes a registered vein image and a registered contour image.

認証部5は、記憶部4に記憶された登録データ(登録静脈像、登録輪郭像)と撮影部3により検出された照合データ(照合静脈像、照合輪郭像)に基づいて認証処理を行い、認証結果を出力する機能を有している。認証処理の詳細については後述する。   The authentication unit 5 performs authentication processing based on the registration data (registered vein image, registered contour image) stored in the storage unit 4 and the matching data (matching vein image, matching contour image) detected by the photographing unit 3, It has a function to output the authentication result. Details of the authentication process will be described later.

典型的には、記憶部4と認証部5はコンピュータ装置により実現され、認証部5はコンピュータプログラムにより実現されるが、記憶部4と認証部5は必ずしも同一のコンピュータ装置内に置く必要はない。例えば、記憶部4としてカード(ICカード等)を用いることができる。また、記憶部4と認証部5は、照射部2および撮影部3とは遠隔の、ネットワークで繋がれたホストコンピュータに置くこともできる。   Typically, the storage unit 4 and the authentication unit 5 are realized by a computer device, and the authentication unit 5 is realized by a computer program. However, the storage unit 4 and the authentication unit 5 do not necessarily have to be placed in the same computer device. . For example, a card (IC card or the like) can be used as the storage unit 4. In addition, the storage unit 4 and the authentication unit 5 can be placed on a host computer connected to the network that is remote from the irradiation unit 2 and the imaging unit 3.

図2は記憶部4のデータ構造例を示す図であり、「ID」と「登録静脈像」と「登録輪郭像」の項目を有し、IDに登録静脈像と登録輪郭像とを対応付けて記憶している。IDは、利用者個人を特定する記号である。登録静脈像は、一定の規則に従って静脈像の各画素の値や各特徴点の位置等を数字の列に変換したものである。登録輪郭像は、一定の規則に従って輪郭像の各画素の値や各特徴点の位置等を数字の列に変換したものである。   FIG. 2 is a diagram showing an example of the data structure of the storage unit 4, which has items “ID”, “registered vein image”, and “registered contour image”, and associates the registered vein image and registered contour image with the ID. I remember. The ID is a symbol that identifies an individual user. The registered vein image is obtained by converting the value of each pixel of the vein image, the position of each feature point, and the like into a string of numbers according to a certain rule. The registered contour image is obtained by converting the value of each pixel of the contour image, the position of each feature point, and the like into a string of numbers according to a certain rule.

図3は認証部5の構成例を示す図である。図3において、認証部5は、照合部51と候補選択部52と特徴抽出部53と特徴比較部54と出力部55とを備えている。   FIG. 3 is a diagram illustrating a configuration example of the authentication unit 5. In FIG. 3, the authentication unit 5 includes a collation unit 51, a candidate selection unit 52, a feature extraction unit 53, a feature comparison unit 54, and an output unit 55.

照合部51は、照合データと登録データを読み込み、輪郭像(照合輪郭像、登録輪郭像)および静脈像(照合静脈像、登録静脈像)を用いた位置合わせを行い、位置合わせの済んだ状態で照合静脈像と各登録静脈像の類似度を算出する機能を有している。   The collation unit 51 reads the collation data and the registration data, performs alignment using the contour image (collation contour image, registration contour image) and vein image (collation vein image, registration vein image), and has completed the alignment. The function of calculating the similarity between the verification vein image and each registered vein image is provided.

候補選択部52は、与えられた閾値よりも類似度が高い登録静脈像が1つだけの場合には、その登録データのIDを出力部55に渡し、与えられた閾値よりも類似度が高い登録静脈像が複数存在する場合には、類似度が上位所定順位までの複数の登録静脈像のIDを次段の特徴抽出部53に渡す機能を有している。与えられた閾値よりも類似度が高い登録静脈像が1つもない場合、候補選択部52は未登録(該当者なし)を示す情報を出力部55に渡す。   If there is only one registered vein image whose similarity is higher than the given threshold, the candidate selection unit 52 passes the ID of the registered data to the output unit 55, and the similarity is higher than the given threshold. In the case where there are a plurality of registered vein images, there is a function of passing the IDs of a plurality of registered vein images having a degree of similarity up to a predetermined order to the feature extraction unit 53 in the next stage. If there is no registered vein image having a similarity higher than the given threshold value, the candidate selecting unit 52 passes information indicating unregistered (no corresponding person) to the output unit 55.

特徴抽出部53は、照合部51における位置合わせ結果を利用して、輪郭像の位置合わせを行ない、輪郭形状から登録データを識別できる差異特徴を抽出し、IDと対応付けて差異特徴を特徴比較部54に渡す機能を有している。   The feature extraction unit 53 uses the alignment result in the matching unit 51 to perform alignment of the contour image, extracts a difference feature that can identify the registered data from the contour shape, and compares the difference feature with the ID in association with the feature. The function of passing to the unit 54 is provided.

特徴比較部54は、特徴抽出部53により抽出された差異特徴によって登録データの絞り込みを行ない、1つの登録データを選択し、その登録データのIDを出力部55に渡す機能を有している。   The feature comparison unit 54 has a function of narrowing down registration data based on the difference features extracted by the feature extraction unit 53, selecting one registration data, and passing the ID of the registration data to the output unit 55.

出力部55は、認証結果として登録データのIDもしくは未登録の旨を出力する機能を有している。   The output unit 55 has a function of outputting registration data ID or unregistered information as an authentication result.

<動作>
図4は上記の実施形態の全体的な処理例を示すフローチャートである。
<Operation>
FIG. 4 is a flowchart showing an overall processing example of the above embodiment.

図4において、生体認証装置1は、処理を開始すると(ステップS1)、静脈像を撮影しやすい手のひら等の人体の部位Pに照射部2から近赤外光を照射する(ステップS2)。   In FIG. 4, the biometric authentication device 1 starts processing (step S1), and irradiates a near-infrared light from the irradiation unit 2 to a part P of a human body such as a palm that easily captures a vein image (step S2).

撮影部3は、部位Pにより反射あるいは透過した光の強度分布を撮影して照合データを検出する(ステップS3)。照合データは照合静脈像と照合輪郭像とを含んでいる。   The imaging unit 3 detects the collation data by imaging the intensity distribution of the light reflected or transmitted by the part P (step S3). The verification data includes a verification vein image and a verification contour image.

撮影部3において撮影した画像から照合静脈像と照合輪郭像とを検出する手法の例を以下に示す。   An example of a technique for detecting a verification vein image and a verification contour image from an image captured by the imaging unit 3 will be described below.

撮影された画像上で、背景は明るく、手のひら等はやや暗く、静脈は最も暗く表されるので、例えば、撮影した画像を以下のように3値化することで照合静脈像と照合輪郭像を検出することができる。
(1)撮影した画像の各画素の値が定められた第1閾値よりも大きい場合には、背景を表す値「0」とする。
(2)上記(1)に該当せず、各画素の値が定められた第2閾値(第1閾値よりも小さな値)よりも大きい場合には、手のひら等を表す値「2」とする。
(3)それ以外の場合には、静脈を表す値「1」とする。
(4)上記の(1)〜(3)による3値化後に、全画素を1つずつ走査して、注目画素が手のひら等を表す値「2」であり、その隣の画素が背景を表す値「0」の場合に、注目画素の値を輪郭を表す値「4」に変更する。
(5)静脈を表す値「1」の画素はそのままとし、他の画素の値を「0」とすることで、照合静脈像が得られる。
(6)上記の(4)の処理結果から、輪郭を表す値「4」以外の画素の値を「0」とし、輪郭を表す値「4」を値「1」に変更することで、照合輪郭像が得られる。
On the photographed image, the background is bright, the palms etc. are slightly dark, and the veins are darkest. For example, by collating the photographed image as follows, the collation vein image and the collation contour image are obtained. Can be detected.
(1) When the value of each pixel of the photographed image is larger than a predetermined first threshold, the value representing the background is set to “0”.
(2) If the value of each pixel does not correspond to the above (1) and is larger than a predetermined second threshold value (a value smaller than the first threshold value), the value “2” representing the palm or the like is set.
(3) In other cases, the value “1” representing the vein is used.
(4) After the ternarization according to the above (1) to (3), all the pixels are scanned one by one, the target pixel is the value “2” representing the palm and the like, and the adjacent pixel represents the background In the case of the value “0”, the value of the target pixel is changed to a value “4” representing the contour.
(5) The pixel of the value “1” representing the vein is left as it is, and the value of the other pixels is set to “0”, thereby obtaining a verification vein image.
(6) From the processing result of (4) above, the pixel value other than the value “4” representing the contour is set to “0”, and the value “4” representing the contour is changed to the value “1”. A contour image is obtained.

図4に戻り、認証部5は、記憶部4に格納されている複数の登録データ(登録静脈像、登録輪郭像)と照合データ(照合静脈像、照合輪郭像)に基づいて認証処理を行い(ステップS4)、認証結果を出力し(ステップS5)、処理を終了する(ステップS6)。   Returning to FIG. 4, the authentication unit 5 performs an authentication process based on a plurality of registered data (registered vein image, registered contour image) and verification data (verification vein image, verification contour image) stored in the storage unit 4. (Step S4), the authentication result is output (Step S5), and the process is terminated (Step S6).

図5は認証部5の処理例を示すフローチャートである。   FIG. 5 is a flowchart showing a processing example of the authentication unit 5.

図5において、認証部5は、処理を開始すると(ステップS11)、照合部51により撮影部3の検出した照合データ(照合静脈像、照合輪郭像)を取得し(ステップS12)、記憶部4から複数人の登録データ(ID、登録静脈像、登録輪郭像)を取得する(ステップS13)。繰り返し識別処理を行なう場合には、前回の識別処理における登録データを保持しておき、そのまま用いることができる。その場合、登録データの取得(ステップS13)は省略することができる。   In FIG. 5, when the authentication unit 5 starts processing (step S11), the verification unit 51 acquires the verification data (verification vein image and verification contour image) detected by the imaging unit 3 (step S12), and the storage unit 4 The registration data (ID, registered vein image, registered contour image) of a plurality of persons is acquired from (step S13). When the identification process is repeatedly performed, the registration data in the previous identification process can be held and used as it is. In that case, registration data acquisition (step S13) can be omitted.

図6は照合部51の入力データの例を示す図であり、(a)は照合データ、(b)はID「0001」「0002」「0003」の3つの登録データの例を示している。(a)(b)ともに左側は静脈像を示し、右側は輪郭像を示している。静脈像と輪郭像は一緒に検出されるが、別々の2値画像に分離されて渡される。ここでは、静脈像、輪郭像とも2値画像としている。2値画像は、メモリ上では、行の右端画素の次に1段下の左端画素を配置して表現する。   FIG. 6 is a diagram illustrating an example of input data of the collation unit 51, where (a) illustrates collation data, and (b) illustrates three registration data with IDs “0001”, “0002”, and “0003”. In both (a) and (b), the left side shows a vein image, and the right side shows a contour image. The vein image and the contour image are detected together, but separated into separate binary images and passed. Here, both the vein image and the contour image are binary images. The binary image is expressed by arranging the leftmost pixel one stage below the rightmost pixel in the row on the memory.

次いで、図5に戻り、照合部51は、照合データと複数の登録データにつき、それぞれの輪郭像および静脈像を用いた位置合わせを行い、位置合わせの済んだ状態で照合静脈像と各登録静脈像の一致の程度を表す類似度を算出する(ステップS14)。   Next, referring back to FIG. 5, the collation unit 51 performs alignment using the respective contour images and vein images for the collation data and the plurality of registration data. A similarity indicating the degree of matching of images is calculated (step S14).

位置合わせは、手を置く位置や向きによって類似度の値が影響を受けるのを防止するために行う。静脈像のみを用いて位置合わせを行う場合、登録静脈像と照合静脈像の位置関係を変化(静脈像の平行移動、拡大/縮小、回転等)させながら類似度を繰り返し計算し、それらの類似度の最大値を用いる方法が考えられる。位置合わせの際には、一方の静脈像を基準として止めておき、もう一方の静脈像を移動させることが多いが、基準の取り方は本質的ではなく両静脈像を移動させて位置合わせを行なうことも可能である。しかし、この手法では処理が複雑となり、高速に処理を行えないという問題がある。   The alignment is performed to prevent the similarity value from being affected by the position and orientation of the hand. When performing registration using only the vein image, the similarity is repeatedly calculated while changing the positional relationship between the registered vein image and the verification vein image (parallel movement, enlargement / reduction, rotation, etc. of the vein image), and their similarity A method using the maximum value of degree can be considered. When aligning, one vein image is often used as a reference, and the other vein image is moved. However, the method of reference is not essential, and both vein images are moved for alignment. It is also possible to do this. However, this method has a problem that the processing is complicated and the processing cannot be performed at high speed.

一方、静脈像と比較して輪郭像の輪郭形状は単純であり、かつ他人間で共通しているため、容易に輪郭間の位置合わせを行なえる利点がある。例えば、特開2002−92616号公報には、指の輪郭の位置情報を元に、指静脈パターンの位置合わせを行なう手法が開示されている。輪郭は、静脈像を検出する過程で副次的に得られるので、新規の撮影は不要である。   On the other hand, the contour shape of the contour image is simple compared to the vein image and is common to other people, and therefore, there is an advantage that alignment between the contours can be easily performed. For example, Japanese Patent Application Laid-Open No. 2002-92616 discloses a technique for aligning a finger vein pattern based on position information of a finger outline. Since the contour is obtained as a secondary process in the process of detecting the vein image, no new imaging is required.

ただし、手のひら等の輪郭像は位置姿勢の影響を受けやすく、静脈像ほどは安定して検出されないことが多い。そこで、輪郭像で大まかに位置合わせした後に、静脈像間で位置合わせを微調整することが望ましい。多数の登録静脈像との位置合わせを微調整の範囲に留めることにより、照合処理が高速化される。   However, a contour image such as a palm is easily affected by the position and orientation, and is often not detected as stably as a vein image. Therefore, it is desirable to finely adjust the alignment between the vein images after roughly aligning with the contour image. The matching process is speeded up by keeping the alignment with a large number of registered vein images within the range of fine adjustment.

図7は照合部51における輪郭像による位置合わせの手法例を示す図である。図7において、登録データの輪郭形状SHと照合データの輪郭形状SHが与えられた場合、両者をあらかじめ定めた標準的な輪郭形状に合致するように変換することで輪郭形状SH’と輪郭形状SH’を得る。輪郭形状の内部にある静脈像も同じ変換を施すことで位置合わせが行われる。 FIG. 7 is a diagram illustrating an example of a positioning method using a contour image in the matching unit 51. 7, if the contour SH 0 contour SH 1 and collation data registered data is given, by converting to match the standard profile that defines both advance and contour SH 1 ' The contour shape SH 0 ′ is obtained. The vein image inside the contour shape is also aligned by performing the same conversion.

与えられた2つの輪郭像につき、輪郭形状の上下左右端が一致するように静脈像を変換することで位置合わせする手法例をより詳しく示せば次のようになる。
(1)輪郭形状の上下左右端を記録する領域をそれぞれ用意する。
(2)輪郭形状を表す2つの輪郭像に対して、それぞれ全画素を1画素ずつ走査して、輪郭形状の上下左右端を記録する領域の内容を更新する。例えば、記録された上端よりも画像上部に輪郭形状が存在する場合には、上端を記録する領域の内容をその画素の垂直方向の座標値に置き換える。
(3)2つの輪郭形状に対して、一方の上下左右端位置を他方の上下左右端位置に写す座標変換規則を定める。例えば、水平方向、垂直方向別々に座標変換を行なうこととし、水平方向に関して左端を左端に右端を右端に写す1次式を用いる。垂直方向も同様に定める。
(4)静脈形状を表す静脈像に対して、全画素を1画素ずつ走査して、静脈形状を表す画素の座標値に前記の座標変換規則を適用して得られる座標値を求め、その座標値を静脈形状とする静脈像を生成する。
An example of a technique for aligning the two contour images by converting the vein images so that the top, bottom, left, and right ends of the contour shapes coincide with each other is as follows.
(1) Prepare areas for recording the top, bottom, left and right edges of the contour shape.
(2) The two contour images representing the contour shape are scanned one by one for each pixel, and the contents of the area for recording the top, bottom, left and right edges of the contour shape are updated. For example, when the contour shape exists above the recorded upper end of the image, the contents of the area where the upper end is recorded are replaced with the vertical coordinate value of the pixel.
(3) For the two contour shapes, a coordinate conversion rule for mapping one up / down / left / right end position to the other up / down / left / right end position is determined. For example, coordinate conversion is performed separately for the horizontal direction and the vertical direction, and a linear expression that uses the left end as the left end and the right end as the right end in the horizontal direction is used. The vertical direction is determined in the same manner.
(4) All the pixels are scanned one by one with respect to the vein image representing the vein shape, and the coordinate value obtained by applying the coordinate conversion rule to the coordinate value of the pixel representing the vein shape is obtained. A vein image whose value is a vein shape is generated.

照合部51における類似度の算出は、例えば次のような手順により行う。なお、静脈像は、例えば2値画像(静脈に対応しない画素では「0」、静脈に対応する画素では「1」)として表現されるものとしている。
(1)初期化注目画素を画像左上に設定する。一致した画素の個数を保持する変数(カウンタ)を0に初期化する。
(2)画素値の比較注目画素における、2枚の画像の画素の値を獲得して比較する。両者が一致していればカウンタの値を1つ増加させる。
(3)注目画素の移動注目画素を1つ右に移動する。右端の場合には、1つ下の左端に移動する。右下の場合には終了する。
(4)繰り返し再度、画素値の比較を行なう。
(5)類似度出力カウンタの値を類似度とする。
The calculation of the similarity in the matching unit 51 is performed by the following procedure, for example. The vein image is expressed as, for example, a binary image (“0” for pixels not corresponding to veins and “1” for pixels corresponding to veins).
(1) The initialization target pixel is set at the upper left of the image. A variable (counter) that holds the number of matched pixels is initialized to zero.
(2) Comparison of pixel values The pixel values of two images in the target pixel are acquired and compared. If they match, the counter value is incremented by one.
(3) Moving the target pixel The target pixel is moved to the right by one. In the case of the right end, it moves to the lower left one. If it is in the lower right, exit.
(4) The pixel values are compared again and again.
(5) The value of the similarity output counter is set as the similarity.

図8は照合部51の出力データの例を示す図であり、登録データのID「0001」「0002」「0003」のそれぞれにつき、照合データとの類似度と、位置合わせ量が含まれている。類似度は、画素の値が一致した画素数を全画素数で割った値を用いている。位置合わせ量は、類似度が最大になる位置合わせ量であり、例えば、(1,0)は、登録静脈像を水平方向右側に1画素移動することを表している。   FIG. 8 is a diagram illustrating an example of output data of the collation unit 51. Each of the registration data IDs “0001”, “0002”, and “0003” includes the similarity to the collation data and the alignment amount. . As the similarity, a value obtained by dividing the number of pixels having the same pixel value by the total number of pixels is used. The alignment amount is an alignment amount that maximizes the degree of similarity. For example, (1, 0) indicates that the registered vein image is moved by one pixel to the right in the horizontal direction.

なお、上記の説明においては輪郭像や静脈像として2値の画像をそのまま用いたが、記憶容量の削減や認証処理の更なる高速化のため、輪郭像や静脈像から特徴量を算出してそれらを記憶し、認証時には特徴量の比較によって類似度を算出する方法も考えられる。特徴量としては、例えば、折れ線表現の頂点や分岐点や端点等の特徴点の座標値が考えられる。本願は、輪郭像や静脈像の表現形態の詳細には関わらない。   In the above description, the binary image is used as it is as the contour image or vein image. However, in order to reduce the storage capacity and further speed up the authentication process, the feature amount is calculated from the contour image or vein image. A method of storing them and calculating the degree of similarity by comparing feature amounts at the time of authentication is also conceivable. As the feature amount, for example, coordinate values of feature points such as vertices, branch points, and end points in a polygonal line expression can be considered. The present application is not concerned with the details of the expression form of the contour image and the vein image.

図5に戻り、候補選択部52は、与えられた閾値よりも類似度が高い登録静脈像が複数あるか否か判断し(ステップS15)、1つだけの場合(ステップS15のNO)には、その登録データのIDを出力部55に渡す。出力部55は認証結果としてそのIDを出力し(ステップS19)、処理を終了する(ステップS20)。   Returning to FIG. 5, the candidate selection unit 52 determines whether or not there are a plurality of registered vein images having a degree of similarity higher than the given threshold (step S15), and when there is only one (NO in step S15). The ID of the registration data is passed to the output unit 55. The output unit 55 outputs the ID as an authentication result (step S19) and ends the process (step S20).

与えられた閾値よりも類似度が高い登録静脈像が1つもない場合、候補選択部52は未登録を示す情報を出力部55に渡し、出力部55は認証結果として未登録の旨を出力し(ステップS19)、処理を終了する(ステップS20)。   If there is no registered vein image with a similarity higher than the given threshold, the candidate selection unit 52 passes information indicating unregistration to the output unit 55, and the output unit 55 outputs unregistered information as an authentication result. (Step S19), the process is terminated (Step S20).

一方、与えられた閾値よりも類似度が高い登録静脈像が複数存在する場合(ステップS15のYES)、候補選択部52は類似度が上位所定順位までの複数の登録静脈像のIDを特定して次段の特徴抽出部53に渡す(ステップS16)。   On the other hand, when there are a plurality of registered vein images having a degree of similarity higher than the given threshold value (YES in step S15), the candidate selection unit 52 specifies the IDs of the plurality of registered vein images whose similarity is higher than the predetermined order. To the next feature extraction unit 53 (step S16).

図9は候補選択部52の出力データの例を示す図である。この例では、図8の各登録データの類似度に対して判定閾値として「0.95」を用い、この判定閾値「0.95」を超えた登録データとしてID「0001」「0003」が選択され、総数が2であることを示している。この例では、類似登録像は複数(2個)存在するので、次段の特徴抽出部53による差異特徴の抽出処理が行なわれる。   FIG. 9 is a diagram illustrating an example of output data of the candidate selection unit 52. In this example, “0.95” is used as a determination threshold for the similarity of each registered data in FIG. 8, and IDs “0001” and “0003” are selected as registered data exceeding the determination threshold “0.95”. It is shown that the total number is 2. In this example, since there are a plurality (two) of similar registration images, the difference feature extraction processing is performed by the feature extraction unit 53 in the next stage.

図5に戻り、特徴抽出部53は、照合部51における位置合わせ結果を利用して、輪郭像の位置合わせを行ない、輪郭形状から登録データを識別できる差異特徴を抽出し、IDと対応付けて差異特徴を特徴比較部54に渡す(ステップS17)。   Returning to FIG. 5, the feature extraction unit 53 uses the alignment result in the matching unit 51 to perform alignment of the contour image, extracts a difference feature that can identify registered data from the contour shape, and associates it with the ID. The difference feature is transferred to the feature comparison unit 54 (step S17).

以下、特徴抽出部53における差異特徴の抽出の1手法を説明する。なお、輪郭像と静脈像は2値の画像で表現されており、照合処理による位置合わせは完了しているものとする。
(1)1つの輪郭形状を基準とする。基準とした輪郭形状を基準輪郭形状と呼び、この基準輪郭形状を含む画像を基準輪郭像と呼ぶ。基準輪郭形状は、例えば、あらかじめ定めた標準輪郭形状、あるいはもっとも類似度の高い登録静脈像に対応する輪郭形状、または照合静脈像に対応する輪郭形状から選択する。
(2)基準輪郭像の各画素に対して、その注目画素が輪郭形状を表す場合(輪郭像において注目画素の値が「1」である場合)に、以下の処理を行なう。
(3)注目画素を中心として画像を切り出すことで、部分輪郭像を作成する。
(4)他の特徴抽出対象の輪郭像(登録輪郭像または照合輪郭像のうち基準輪郭像となっていないもの)における対応する注目画素近傍の全画素に対して、その注目画素を中心として画像を切り出すことで部分輪郭像を作成する。
(5)作成された2つの部分輪郭像の位置合わせを行ない、その移動距離を算出する。
(6)部分輪郭像の注目画素毎に、移動距離の最大値(あるいは2乗平均)を算出する。
(7)移動距離の最大値(あるいは2乗平均)が最大となる画素の座標値を差異特徴とする。
Hereinafter, one method for extracting the difference features in the feature extraction unit 53 will be described. Note that the contour image and the vein image are expressed as binary images, and the alignment by the collation processing is completed.
(1) One contour shape is used as a reference. The reference contour shape is called a reference contour shape, and an image including this reference contour shape is called a reference contour image. The reference contour shape is selected from, for example, a predetermined standard contour shape, a contour shape corresponding to a registered vein image having the highest similarity, or a contour shape corresponding to a verification vein image.
(2) For each pixel of the reference contour image, when the target pixel represents a contour shape (when the value of the target pixel is “1” in the contour image), the following processing is performed.
(3) A partial contour image is created by cutting out an image around the pixel of interest.
(4) An image centered on the target pixel for all pixels in the vicinity of the corresponding target pixel in the contour image of another feature extraction target (registered contour image or collation contour image that is not a reference contour image). A partial contour image is created by cutting out.
(5) The two created partial contour images are aligned, and the movement distance is calculated.
(6) The maximum value (or mean square) of the movement distance is calculated for each target pixel of the partial contour image.
(7) The coordinate value of the pixel having the maximum moving distance (or the root mean square) is the difference feature.

図10は特徴抽出部53における差異特徴の抽出の例を示す図である。この例では、破線で示す基準輪郭像に対し、実線で示す特徴抽出対象の輪郭像が、子指つけね付近で位置合わせの移動量が最大となり、子指つけねの座標値が差異特徴として抽出される。   FIG. 10 is a diagram illustrating an example of extraction of a difference feature in the feature extraction unit 53. In this example, with respect to the reference contour image indicated by the broken line, the contour image of the feature extraction target indicated by the solid line has the maximum amount of alignment movement in the vicinity of the child finger and the coordinate value of the child finger is the difference feature. Extracted.

なお、輪郭形状の検出精度は一般にはあまり高くないため、検出誤差によって不適切な差異特徴が抽出されるおそれがある。この問題を解決する方法として、例えば、複数の差異特徴を抽出して、照合輪郭に対する差異特徴値との差の中央値が最小となる登録輪郭像を識別結果とする手法が考えられる。   Note that since the detection accuracy of the contour shape is generally not so high, an inappropriate difference feature may be extracted due to a detection error. As a method for solving this problem, for example, a method may be considered in which a plurality of different features are extracted, and a registered contour image in which the median of the difference from the different feature value with respect to the matching contour is the smallest is used as the identification result.

また、上述したのとは別の差異特徴の抽出手法として、位置合わせ後の輪郭像間の画素の値が一致しない画素を求めることもできる。   Further, as a different feature extraction method different from that described above, pixels whose pixel values do not match between the aligned contour images can be obtained.

図11は特徴抽出部53における処理データの例を示す図である。(a)はID「0001」の位置合わせ後の輪郭像の例を示しており、(b)はID「0003」の位置合わせ後の輪郭像の例を示している。ここで、(a)の輪郭像と(b)の輪郭像を画素単位で比較し、一致する画素を「0」、不一致の画素を「1」とすることで、(c)に示すような差異特徴の画像が得られる。この画像において「1」で示される不一致の画素が差異特徴となる。   FIG. 11 is a diagram illustrating an example of processing data in the feature extraction unit 53. (A) shows an example of a contour image after alignment of ID “0001”, and (b) shows an example of a contour image after alignment of ID “0003”. Here, the contour image of (a) and the contour image of (b) are compared on a pixel basis, and the matching pixel is set to “0” and the mismatching pixel is set to “1”, as shown in (c). An image of the difference feature is obtained. In this image, a non-matching pixel indicated by “1” becomes a difference feature.

図5に戻り、特徴比較部54は、特徴抽出部53により抽出された差異特徴によって登録データの絞り込みを行ない、1つの登録データを選択し、その登録データのIDを出力部55に渡す(ステップS18)。すなわち、特徴比較部54は、照合データの差異特徴と各登録データの差異特徴とを比較し、同じ差異特徴を有するか否かで登録データの絞り込みを行なう。差異特徴が座標値で与えられる場合は双方の座標値を比較する。差異特徴が図11(c)に示すような不一致画素で与えられる場合は、不一致画素に対してのみ、各登録輪郭像と照合輪郭像の比較を行ない、画素の値が一致した割合を差異特徴の類似度として算出し、差異特徴の類似度が最も高い登録データを特定する。   Returning to FIG. 5, the feature comparison unit 54 narrows down the registration data based on the difference features extracted by the feature extraction unit 53, selects one registration data, and passes the ID of the registration data to the output unit 55 (step). S18). That is, the feature comparison unit 54 compares the difference feature of the collation data with the difference feature of each registered data, and narrows down the registered data depending on whether or not they have the same difference feature. When the difference feature is given as a coordinate value, both coordinate values are compared. When the difference feature is given by non-matching pixels as shown in FIG. 11C, the registered contour image is compared with the matching contour image only for the non-matching pixels, and the ratio of the matching pixel values is indicated as the difference feature. And the registered data having the highest similarity of the difference features is specified.

図12は特徴比較部54の出力データの例を示す図であり、差異特徴の類似度が最も高いID「0003」の登録データが最終的に選択された状態を示している。   FIG. 12 is a diagram showing an example of output data of the feature comparison unit 54, and shows a state in which the registered data of ID “0003” having the highest similarity of the different features is finally selected.

図5に戻り、出力部55は、特徴比較部54から登録データのIDを受け取った場合、そのIDを認証結果として出力し(ステップS19)、処理を終了する(ステップS20)。   Returning to FIG. 5, when the output unit 55 receives the ID of the registration data from the feature comparison unit 54, the output unit 55 outputs the ID as an authentication result (step S19), and ends the process (step S20).

<他手法との比較>
図13はマルチモーダルバイオメトリクスとの比較例を示す図である。マルチモーダルバイオメトリクスとは、前述したように、輪郭認証と静脈認証を単純に組み合わせた方式である。
<Comparison with other methods>
FIG. 13 is a diagram showing a comparative example with multimodal biometrics. Multimodal biometrics is a method that simply combines contour authentication and vein authentication as described above.

図13において、登録データには利用者本人の登録データの他に類似した他人の登録データが存在すると、照合データと各登録データについて輪郭像間の類似度と静脈像間の類似度をそれぞれ比較するだけでは、類似した他人を識別することはできない。一方、上述した実施形態では、静脈像により位置合わせを行なった後に輪郭像から差異特徴を抽出して比較するため、両者を識別することが可能である。   In FIG. 13, if there is similar registration data in addition to the registration data of the user himself / herself in the registration data, the similarity between the contour images and the similarity between the vein images are compared for each of the verification data and each registration data. You can't identify similar people just by doing. On the other hand, in the above-described embodiment, since the difference feature is extracted from the contour image and compared after performing the alignment by the vein image, both can be identified.

図14は輪郭像と静脈像を合わせる方式との比較例を示す図である。輪郭像と静脈像を合わせるとは、輪郭像と静脈像を合わせて仮想的な1つの静脈像と見なして静脈認証を適用することをいう。   FIG. 14 is a diagram showing a comparative example of a method for combining a contour image and a vein image. Matching the contour image and the vein image means applying the vein authentication by considering the contour image and the vein image as one virtual vein image.

この方式では、前述した図13に示すような、登録データに利用者本人の登録データの他に類似した他人の登録データが存在する場合であっても2つの登録データを識別することは可能である。ただし、一般に、輪郭形状の検出精度は静脈像の検出精度よりも低いことが多いため、この比較方式では、図14に示すように、照合データの輪郭形状が変動した場合には本人と判定されなくなる。一方、上述した実施形態では、類似度が高い登録静脈像が複数存在する場合にのみ差異特徴を抽出するため、図14に示すような輪郭形状が変動した場合にも本人と判定することが可能である。   In this method, as shown in FIG. 13 described above, it is possible to identify two registration data even when the registration data includes similar registration data of another person in addition to the registration data of the user himself / herself. is there. However, in general, the detection accuracy of the contour shape is often lower than the detection accuracy of the vein image. Therefore, in this comparison method, as shown in FIG. Disappear. On the other hand, in the above-described embodiment, the difference feature is extracted only when there are a plurality of registered vein images having a high degree of similarity. Therefore, even when the contour shape as shown in FIG. It is.

図15は類似度が高い登録静脈像が複数存在する場合に、本実施形態により誤識別が減少する例を示す図である。   FIG. 15 is a diagram illustrating an example in which erroneous identification is reduced according to the present embodiment when there are a plurality of registered vein images having a high degree of similarity.

照合静脈像との類似度が高い登録静脈像が2つあり、両者は静脈像だけでは識別できない。照合静脈像との位置合わせ結果を用いれば、2つの登録静脈像間の位置合わせも行なうことができる。静脈像の位置合わせ結果を利用して、2つの登録輪郭像の位置合わせも行なうことができる。   There are two registered vein images having a high degree of similarity to the verification vein image, and both cannot be identified by the vein image alone. If the registration result with the verification vein image is used, the registration between the two registered vein images can also be performed. The registration result of the two registered contour images can also be registered using the registration result of the vein image.

この例では、位置合わせ後の2つの登録輪郭像を比較したところ、子指のつけねの高さが異なることが判明したとすると、子指のつけねの高さが差異特徴として抽出される。照合輪郭像における子指のつけねの高さと両登録輪郭像の子指のつけねの高さを比較して、高さが近いものが選択される。これにより、両登録データの識別が可能となる。また、輪郭像では子指つけね以外は比較対象とはならないので、輪郭像の変動に強い利点がある。   In this example, if two registered contour images after alignment are compared, and it is found that the height of the thumb of the child finger is different, the height of the finger of the child finger is extracted as a difference feature. . By comparing the height of the thumb of the secondary finger in the matching contour image and the height of the secondary finger of both registered contour images, the one having a close height is selected. Thereby, identification of both registration data is attained. In addition, since the contour image cannot be compared with anything other than the child finger, there is a strong advantage in the variation of the contour image.

次に、静脈像の照合処理による位置合わせで輪郭位置が安定化される点について補足する。静脈像の照合処理を行なう前に、輪郭像間の対応を取って位置合わせを行なうことは可能である。しかし、一般に、輪郭像の検出精度は静脈像の検出精度よりも低いことが多いため、輪郭像間の対応による位置合わせは低精度になることが多い。このため、図16に示すように本人の登録輪郭像と照合輪郭像で子指つけねの位置が近接するとは限らない。静脈像の照合処理で得られる位置合わせ結果を利用して輪郭像の位置合わせを行なうことで、輪郭位置が安定化され、正しく識別することが可能となる。   Next, the point that the contour position is stabilized by alignment by vein image matching processing will be supplemented. Prior to the vein image matching process, it is possible to perform alignment by taking correspondence between the contour images. However, in general, the detection accuracy of the contour image is often lower than the detection accuracy of the vein image, so that the alignment by correspondence between the contour images is often low in accuracy. For this reason, as shown in FIG. 16, the position of the child finger is not necessarily close to each other in the registered contour image of the person and the collation contour image. By performing the alignment of the contour image using the alignment result obtained by the vein image matching process, the contour position is stabilized and can be correctly identified.

<システム適用例1>
図17は入出管理に適用したシステムの構成例を示す図である。図17において、自動ドア100とホストコンピュータ300は通信路200により接続されている。
<System application example 1>
FIG. 17 is a diagram showing a configuration example of a system applied to entry / exit management. In FIG. 17, the automatic door 100 and the host computer 300 are connected by a communication path 200.

自動ドア100には、照射部101と撮影部102と情報処理部103と表示部104と開閉部105と通信部106とが設けられている。照射部101と撮影部102は、図1の生体認証装置1における照射部2と撮影部3に相当する。情報処理部103は、撮影部102から取得した照合データ(照合輪郭像、照合静脈像)を通信部106に伝えるとともに、通信部106から取得した認証結果に基づいて表示部104および開閉部105の制御を行う。表示部104は、自動ドア100の前に立った利用者に対してランプやブザー等により認証結果の表示を行う。開閉部105はドアの開閉制御を行う。通信部106は通信路200を介したホストコンピュータ300との通信を行う。   The automatic door 100 is provided with an irradiation unit 101, a photographing unit 102, an information processing unit 103, a display unit 104, an opening / closing unit 105, and a communication unit 106. The irradiation unit 101 and the imaging unit 102 correspond to the irradiation unit 2 and the imaging unit 3 in the biometric authentication device 1 of FIG. The information processing unit 103 transmits the collation data (collation contour image and collation vein image) acquired from the imaging unit 102 to the communication unit 106, and the display unit 104 and the opening / closing unit 105 based on the authentication result acquired from the communication unit 106. Take control. The display unit 104 displays an authentication result for a user standing in front of the automatic door 100 using a lamp, a buzzer, or the like. The opening / closing unit 105 performs door opening / closing control. The communication unit 106 communicates with the host computer 300 via the communication path 200.

ホストコンピュータ300には、通信部301と情報処理部302と認証部303と記憶部304とが設けられている。認証部303と記憶部304は、図1の生体認証装置1における認証部5と記憶部4に相当する。ただし、記憶部304には登録データの他に、登録者の入出時刻を管理する領域が設けられている。通信部301は通信路200を介した自動ドア100との通信を行う。情報処理部302は通信部301から取得した照合データを認証部303に伝えるとともに、認証部303から取得した認証結果を通信部301に伝える。   The host computer 300 includes a communication unit 301, an information processing unit 302, an authentication unit 303, and a storage unit 304. The authentication unit 303 and the storage unit 304 correspond to the authentication unit 5 and the storage unit 4 in the biometric authentication device 1 of FIG. However, in addition to the registration data, the storage unit 304 is provided with an area for managing the entry / exit time of the registrant. The communication unit 301 communicates with the automatic door 100 via the communication path 200. The information processing unit 302 transmits the verification data acquired from the communication unit 301 to the authentication unit 303 and also transmits the authentication result acquired from the authentication unit 303 to the communication unit 301.

図18は入出管理の処理例を示すフローチャートである。   FIG. 18 is a flowchart showing an example of processing for entry / exit management.

図18において、入室を希望する利用者が自動ドア100内あるいは自動ドア100近くに設置された照射部101および撮影部102に手をかざすことで処理を開始すると(ステップS21)、照射部101は手に近赤外光を照射する(ステップS22)。撮影部102は手から反射もしくは透過する近赤外光を撮影し、輪郭像と静脈像を含む照合データを検出する(ステップS23)。情報処理部103は通信部106および通信路200を介してホストコンピュータ300に照合データを送信する(ステップS24)。   In FIG. 18, when a user who desires to enter the room starts processing by holding his hand over the irradiation unit 101 and the photographing unit 102 installed in or near the automatic door 100 (step S21), the irradiation unit 101 The hand is irradiated with near infrared light (step S22). The imaging unit 102 captures near-infrared light reflected or transmitted from the hand, and detects collation data including a contour image and a vein image (step S23). The information processing unit 103 transmits the collation data to the host computer 300 via the communication unit 106 and the communication path 200 (step S24).

ホストコンピュータ300では、通信部301および情報処理部302を介して認証部303が照合データを受信し、記憶部304に格納されている各登録データと自動ドア100の撮影部102から送られた照合データに基づいて認証処理を行なう(ステップS25)。認証部303は、認証処理の結果、登録者の1人と判定された場合には、記憶部304に登録者IDと対応付けて入室時刻を記録する(ステップS26)。また、認証部303は、情報処理部302および通信路200を介して自動ドア100に認証結果を送信する(ステップS27)。   In the host computer 300, the authentication unit 303 receives the verification data via the communication unit 301 and the information processing unit 302, and each verification data stored in the storage unit 304 and the verification sent from the imaging unit 102 of the automatic door 100 An authentication process is performed based on the data (step S25). If it is determined that the user is one of the registrants as a result of the authentication process, the authentication unit 303 records the room entry time in association with the registrant ID in the storage unit 304 (step S26). Further, the authentication unit 303 transmits the authentication result to the automatic door 100 via the information processing unit 302 and the communication path 200 (step S27).

自動ドア100では、通信路200および通信部106を介して情報処理部103が認証結果を受信し、認証結果に応じた処理を行う(ステップS28)。すなわち、登録者の1人と判定された場合には、表示部104によって入室許可の認証結果を利用者に通知するとともに、開閉部105によってドアを開く。登録者ではないと判定された場合には、表示部104によって入室不許可の認証結果を利用者に通知する。その後、処理を終了する(ステップS29)。   In the automatic door 100, the information processing unit 103 receives the authentication result via the communication path 200 and the communication unit 106, and performs processing according to the authentication result (step S28). That is, when it is determined that the user is one of the registrants, the display unit 104 notifies the user of the authentication result of entry permission, and the opening / closing unit 105 opens the door. If it is determined that the user is not a registrant, the display unit 104 notifies the user of the authentication result indicating that entry is not permitted. Thereafter, the process ends (step S29).

<システム適用例2>
図19は出退勤管理に適用したシステムの構成例を示す図である。図18において、共用端末400とホストコンピュータ600は通信路500により接続されている。
<System application example 2>
FIG. 19 is a diagram illustrating a configuration example of a system applied to attendance / leaving management. In FIG. 18, the shared terminal 400 and the host computer 600 are connected by a communication path 500.

共用端末400には、照射部401と撮影部402と情報処理部403と表示部404と通信部405と認証部406と記憶部407とが設けられている。照射部401と撮影部402と認証部406と記憶部407は、図1の生体認証装置1における照射部2と撮影部3と認証部5と記憶部4に相当する。情報処理部403は、撮影部402から取得した照合データ(照合輪郭像、照合静脈像)を認証部406に伝えるとともに、認証部406から取得した認証結果に基づいて表示部404を制御し、認証結果を通信部405に伝える。表示部404は、利用者に対してLCD(Liquid Crystal Display)等により認証結果の表示を行う。通信部405は、通信路500を介したホストコンピュータ600との通信を行う。   The shared terminal 400 includes an irradiation unit 401, an imaging unit 402, an information processing unit 403, a display unit 404, a communication unit 405, an authentication unit 406, and a storage unit 407. The irradiation unit 401, the imaging unit 402, the authentication unit 406, and the storage unit 407 correspond to the irradiation unit 2, the imaging unit 3, the authentication unit 5, and the storage unit 4 in the biometric authentication device 1 of FIG. The information processing unit 403 transmits the verification data (matching contour image and verification vein image) acquired from the imaging unit 402 to the authentication unit 406, and controls the display unit 404 based on the authentication result acquired from the authentication unit 406 to perform authentication. The result is transmitted to the communication unit 405. The display unit 404 displays the authentication result to the user using an LCD (Liquid Crystal Display) or the like. The communication unit 405 communicates with the host computer 600 via the communication path 500.

ホストコンピュータ600には、通信部601と情報処理部602と記憶部603とが設けられている。通信部601は、通信路500を介して共用端末400との通信を行う。情報処理部602は、通信部601から取得した認証結果に基づいて出退勤の記録を記憶部603に対して行う。   The host computer 600 is provided with a communication unit 601, an information processing unit 602, and a storage unit 603. The communication unit 601 communicates with the shared terminal 400 via the communication path 500. The information processing unit 602 records attendance / leaving for the storage unit 603 based on the authentication result acquired from the communication unit 601.

図20は出退勤管理の処理例を示すフローチャートである。   FIG. 20 is a flowchart showing an example of attendance / leaving management processing.

図20において、出勤あるいは退勤する利用者が共用端末400に取り付けられた照射部401および撮影部402に手をかざすことで処理を開始すると(ステップS31)、照射部401は手に近赤外光を照射する(ステップS32)。撮影部402は手から反射もしくは透過する近赤外光を撮影し、輪郭像と静脈像を含む照合データを検出し(ステップS33)、情報処理部403を介して認証部406に照合データを渡す。   In FIG. 20, when a user who goes to work or leaves the office starts holding the hand over the irradiation unit 401 and the photographing unit 402 attached to the shared terminal 400 (step S31), the irradiation unit 401 receives near-infrared light in the hand. Is irradiated (step S32). The imaging unit 402 captures near-infrared light reflected or transmitted from the hand, detects verification data including a contour image and a vein image (step S33), and passes the verification data to the authentication unit 406 via the information processing unit 403. .

認証部406は、記憶部407に格納されている各登録データと照合データに基づいて認証処理を行ない(ステップS34)、認証結果を情報処理部403に渡す。   The authentication unit 406 performs authentication processing based on each registration data and collation data stored in the storage unit 407 (step S34), and passes the authentication result to the information processing unit 403.

情報処理部403は、表示部404によって認証結果を利用者に表示し(ステップS35)、確認を求める(ステップS36)。利用者が表示内容を確認し、認証結果が間違っている場合には、利用者からの指示で再度認証のための処理が行なわれる。   The information processing unit 403 displays the authentication result on the user through the display unit 404 (step S35) and asks for confirmation (step S36). If the user confirms the display contents and the authentication result is wrong, the authentication process is performed again according to an instruction from the user.

適切である場合には、利用者のIDと認証時刻を通信部405および通信路500を介してホストコンピュータ600に通知する(ステップS37)。   If it is appropriate, the user ID and authentication time are notified to the host computer 600 via the communication unit 405 and the communication path 500 (step S37).

ホストコンピュータ600では、通信路500および通信部601を介して情報処理部602が利用者のIDと認証時刻を受信し、記憶部603に対して利用者のIDと対応付けて出退勤時刻を記録する(ステップS38)。当日始めての場合には出勤、2度目の場合には退勤として扱う。なお、記憶部407における登録データのIDと従業員IDは同一番号であってもよいが、ホストコンピュータ側で両者の対応表を管理し、従業員IDに変換してもよい。その後、処理を終了する(ステップS39)。   In the host computer 600, the information processing unit 602 receives the user ID and authentication time via the communication path 500 and the communication unit 601, and records the attendance and attendance time in the storage unit 603 in association with the user ID. (Step S38). If it is the first day of the day, it will be treated as work and if it is the second time, it will be treated as work. The ID of the registered data and the employee ID in the storage unit 407 may be the same number, but the correspondence table of both may be managed on the host computer side and converted into the employee ID. Thereafter, the process is terminated (step S39).

<総括>
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更を加えることができることは明らかである。すなわち、具体例の詳細および添付の図面により本発明が限定されるものと解釈してはならない。
(付記1)
複数の登録者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を登録データとして保持する手段と、
識別処理の実行に際し、利用者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を照合データとして取得する手段と、
前記照合データの生体画像と前記登録データの生体画像の位置合わせを行ない、類似度を算出する手段と、
算出された類似度に基づいて登録データを選択する手段と、
選択された登録データが2つ以上存在する場合に、当該登録データの輪郭像と前記照合データの輪郭像から差異特徴を抽出する手段と、
抽出された差異特徴に基づいて登録データの絞り込みを行い、認証結果を得る手段と、
認証結果を出力する手段と
を備えたことを特徴とする生体認証装置。
(付記2)
付記1に記載の生体認証装置において、
前記身体部位として、手のひらを用いる
ことを特徴とする生体認証装置。
(付記3)
付記1または2のいずれか一項に記載の生体認証装置において、
前記生体画像として、静脈像を用いる
ことを特徴とする生体認証装置。
(付記4)
付記1乃至3のいずれか一項に記載の生体認証装置において、
前記類似度を算出する手段として、先に前記照合データの輪郭像と前記登録データの輪郭像の位置合わせを行ない、次いで、前記照合データの生体画像と前記登録データの生体画像の位置合わせを行なう
ことを特徴とする生体認証装置。
(付記5)
付記1乃至4のいずれか一項に記載の生体認証装置において、
前記登録データを選択する手段として、類似度が所定の閾値以上の登録データを選択する
ことを特徴とする生体認証装置。
(付記6)
付記1乃至5のいずれか一項に記載の生体認証装置において、
前記登録データを選択する手段として、類似度が上位所定順位までの登録データを選択する
ことを特徴とする生体認証装置。
(付記7)
付記1乃至6のいずれか一項に記載の生体認証装置において、
前記輪郭像から差異特徴を抽出する手段として、差異特徴の抽出前に各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証装置。
(付記8)
付記7に記載の生体認証装置において、
前記差異特徴の抽出前の各輪郭像間の位置合わせとして、前記類似度を算出する手段による位置合わせの結果に基づいて各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証装置。
(付記9)
付記1乃至8のいずれか一項に記載の生体認証装置において、
前記輪郭像から差異特徴を抽出する手段として、基準となる輪郭像を定め、基準輪郭像の輪郭形状上の各点に対して各輪郭像の対応点を探索し、対応点の座標値の変化が最も大きい所定個数の輪郭点座標を差異特徴と定める
ことを特徴とする生体認証装置。
(付記10)
複数の登録者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を登録データとして保持する工程と、
識別処理の実行に際し、利用者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を照合データとして取得する工程と、
前記照合データの生体画像と前記登録データの生体画像の位置合わせを行ない、類似度を算出する工程と、
算出された類似度に基づいて登録データを選択する工程と、
選択された登録データが2つ以上存在する場合に、当該登録データの輪郭像と前記照合データの輪郭像から差異特徴を抽出する工程と、
抽出された差異特徴に基づいて登録データの絞り込みを行い、認証結果を得る工程と、
認証結果を出力する工程と
を備えたことを特徴とする生体認証方法。
(付記11)
付記10に記載の生体認証方法において、
前記身体部位として、手のひらを用いる
ことを特徴とする生体認証方法。
(付記12)
付記10または11のいずれか一項に記載の生体認証方法において、
前記生体画像として、静脈像を用いる
ことを特徴とする生体認証方法。
(付記13)
付記10乃至12のいずれか一項に記載の生体認証方法において、
前記類似度を算出する工程は、先に前記照合データの輪郭像と前記登録データの輪郭像の位置合わせを行ない、次いで、前記照合データの生体画像と前記登録データの生体画像の位置合わせを行なう
ことを特徴とする生体認証方法。
(付記14)
付記10乃至13のいずれか一項に記載の生体認証方法において、
前記登録データを選択する工程は、類似度が所定の閾値以上の登録データを選択する
ことを特徴とする生体認証方法。
(付記15)
付記10乃至14のいずれか一項に記載の生体認証方法において、
前記登録データを選択する工程は、類似度が上位所定順位までの登録データを選択する
ことを特徴とする生体認証方法。
(付記16)
付記10乃至15のいずれか一項に記載の生体認証方法において、
前記輪郭像から差異特徴を抽出する工程は、差異特徴の抽出前に各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証方法。
(付記17)
付記16に記載の生体認証方法において、
前記差異特徴の抽出前の各輪郭像間の位置合わせとして、前記類似度を算出する工程による位置合わせの結果に基づいて各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証方法。
(付記18)
付記10乃至17のいずれか一項に記載の生体認証方法において、
前記輪郭像から差異特徴を抽出する工程は、基準となる輪郭像を定め、基準輪郭像の輪郭形状上の各点に対して各輪郭像の対応点を探索し、対応点の座標値の変化が最も大きい所定個数の輪郭点座標を差異特徴と定める
ことを特徴とする生体認証方法。
<Summary>
The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments, various modifications and changes may be made to the embodiments without departing from the broad spirit and scope of the invention as defined in the claims. Obviously you can. In other words, the present invention should not be construed as being limited by the details of the specific examples and the accompanying drawings.
(Appendix 1)
Means for holding, as registration data, a contour image of a predetermined body part of a plurality of registrants and a biological image existing inside the contour shape of the contour image;
Means for acquiring, as collation data, a contour image of a predetermined body part of a user and a biometric image existing inside the contour shape of the contour image when executing the identification process;
Means for aligning the biometric image of the verification data and the biometric image of the registration data, and calculating a similarity;
Means for selecting registration data based on the calculated similarity;
Means for extracting a difference feature from the contour image of the registered data and the contour image of the matching data when there are two or more selected registered data;
A means for narrowing down registration data based on the extracted difference features and obtaining an authentication result;
A biometric authentication apparatus comprising: means for outputting an authentication result.
(Appendix 2)
In the biometric authentication device according to attachment 1,
A biometric authentication device using a palm as the body part.
(Appendix 3)
In the biometric authentication device according to any one of Appendix 1 or 2,
A biometric authentication device using a vein image as the biometric image.
(Appendix 4)
In the biometric authentication device according to any one of appendices 1 to 3,
As means for calculating the similarity, first, the contour image of the collation data and the contour image of the registered data are aligned, and then the biometric image of the collation data and the biometric image of the registered data are aligned. A biometric authentication device.
(Appendix 5)
In the biometric authentication device according to any one of appendices 1 to 4,
A biometric authentication apparatus characterized in that, as means for selecting the registration data, registration data having a similarity equal to or greater than a predetermined threshold is selected.
(Appendix 6)
In the biometric authentication device according to any one of appendices 1 to 5,
A biometric authentication apparatus, wherein the registration data is selected by selecting registration data having a degree of similarity up to a predetermined order.
(Appendix 7)
In the biometric authentication device according to any one of appendices 1 to 6,
A biometric authentication apparatus characterized in that, as means for extracting a difference feature from the contour image, alignment between the contour images is performed before the extraction of the difference feature.
(Appendix 8)
In the biometric authentication device according to attachment 7,
A biometric authentication device characterized in that, as alignment between contour images before extraction of the difference feature, alignment between contour images is performed based on a result of alignment by means for calculating the similarity.
(Appendix 9)
In the biometric authentication device according to any one of appendices 1 to 8,
As means for extracting a difference feature from the contour image, a reference contour image is determined, a corresponding point of each contour image is searched for each point on the contour shape of the reference contour image, and a coordinate value of the corresponding point is changed. A biometric authentication device characterized in that a predetermined number of contour point coordinates having the largest is defined as a difference feature.
(Appendix 10)
A step of holding, as registered data, a contour image of a predetermined body part of a plurality of registrants and a biometric image existing inside the contour shape of the contour image;
A step of acquiring, as collation data, a contour image of a predetermined body part of a user and a biometric image existing inside the contour shape of the contour image when executing the identification process;
Aligning the biometric image of the verification data with the biometric image of the registration data, and calculating the similarity;
Selecting registration data based on the calculated similarity;
A step of extracting a difference feature from the contour image of the registered data and the contour image of the matching data when there are two or more selected registered data;
The process of narrowing the registration data based on the extracted difference features and obtaining the authentication result,
And a step of outputting an authentication result.
(Appendix 11)
In the biometric authentication method according to attachment 10,
A biometric authentication method using a palm as the body part.
(Appendix 12)
In the biometric authentication method according to any one of Appendix 10 or 11,
A biometric authentication method using a vein image as the biometric image.
(Appendix 13)
In the biometric authentication method according to any one of appendices 10 to 12,
The step of calculating the similarity first aligns the contour image of the collation data and the contour image of the registered data, and then aligns the biometric image of the collation data and the biometric image of the registered data. A biometric authentication method.
(Appendix 14)
In the biometric authentication method according to any one of appendices 10 to 13,
The biometric authentication method characterized in that the step of selecting the registration data selects registration data having a similarity equal to or higher than a predetermined threshold.
(Appendix 15)
In the biometric authentication method according to any one of appendices 10 to 14,
The biometric authentication method characterized in that the step of selecting the registration data selects registration data having a degree of similarity up to a predetermined upper order.
(Appendix 16)
In the biometric authentication method according to any one of appendices 10 to 15,
The step of extracting a difference feature from the contour image includes performing alignment between the contour images before extracting the difference feature.
(Appendix 17)
In the biometric authentication method according to attachment 16,
A biometric authentication method characterized by performing alignment between contour images based on a result of alignment in the step of calculating the similarity as alignment between contour images before extraction of the difference feature.
(Appendix 18)
In the biometric authentication method according to any one of appendices 10 to 17,
The step of extracting the difference feature from the contour image determines a reference contour image, searches for the corresponding point of each contour image for each point on the contour shape of the reference contour image, and changes the coordinate value of the corresponding point. A biometric authentication method characterized in that a predetermined number of contour point coordinates having the largest is defined as a difference feature.

一実施形態にかかる生体認証装置の構成例を示す図である。It is a figure which shows the structural example of the biometrics apparatus concerning one Embodiment. 記憶部のデータ構造例を示す図である。It is a figure which shows the example of a data structure of a memory | storage part. 認証部の構成例を示す図である。It is a figure which shows the structural example of an authentication part. 実施形態の全体的な処理例を示すフローチャートである。It is a flowchart which shows the example of the whole process of embodiment. 認証部の処理例を示すフローチャートである。It is a flowchart which shows the process example of an authentication part. 照合部の入力データの例を示す図である。It is a figure which shows the example of the input data of a collation part. 照合部における輪郭像による位置合わせの手法例を示す図である。It is a figure which shows the example of the method of position alignment by the outline image in a collation part. 照合部の出力データの例を示す図である。It is a figure which shows the example of the output data of a collation part. 候補選択部の出力データの例を示す図である。It is a figure which shows the example of the output data of a candidate selection part. 特徴抽出部における差異特徴の抽出の例を示す図である。It is a figure which shows the example of the extraction of the difference feature in a feature extraction part. 特徴抽出部における処理データの例を示す図である。It is a figure which shows the example of the processing data in a feature extraction part. 特徴比較部の出力データの例を示す図である。It is a figure which shows the example of the output data of a feature comparison part. マルチモーダルバイオメトリクスとの比較例を示す図である。It is a figure which shows the comparative example with multimodal biometrics. 輪郭像と静脈像を合わせる方式との比較例を示す図である。It is a figure which shows the comparative example with the system which matches an outline image and a vein image. 本実施形態により誤識別が減少する例を示す図である。It is a figure which shows the example in which misidentification reduces by this embodiment. 静脈像の照合処理による安定化の例を示す図である。It is a figure which shows the example of stabilization by the collation process of a vein image. 入出管理に適用したシステムの構成例を示す図である。It is a figure which shows the structural example of the system applied to the entrance / exit management. 処理例を示すフローチャートである。It is a flowchart which shows the process example. 出退勤管理に適用したシステムの構成例を示す図である。It is a figure which shows the structural example of the system applied to the attendance management. 処理例を示すフローチャートである。It is a flowchart which shows the process example.

符号の説明Explanation of symbols

1 生体認証装置
2 照射部
3 撮影部
4 記憶部
5 認証部
51 照合部
52 候補選択部
53 特徴抽出部
54 特徴比較部
55 出力部
P 部位
DESCRIPTION OF SYMBOLS 1 Biometric apparatus 2 Irradiation part 3 Imaging | photography part 4 Memory | storage part 5 Authentication part 51 Verification part 52 Candidate selection part 53 Feature extraction part 54 Feature comparison part 55 Output part P site | part

Claims (6)

複数の登録者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を登録データとして保持する手段と、
識別処理の実行に際し、利用者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を照合データとして取得する手段と、
前記照合データの生体画像と前記登録データの生体画像の位置合わせを行ない、類似度を算出する手段と、
算出された類似度に基づいて登録データを選択する手段と、
選択された登録データが2つ以上存在する場合に、当該登録データの輪郭像と前記照合データの輪郭像から差異特徴を抽出する手段と、
抽出された差異特徴に基づいて登録データの絞り込みを行い、認証結果を得る手段と、
認証結果を出力する手段と
を備えたことを特徴とする生体認証装置。
Means for holding, as registration data, a contour image of a predetermined body part of a plurality of registrants and a biological image existing inside the contour shape of the contour image;
Means for acquiring, as collation data, a contour image of a predetermined body part of a user and a biometric image existing inside the contour shape of the contour image when executing the identification process;
Means for aligning the biometric image of the verification data and the biometric image of the registration data, and calculating a similarity;
Means for selecting registration data based on the calculated similarity;
Means for extracting a difference feature from the contour image of the registered data and the contour image of the matching data when there are two or more selected registered data;
A means for narrowing down registration data based on the extracted difference features and obtaining an authentication result;
A biometric authentication apparatus comprising: means for outputting an authentication result.
請求項1に記載の生体認証装置において、
前記類似度を算出する手段として、先に前記照合データの輪郭像と前記登録データの輪郭像の位置合わせを行ない、次いで、前記照合データの生体画像と前記登録データの生体画像の位置合わせを行なう
ことを特徴とする生体認証装置。
The biometric authentication device according to claim 1,
As means for calculating the similarity, first, the contour image of the collation data and the contour image of the registered data are aligned, and then the biometric image of the collation data and the biometric image of the registered data are aligned. A biometric authentication device.
請求項1または2のいずれか一項に記載の生体認証装置において、
前記輪郭像から差異特徴を抽出する手段として、差異特徴の抽出前に各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証装置。
In the biometric authentication device according to any one of claims 1 and 2,
A biometric authentication apparatus characterized in that, as means for extracting a difference feature from the contour image, alignment between the contour images is performed before the extraction of the difference feature.
請求項3に記載の生体認証装置において、
前記差異特徴の抽出前の各輪郭像間の位置合わせとして、前記類似度を算出する手段による位置合わせの結果に基づいて各輪郭像間の位置合わせを行なう
ことを特徴とする生体認証装置。
The biometric authentication device according to claim 3.
A biometric authentication device characterized in that, as alignment between contour images before extraction of the difference feature, alignment between contour images is performed based on a result of alignment by means for calculating the similarity.
請求項1乃至4のいずれか一項に記載の生体認証装置において、
前記輪郭像から差異特徴を抽出する手段として、基準となる輪郭像を定め、基準輪郭像の輪郭形状上の各点に対して各輪郭像の対応点を探索し、対応点の座標値の変化が最も大きい所定個数の輪郭点座標を差異特徴と定める
ことを特徴とする生体認証装置。
The biometric authentication device according to any one of claims 1 to 4,
As means for extracting a difference feature from the contour image, a reference contour image is determined, a corresponding point of each contour image is searched for each point on the contour shape of the reference contour image, and a coordinate value of the corresponding point is changed. A biometric authentication device characterized in that a predetermined number of contour point coordinates having the largest is defined as a difference feature.
複数の登録者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を登録データとして保持する工程と、
識別処理の実行に際し、利用者の所定の身体部位の輪郭像と当該輪郭像の輪郭形状の内部に存在する生体画像を照合データとして取得する工程と、
前記照合データの生体画像と前記登録データの生体画像の位置合わせを行ない、類似度を算出する工程と、
算出された類似度に基づいて登録データを選択する工程と、
選択された登録データが2つ以上存在する場合に、当該登録データの輪郭像と前記照合データの輪郭像から差異特徴を抽出する工程と、
抽出された差異特徴に基づいて登録データの絞り込みを行い、認証結果を得る工程と、
認証結果を出力する工程と
を備えたことを特徴とする生体認証方法。
A step of holding, as registered data, a contour image of a predetermined body part of a plurality of registrants and a biometric image existing inside the contour shape of the contour image;
A step of acquiring, as collation data, a contour image of a predetermined body part of a user and a biometric image existing inside the contour shape of the contour image when executing the identification process;
Aligning the biometric image of the verification data with the biometric image of the registration data, and calculating the similarity;
Selecting registration data based on the calculated similarity;
A step of extracting a difference feature from the contour image of the registered data and the contour image of the matching data when there are two or more selected registered data;
The process of narrowing the registration data based on the extracted difference features and obtaining the authentication result,
And a step of outputting an authentication result.
JP2008330888A 2008-12-25 2008-12-25 Biometric authentication device Active JP5439809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008330888A JP5439809B2 (en) 2008-12-25 2008-12-25 Biometric authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008330888A JP5439809B2 (en) 2008-12-25 2008-12-25 Biometric authentication device

Publications (2)

Publication Number Publication Date
JP2010152706A true JP2010152706A (en) 2010-07-08
JP5439809B2 JP5439809B2 (en) 2014-03-12

Family

ID=42571715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008330888A Active JP5439809B2 (en) 2008-12-25 2008-12-25 Biometric authentication device

Country Status (1)

Country Link
JP (1) JP5439809B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8064645B1 (en) 2011-01-20 2011-11-22 Daon Holdings Limited Methods and systems for authenticating users
US8085992B1 (en) 2011-01-20 2011-12-27 Daon Holdings Limited Methods and systems for capturing biometric data
WO2012014300A1 (en) * 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 Individual verification device and method of verifying individual
EP2479704A1 (en) * 2011-01-25 2012-07-25 Fujitsu Limited Biometric authentication device, method of controlling biometric authentication device and non-transistory, computer readable storage medium
WO2013136553A1 (en) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 Personal authentication method and personal authentication device
WO2013145280A1 (en) * 2012-03-30 2013-10-03 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication computer program
WO2013161077A1 (en) * 2012-04-27 2013-10-31 富士通フロンテック株式会社 Biometric authentication device, biometric authentication program, and biometric authentication method
CN103530544A (en) * 2012-07-04 2014-01-22 株式会社茉菲莉亚 An organism certification system, an organism certification method, and an organism certification program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
JP2015060433A (en) * 2013-09-19 2015-03-30 富士通株式会社 Authentication method, authentication device, authentication system, and authentication program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
WO2015119043A1 (en) * 2014-02-06 2015-08-13 国立大学法人電気通信大学 Authentication system
KR101909971B1 (en) * 2015-02-13 2018-10-22 비와이디 컴퍼니 리미티드 Fingerprint identification method and fingerprint identification device
WO2018198500A1 (en) * 2017-04-27 2018-11-01 富士通株式会社 Collation device, collation method and collation program
US10136320B1 (en) 2017-11-22 2018-11-20 International Business Machines Corporation Authentication of users at multiple terminals
WO2019131858A1 (en) 2017-12-28 2019-07-04 株式会社ノルミー Personal authentication method and personal authentication device
US10430678B2 (en) 2016-05-27 2019-10-01 Fujitsu Limited Biometric information processing device, biometric information processing method and non-transitory computer-readable recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08233556A (en) * 1995-02-24 1996-09-13 Canon Inc Picked-up image processor and picked-up image processing method
JPH10248827A (en) * 1997-03-17 1998-09-22 Oki Electric Ind Co Ltd Individual recognition device
JPH11161796A (en) * 1997-11-28 1999-06-18 Oki Electric Ind Co Ltd Individual identifying device for animal and picture processing method
JP2002083298A (en) * 2000-09-06 2002-03-22 Hitachi Ltd Personal identification device and method
JP2006277341A (en) * 2005-03-29 2006-10-12 Fujitsu Ltd Apparatus for simultaneously inputting a plurality of pieces of biometrics information and apparatus for simultaneously authenticating a plurality of pieces of biometrics information
JP2008059408A (en) * 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd Facial image collating device, and facial image authentication system and vein image identification device using it
JP2008198083A (en) * 2007-02-15 2008-08-28 Mitsubishi Electric Corp Individual identification device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08233556A (en) * 1995-02-24 1996-09-13 Canon Inc Picked-up image processor and picked-up image processing method
JPH10248827A (en) * 1997-03-17 1998-09-22 Oki Electric Ind Co Ltd Individual recognition device
JPH11161796A (en) * 1997-11-28 1999-06-18 Oki Electric Ind Co Ltd Individual identifying device for animal and picture processing method
JP2002083298A (en) * 2000-09-06 2002-03-22 Hitachi Ltd Personal identification device and method
JP2006277341A (en) * 2005-03-29 2006-10-12 Fujitsu Ltd Apparatus for simultaneously inputting a plurality of pieces of biometrics information and apparatus for simultaneously authenticating a plurality of pieces of biometrics information
JP2008059408A (en) * 2006-09-01 2008-03-13 Matsushita Electric Ind Co Ltd Facial image collating device, and facial image authentication system and vein image identification device using it
JP2008198083A (en) * 2007-02-15 2008-08-28 Mitsubishi Electric Corp Individual identification device

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012014300A1 (en) * 2010-07-29 2012-02-02 ユニバーサルロボット株式会社 Individual verification device and method of verifying individual
US9990528B2 (en) 2011-01-20 2018-06-05 Daon Holdings Limited Methods and systems for capturing biometric data
US9679193B2 (en) 2011-01-20 2017-06-13 Daon Holdings Limited Methods and systems for capturing biometric data
US9202102B1 (en) 2011-01-20 2015-12-01 Daon Holdings Limited Methods and systems for capturing biometric data
US9298999B2 (en) 2011-01-20 2016-03-29 Daon Holdings Limited Methods and systems for capturing biometric data
US10607054B2 (en) 2011-01-20 2020-03-31 Daon Holdings Limited Methods and systems for capturing biometric data
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
US10235550B2 (en) 2011-01-20 2019-03-19 Daon Holdings Limited Methods and systems for capturing biometric data
US8064645B1 (en) 2011-01-20 2011-11-22 Daon Holdings Limited Methods and systems for authenticating users
US9519818B2 (en) 2011-01-20 2016-12-13 Daon Holdings Limited Methods and systems for capturing biometric data
US9519821B2 (en) 2011-01-20 2016-12-13 Daon Holdings Limited Methods and systems for capturing biometric data
US9519820B2 (en) 2011-01-20 2016-12-13 Daon Holdings Limited Methods and systems for authenticating users
US9400915B2 (en) 2011-01-20 2016-07-26 Daon Holdings Limited Methods and systems for capturing biometric data
US8085992B1 (en) 2011-01-20 2011-12-27 Daon Holdings Limited Methods and systems for capturing biometric data
US8457370B2 (en) 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
US9112858B2 (en) 2011-01-20 2015-08-18 Daon Holdings Limited Methods and systems for capturing biometric data
US8792686B2 (en) 2011-01-25 2014-07-29 Fujitsu Limited Biometric authentication device, method of controlling biometric authentication device and non-transitory, computer readable storage medium
EP2479704A1 (en) * 2011-01-25 2012-07-25 Fujitsu Limited Biometric authentication device, method of controlling biometric authentication device and non-transistory, computer readable storage medium
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
WO2013136553A1 (en) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 Personal authentication method and personal authentication device
US9594891B2 (en) 2012-03-16 2017-03-14 Universal Robot Kabushiki Kaisha Personal authentication method and personal authentication device
US9305209B2 (en) 2012-03-30 2016-04-05 Fujitsu Limited Biometric authentication apparatus, biometric authentication method, and computer program for biometric authentication
WO2013145280A1 (en) * 2012-03-30 2013-10-03 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication computer program
JPWO2013145280A1 (en) * 2012-03-30 2015-08-03 富士通株式会社 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
WO2013161077A1 (en) * 2012-04-27 2013-10-31 富士通フロンテック株式会社 Biometric authentication device, biometric authentication program, and biometric authentication method
CN103530544A (en) * 2012-07-04 2014-01-22 株式会社茉菲莉亚 An organism certification system, an organism certification method, and an organism certification program
JP2015060433A (en) * 2013-09-19 2015-03-30 富士通株式会社 Authentication method, authentication device, authentication system, and authentication program
WO2015119043A1 (en) * 2014-02-06 2015-08-13 国立大学法人電気通信大学 Authentication system
JPWO2015119043A1 (en) * 2014-02-06 2017-03-23 国立大学法人電気通信大学 Authentication system
KR101909971B1 (en) * 2015-02-13 2018-10-22 비와이디 컴퍼니 리미티드 Fingerprint identification method and fingerprint identification device
US10430678B2 (en) 2016-05-27 2019-10-01 Fujitsu Limited Biometric information processing device, biometric information processing method and non-transitory computer-readable recording medium
US11315341B2 (en) 2017-04-27 2022-04-26 Fujitsu Limited Information processing apparatus, verification method, and computer-readable recording medium recording verification program
WO2018198500A1 (en) * 2017-04-27 2018-11-01 富士通株式会社 Collation device, collation method and collation program
US10136320B1 (en) 2017-11-22 2018-11-20 International Business Machines Corporation Authentication of users at multiple terminals
WO2019131858A1 (en) 2017-12-28 2019-07-04 株式会社ノルミー Personal authentication method and personal authentication device
KR20200100165A (en) 2017-12-28 2020-08-25 가부시키가이샤 노르미 Personal authentication method and personal authentication device

Also Published As

Publication number Publication date
JP5439809B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5439809B2 (en) Biometric authentication device
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR100918286B1 (en) Living body guidance control method for a biometrics authentication device, and biometrics authentication device
JP5228872B2 (en) Biometric authentication apparatus, biometric authentication method, biometric authentication computer program, and computer system
US8345933B2 (en) Procedure for identifying a person by eyelash analysis
JP4762805B2 (en) Biometric authentication method and biometric authentication system
WO2012131899A1 (en) Biometric authentication apparatus, biometric authentication system, and biometric authentication method
JP4351982B2 (en) Personal authentication method, apparatus and program
Connaughton et al. Fusion of face and iris biometrics
US20140241593A1 (en) Authentication apparatus, authentication method, and non-transitory computer readable medium
WO2013161077A1 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
Abdelwhab et al. A survey on soft biometrics for human identification
JP6160148B2 (en) Biological information input device, biometric information input program, and biometric information input method
Prasanthi et al. Palm vein biometric technology: An approach to upgrade security in ATM transactions
JP2006031388A (en) Image similarity computation device, image recognition device using the computation device, image siimilarity computation method, image recognition method using the computation method, image-collating computer program and recording medium to which the program is recorded
JP2007058525A (en) Individual authentication device and individual authentication display method
WO2021157023A1 (en) Authentication method, information processing device, and authentication program
JP2005141678A (en) Facial image collating system and ic card
JP2012252644A (en) Biological identification device and biological identification method
JP2007054264A (en) Personal authentication apparatus and personal authentication display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131202

R150 Certificate of patent or registration of utility model

Ref document number: 5439809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150