JP5914995B2 - Biological identification device and biological identification method - Google Patents

Biological identification device and biological identification method Download PDF

Info

Publication number
JP5914995B2
JP5914995B2 JP2011126502A JP2011126502A JP5914995B2 JP 5914995 B2 JP5914995 B2 JP 5914995B2 JP 2011126502 A JP2011126502 A JP 2011126502A JP 2011126502 A JP2011126502 A JP 2011126502A JP 5914995 B2 JP5914995 B2 JP 5914995B2
Authority
JP
Japan
Prior art keywords
finger
identification
target person
person
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011126502A
Other languages
Japanese (ja)
Other versions
JP2012252644A (en
JP2012252644A5 (en
Inventor
公威 溝部
公威 溝部
広和 笠原
広和 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2011126502A priority Critical patent/JP5914995B2/en
Publication of JP2012252644A publication Critical patent/JP2012252644A/en
Publication of JP2012252644A5 publication Critical patent/JP2012252644A5/ja
Application granted granted Critical
Publication of JP5914995B2 publication Critical patent/JP5914995B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、生体識別装置、及び、生体識別方法に関する。   The present invention relates to a biometric identification device and a biometric identification method.

指紋や静脈パターン等の生体的特徴をとらえて個人の認証を行なう生体認証システムが知られている。例えば、指を撮像することで得られる指静脈画像に基づいて認証を行うシステムとして静脈認証装置が開発されている。   There is known a biometric authentication system that performs biometric authentication such as fingerprints and vein patterns to authenticate individuals. For example, a vein authentication device has been developed as a system for performing authentication based on a finger vein image obtained by imaging a finger.

静脈認証装置を用いて個人の認証を行なう際には、可能なかぎり認証の精度を高くすることが要求される。そのため、撮像時の外部環境が異なる場合でも、それに影響されることなく、最適な品質の指静脈画像を得ることが重要である。例えば、認証装置上に設置されたガイド溝に指を置き、位置を固定した状態で指の撮像を行うことで指静脈画像を取得し、該指静脈画像を用いて個人の認証を行なう方法が提案されている(例えば、特許文献1)。   When performing personal authentication using a vein authentication device, it is required to increase the accuracy of authentication as much as possible. For this reason, it is important to obtain a finger vein image of optimum quality without being influenced by even when the external environment at the time of imaging is different. For example, there is a method in which a finger vein image is obtained by placing a finger in a guide groove installed on the authentication device, and imaging the finger in a fixed position, and authenticating the individual using the finger vein image. It has been proposed (for example, Patent Document 1).

特開2006−155575号公報JP 2006-155575 A

特許文献1の方法によれば、ガイドを設けることによって、同一の位置・方向で指の撮像を行なうことができるため、安定した品質の指静脈画像を取得して、精度良く認証を行なうことが可能になる。   According to the method of Patent Document 1, since a finger can be imaged at the same position and direction by providing a guide, a finger vein image of stable quality can be acquired and authentication can be performed with high accuracy. It becomes possible.

しかし、特許文献1の方法では、撮像を行なう際に、ユーザーは当該ガイドに合わせて指を沿わせなくてはならない。また、ある特定の指(例えば、人差し指)のみが撮像対象として限定される。一方、実際に認証装置が使用される場面を考慮すると、認証時に決まった指を決まった位置・方向に置かなければならないのでは、ユーザーの利便性が大きく損なわれる。したがって、認証時においては、位置・方向を固定しない状態で不特定の指について高精度な認証を行なえることが望ましい。一方、指の種類(人差し指など)を指定せず、位置や方向も規定せずに認証を行う場合には、指の撮像において複数の指が撮像される場合がある。このような場合に、指の位置関係を考慮せずに認証を行なうと、本来マッチングするべきではない別の指との間でミスマッチを生じて、認証精度が低下するおそれがあった。
ここで、認証とは、登録された画像等と認証時に得られた画像等を照合することによって、認証(識別)対象者が登録者であるか否かを識別し、識別結果に基づいて、例えば電子錠等の制御対象を制御することである。したがって、認証の精度は識別の精度に依存するので、認証における上記の課題は、識別における課題と言える。
However, in the method of Patent Document 1, when performing imaging, the user must keep his finger along the guide. Further, only a specific finger (for example, index finger) is limited as an imaging target. On the other hand, considering the situation where the authentication device is actually used, if the finger determined at the time of authentication has to be placed in a predetermined position and direction, the convenience for the user is greatly impaired. Therefore, at the time of authentication, it is desirable to perform highly accurate authentication for an unspecified finger without fixing the position and direction. On the other hand, when authentication is performed without specifying a finger type (for example, index finger) and specifying a position and a direction, a plurality of fingers may be imaged. In such a case, if authentication is performed without considering the positional relationship between the fingers, a mismatch may occur with another finger that should not be matched, and authentication accuracy may be reduced.
Here, the authentication identifies whether or not the authentication (identification) target person is a registrant by collating the registered image and the like with the image obtained at the time of authentication, and based on the identification result, For example, controlling a control target such as an electronic lock. Therefore, since the accuracy of authentication depends on the accuracy of identification, it can be said that the above problem in authentication is a problem in identification.

本発明では、撮像した指の画像を用いて個人の識別を行なう生体識別装置において、複数の指が撮像された場合にも、識別時の指の位置や方向によらず、精度の高い識別を行なうことを目的としている。   In the present invention, in a biometric identification device that identifies an individual using an image of a captured finger, even when a plurality of fingers are imaged, high-precision identification is performed regardless of the position and direction of the finger at the time of identification. The purpose is to do.

上記目的を達成するための主たる発明は、指の生体パターンを撮像する撮像部と、演算部と、を備え、前記演算部は、前記撮像部を用いて識別対象者の指の生体パターンを撮像して得られる画像から、前記識別対象者の前記生体パターンを特徴付ける特徴量であって、撮像範囲及び撮像方向が変化した場合でも前記生体パターンに対して位置不変かつ回転不変な特性を有する特徴量を複数抽出し、所定の登録部に指の種類を表す指IDに対応付けて登録されている登録対象者の生体パターンを特徴付ける特徴量と、前記識別対象者の特徴量とが類似するか否かを判断し、前記識別対象者の特徴量と類似すると判断された前記登録対象者の特徴量に対応付けられた指IDに応じて、前記識別対象者の指毎のスコアを算出するとともに、前記識別対象者の隣り合う複数の指のスコアの合計値を算出し、前記スコアの合計値のうち最大の値が所定の閾値よりも大きい場合に、前記識別対象者が前記登録対象者であると識別する、ことを特徴とする生体識別装置である。 A main invention for achieving the above object includes an imaging unit that images a biological pattern of a finger, and a calculation unit, and the calculation unit images the biological pattern of a finger of an identification target person using the imaging unit. The feature amount characterizing the biological pattern of the identification target person from the image obtained as described above, and having the characteristics that are position-invariant and rotation-invariant with respect to the biological pattern even when the imaging range and the imaging direction change Whether or not the feature quantity characterizing the biometric pattern of the person to be registered and registered in association with the finger ID representing the kind of finger in the predetermined registration unit is similar to the feature quantity of the identification target person And calculating a score for each finger of the identification target person according to a finger ID associated with the feature quantity of the registration target person determined to be similar to the feature quantity of the identification target person , Identification Calculating a total value of scores of a plurality of adjacent fingers of the elephant, and identifying that the identification target person is the registration target person when a maximum value among the total values of the scores is greater than a predetermined threshold value The biometric identification device is characterized by the above.

本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。   Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.

本実施形態における静脈識別装置1のブロック図である。It is a block diagram of vein identification device 1 in this embodiment. 図2A及び図2Bは、静脈識別装置1をドアの開錠制御に用いた場合の例を示す図である。2A and 2B are diagrams illustrating an example in which the vein identification device 1 is used for door unlocking control. 登録動作のフローを表す図である。It is a figure showing the flow of registration operation | movement. 特徴量抽出処理のフローを表す図である。It is a figure showing the flow of a feature-value extraction process. 特徴点の一例を表す図である。It is a figure showing an example of a feature point. 得られた輝度勾配の一例を表す図である。It is a figure showing an example of the obtained brightness | luminance gradient. 輝度勾配のヒストグラムの一例を表す図である。It is a figure showing an example of the histogram of a brightness | luminance gradient. 基準方向に座標軸を合わせたときの輝度勾配の一例を表す図である。It is a figure showing an example of the brightness | luminance gradient when aligning a coordinate axis with a reference direction. 静脈パターンから特徴量を抽出する動作について説明する図である。It is a figure explaining the operation | movement which extracts the feature-value from a vein pattern. 識別動作のフローを表す図である。It is a figure showing the flow of identification operation | movement. 照合処理のフローを表す図である。It is a figure showing the flow of collation processing. 12A〜12Cは、識別対象者Xの指静脈パターンを用いて識別動作を行う例について説明する図である。12A to 12C are diagrams illustrating an example in which the identification operation is performed using the finger vein pattern of the person X to be identified. 13A〜13Cは、識別対象者Yの指静脈パターンを用いて識別動作を行う例について説明する図である。13A to 13C are diagrams illustrating an example in which the identification operation is performed using the finger vein pattern of the person Y to be identified.

本明細書及び添付図面の記載により、少なくとも、以下の事項が明らかとなる。   At least the following matters will become clear from the description of the present specification and the accompanying drawings.

指の生体パターンを撮像する撮像部と、登録対象者の生体パターンを特徴付ける登録対象者の特徴量と、指の種類を表す指IDとを対応付けて登録する登録部と、演算部と、を備え、前記演算部は、前記撮像部を用いて識別対象者の指の生体パターンを撮像して得られる画像から、前記識別対象者の特徴量を複数抽出し、前記登録部に登録されている登録対象者の特徴量と、前記識別対象者の特徴量とが類似するか否かを判断し、前記識別対象者の特徴量と類似すると判断された前記登録対象者の特徴量に対応付けられた指IDに応じて、前記識別対象者の指毎のスコアを算出し、前記識別対象者の隣り合う複数の指のスコアの組み合わせに基づいて、前記識別対象者が前記登録対象者であるか否かを識別する、生体識別装置。   An imaging unit that captures a biometric pattern of a finger, a registration unit that registers and registers a feature amount of a registration target person that characterizes a biometric pattern of a registration target person, and a finger ID that represents a finger type, and a calculation unit. The computing unit extracts a plurality of features of the identification target person from an image obtained by imaging a biological pattern of a finger of the identification target person using the imaging unit, and is registered in the registration unit It is determined whether the feature quantity of the registration target person is similar to the feature quantity of the identification target person, and is associated with the feature quantity of the registration target person determined to be similar to the feature quantity of the identification target person. Whether the identification target person is the registration target person based on a combination of scores of a plurality of adjacent fingers of the identification target person, according to the finger ID. A biometric identification device for identifying whether or not.

このような生体識別装置によれば、演算部は、登録対象者の生体パターンから登録対象者の特徴量を抽出し、抽出された特徴量を該特徴量が抽出された指の種類を表す指IDと対応付けて登録特徴量として登録部に登録する。また、演算部は、撮像部を用いて識別対象者の指の生体パターンを撮像して得られる画像から複数の特徴量を抽出し、登録対象者の特徴量と比較することで、識別対象者が登録されているユーザーか否かの識別を行う。その際、識別対象者の特徴量と類似する登録特徴量に対応付けられた指IDに基づいて識別対象者のスコアが指毎に算出され、隣り合う複数の指のスコアの組み合わせを考慮することによって、識別が行なわれる。
隣り合う複数の指のスコアを考慮することにより、当該複数の指の全てにおいて本来合致するはずのない特徴量が誤って類似と判定されるミスマッチが発生する可能性が低くなり、偶然のミスマッチによる影響等を相対的に小さくすることができる。すなわち、ミスマッチによる誤ったデータが最終的な識別対象者のスコアに反映されにくくなる。したがって、撮像した指の画像を用いて個人の識別を行なう生体識別装置において、認複数の指が撮像された場合にも、識別時の指の位置や方向によらず、精度の高い識別を行なうことができる。
According to such a biometric identification device, the calculation unit extracts the registration target person's feature quantity from the registration target person's biometric pattern, and the extracted feature quantity is a finger representing the type of finger from which the feature quantity was extracted. The registered feature value is registered in the registration unit in association with the ID. In addition, the calculation unit extracts a plurality of feature amounts from an image obtained by imaging the biological pattern of the finger of the identification target person using the imaging unit, and compares it with the feature amount of the registration target person, thereby identifying the identification target person. Identify whether or not the user is registered. At that time, the identification target person's score is calculated for each finger based on the finger ID associated with the registered feature quantity similar to the identification target person's feature quantity, and the combination of scores of adjacent fingers is considered. The identification is performed by.
By considering the scores of multiple adjacent fingers, it is less likely that a mismatch will occur in which all of the multiple fingers are supposed to be similar features that are not supposed to match. The influence etc. can be made relatively small. That is, erroneous data due to mismatching is less likely to be reflected in the final identification target score. Therefore, in a biometric identification apparatus that identifies an individual using an image of a captured finger, even when a plurality of fingers are captured, highly accurate identification is performed regardless of the position and direction of the finger at the time of identification. be able to.

かかる生体識別装置であって、前記撮像部は、前記識別対象者の1本の指の生体パターンの少なくとも一部と、前記1本の指に隣り合う指の生体パターンの少なくとも一部とを撮像することが望ましい。   In this biometric identification device, the imaging unit captures at least a part of a biometric pattern of one finger of the identification target person and at least a part of a biometric pattern of a finger adjacent to the one finger. It is desirable to do.

このような生体識別装置によれば、識別対象となるデータとして隣り合う2本分の指の特徴量を登録することが可能となり、識別の精度を高くすることができる。1本の指の生体パターンのみを用いて識別を行なった場合、ノイズ等の影響によって偶然にその指のスコアが高く算出されてしまう場合があり、誤識別の原因となるおそれがある。しかし、隣り合う指についても偶然にスコアが高く算出される等の確立は非常に小さい。そこで、隣り合う2本分の指の生体パターンを登録して、当該データを識別に用いることで、偶然のミスマッチ等による影響を相対的に小さくすることができる。これにより、精度良く識別を行なうことが可能となる。   According to such a biometric identification device, it is possible to register the feature amounts of two adjacent fingers as data to be identified, and the accuracy of identification can be increased. When the identification is performed using only the biometric pattern of one finger, the score of the finger may be accidentally calculated due to the influence of noise or the like, which may cause erroneous identification. However, the probability that the score is calculated by chance for adjacent fingers is very small. Therefore, by registering the biometric patterns of two adjacent fingers and using the data for identification, the influence of an accidental mismatch or the like can be relatively reduced. This makes it possible to identify with high accuracy.

かかる生体識別装置であって、前記演算部は、前記識別対象者の隣り合う複数の指のスコアの合計値を算出し、前記スコアの合計値のうち最大の値が所定の閾値よりも大きい場合に、前記識別対象者が前記登録対象者であると識別することが望ましい。   In such a biometric identification device, the calculation unit calculates a total value of scores of a plurality of adjacent fingers of the identification target person, and the maximum value among the total values of the scores is larger than a predetermined threshold value In addition, it is desirable to identify that the identification target person is the registration target person.

このような生体識別装置によれば、識別精度をより高くすることができる。偶然のミスマッチ等によって或る指についてスコアが高く算出されてしまったような場合でも、他の指について同時にミスマッチが発生する確立は小さい。したがって、隣り合う複数の指のスコアの合計値を算出することで、正確なデータ(指スコア)が多く含まれたデータを得やすくなる。そして、当該合計値の最大値を識別対象者のスコアとして採用することで、ミスマッチの影響が小さく信頼性が高いスコアを算出することができる。このスコアを適当に設定された閾値と比較することで、認証の精度をより高くすることが可能となる。   According to such a biometric identification device, the identification accuracy can be further increased. Even if a score is calculated high for a certain finger due to an accidental mismatch or the like, the probability that mismatches occur simultaneously for other fingers is small. Therefore, by calculating the total value of the scores of a plurality of adjacent fingers, it becomes easy to obtain data containing a large amount of accurate data (finger score). And by adopting the maximum value of the total value as the score of the person to be identified, it is possible to calculate a score with a small influence of mismatch and high reliability. By comparing this score with an appropriately set threshold value, the accuracy of authentication can be further increased.

かかる生体識別装置であって、前記演算部は、前記撮像部を用いて登録対象者の指の生体パターンを撮像して得られる画像から、前記登録対象者の特徴量を抽出し、前記登録対象者の特徴量と前記登録対象者の指IDとを対応付けて前記登録特徴量として前記登録部に登録させることが望ましい。   In this biometric identification device, the calculation unit extracts a feature amount of the registration target person from an image obtained by imaging a biometric pattern of a finger of the registration target person using the imaging unit, and the registration target It is desirable that the feature amount of the person and the finger ID of the person to be registered be associated with each other and registered in the registration unit as the registered feature amount.

このような生体識別装置によれば、特徴量を登録する動作と識別対象者を識別する動作とを1つの生体識別装置で行なうことができるため、ユーザーの利便性を高くすることができる。そして、特徴量の登録を行なう際は、登録対象者の指から抽出される特徴量を、その抽出された指を示す指IDと対応付けて登録することで、識別動作時において指毎に識別を行なうことができ、識別精度を高くすることができる。   According to such a biometric identification device, the operation of registering the feature value and the operation of identifying the person to be identified can be performed by one biometric identification device, so that convenience for the user can be enhanced. Then, when registering the feature amount, the feature amount extracted from the finger of the person to be registered is registered in association with the finger ID indicating the extracted finger, thereby identifying each finger during the identification operation. And the identification accuracy can be increased.

かかる生体識別装置であって、前記識別対象者の指の生体パターンよりも、前記登録対象者の指の生体パターンの方が、前記撮像部によって撮像される領域が大きいことが望ましい。   In this biometric identification device, it is preferable that the biometric pattern of the finger of the registration target person has a larger area captured by the imaging unit than the biometric pattern of the finger of the identification target person.

このような生体識別装置によれば、登録対象者の生体パターンを登録する動作において、より大きな範囲で撮像された生体パターンの画像から抽出されるユーザーの特徴量の数が、識別対象者の生態パターンを識別する動作において抽出される識別対象者の特徴量の数よりも多くなる可能性が高い。つまり、識別を行なう際に用いられる可能性のあるユーザーの特徴量をより多く登録しておくことができるため、照合データの母体が大きくなる。したがって、識別対象者の生体パターンから抽出される特徴量と登録されている特徴量との照合が行ないやすくなり、より精度の高い識別を行なうことができる。   According to such a biometric identification device, in the operation of registering the biometric pattern of the person to be registered, the number of user feature amounts extracted from the image of the biometric pattern captured in a larger range is the ecology of the identification target person. There is a high possibility that it will be larger than the number of features of the identification target person extracted in the operation of identifying the pattern. That is, since the user's feature quantity that can be used for identification can be registered more, the base of the collation data becomes large. Therefore, the feature quantity extracted from the biometric pattern of the person to be identified can be easily compared with the registered feature quantity, so that more accurate identification can be performed.

かかる生体識別装置であって、前記特徴量が、SIFT(Scale Invariant Feature Transform)を用いて抽出されることが望ましい。   In such a biometric identification device, it is preferable that the feature amount is extracted using a SIFT (Scale Invariant Feature Transform).

このような生体識別装置によれば、SIFTを用いて特徴量を抽出することにより、撮像時の位置変化、回転等に依存しにくい生体パターンの特徴量を抽出することができるようになる。したがって、生体パターンの撮像を行なう際に、撮像を行なうセンサーと被撮像対象(登録対象者または識別対象者の生体パターン)との位置関係が固定されていない場合であっても、生体パターンを特徴付ける特徴量を正確に抽出することが可能となり、撮像時の条件によらずに高精度な識別を行うことができる。   According to such a biometric identification device, it is possible to extract a feature quantity of a biometric pattern that is less dependent on position change, rotation, and the like at the time of imaging by extracting a feature quantity using SIFT. Therefore, when imaging a biometric pattern, the biometric pattern is characterized even if the positional relationship between the sensor that performs imaging and the imaging target (biological pattern of the person to be registered or the person to be identified) is not fixed. It is possible to accurately extract feature amounts, and high-precision identification can be performed regardless of imaging conditions.

また、識別対象者の指の生体パターンを撮像して得られる画像から、前記識別対象者の指の生体パターンを特徴付ける識別対象者の特徴量を複数抽出することと、指の種類を表す指IDに対応付けて登録されている登録者の特徴量と、前記識別対象者の特徴量とが類似するか否かを判断することと、前記識別対象者の特徴量と類似すると判断された前記登録者の特徴量に対応付けられた指IDに応じて、前記識別対象者の指毎のスコアを算出することと、前記識別対象者の隣り合う複数の指のスコアの組み合わせに基づいて前記識別対象者が前記登録対象者であるか否かを識別することと、を有する生体識別方法が明らかとなる。   Further, a plurality of features of the identification target person characterizing the biological pattern of the finger of the identification target person are extracted from an image obtained by imaging the biological pattern of the finger of the identification target person, and a finger ID representing a finger type Determining whether the feature quantity of the registrant registered in association with the feature quantity of the identification target person is similar, and determining that the feature quantity of the identification target person is similar Calculating the score for each finger of the identification target person according to the finger ID associated with the feature amount of the identification person, and the identification target based on a combination of scores of a plurality of adjacent fingers of the identification target person A biometric identification method comprising: identifying whether or not a person is the registration subject.

===実施形態===
発明を実施するための生体識別装置の形態として、静脈識別装置1を例に挙げて説明する。
図1は、本実施形態における静脈識別装置1のブロック図である。静脈識別装置1は、演算部10とセンサー部20と光源部30とトリガセンサー40と制御対象50とを備える。センサー部20はインターフェース28を介して演算部10に接続されており、また、光源部30はインターフェース38を介して演算部10に接続されている。また、静脈識別装置1は、インターフェース48とインターフェース58を介してトリガセンサー40と制御対象50に接続されている。
=== Embodiment ===
As a form of a biometric identification device for carrying out the invention, a vein identification device 1 will be described as an example.
FIG. 1 is a block diagram of a vein identification device 1 according to this embodiment. The vein identification device 1 includes a calculation unit 10, a sensor unit 20, a light source unit 30, a trigger sensor 40, and a control target 50. The sensor unit 20 is connected to the calculation unit 10 via an interface 28, and the light source unit 30 is connected to the calculation unit 10 via an interface 38. The vein identification device 1 is connected to the trigger sensor 40 and the control target 50 via the interface 48 and the interface 58.

演算部10は、演算を行うCPU(Central Processing Unit)12と記憶装置(登録部)としてのRAM(Random Access Memory)14及びEEPROM(Electronically Erasable and Programmable Read Only Memory)16を含む。CPU12は、EEPROM16に記憶されたプログラムを実行することにより静脈の識別を行う。RAM14には、静脈の識別を行う際に必要な特徴量が演算結果として登録される。演算部10は、静脈識別装置1に、後述する登録動作及び識別動作の2つの動作を行わせることができる。   The calculation unit 10 includes a CPU (Central Processing Unit) 12 that performs calculation, a RAM (Random Access Memory) 14 as a storage device (registration unit), and an EEPROM (Electronically Erasable and Programmable Read Only Memory) 16. The CPU 12 identifies the vein by executing a program stored in the EEPROM 16. In the RAM 14, a feature amount necessary for identifying a vein is registered as a calculation result. The calculation unit 10 can cause the vein identification device 1 to perform two operations, a registration operation and an identification operation described later.

センサー部20は、指の静脈を撮像することに用いるセンサーである。センサー部20は、接近した指を撮像するが、その際に露光時間を調整することができるようになっている。詳細については後述するが、センサー部20は、識別動作時においては、識別対象者の指の一部の静脈パターンについて撮像をすることができればよい。一方、登録動作時においてはなるべく指の広い範囲の静脈パターンを撮像できることが望ましい。したがって、静脈識別装置1は登録動作用と識別動作用との2種類のセンサーを備えていてもよい。   The sensor unit 20 is a sensor used for imaging a finger vein. The sensor unit 20 captures an image of the approaching finger, and the exposure time can be adjusted at that time. Although details will be described later, the sensor unit 20 only needs to be able to image a vein pattern of a part of the finger of the person to be identified during the identification operation. On the other hand, it is desirable to be able to image a vein pattern in a wide range of fingers as much as possible during the registration operation. Therefore, the vein identification device 1 may include two types of sensors for registration operation and identification operation.

光源部30は、撮像する指に所定波長の光を照らすための装置である。ここでは、近赤外線のLED(Light Emitting Diode)光源を含み、700nm〜900nmの波長帯を多く含む光を照射する。この波長帯は「生体の窓」とも呼ばれ、血液のヘモグロビンと水との両方の吸収が低くなり、生体の透過率が高くなる波長帯である。本実施形態では、指に対して700nm〜900nmの波長帯の近赤外線を照射しながら撮像を行なうことで、血液が多く存在する部分、すなわち血管の部分が影となって撮影される。したがって、当該指の内部にある静脈の形状を精度良く表わした画像を得ることが可能になる。   The light source unit 30 is a device for illuminating a finger to be imaged with light having a predetermined wavelength. Here, a near-infrared LED (Light Emitting Diode) light source is included, and light including a large wavelength band of 700 nm to 900 nm is irradiated. This wavelength band is also referred to as a “biological window”, and is a wavelength band in which the absorption of both blood hemoglobin and water is low, and the biological transmittance is high. In the present embodiment, imaging is performed while irradiating a finger with near-infrared rays in a wavelength band of 700 nm to 900 nm, so that a portion where blood is abundant, that is, a blood vessel portion is captured as a shadow. Therefore, it is possible to obtain an image that accurately represents the shape of the vein in the finger.

トリガセンサー40は、撮像する指の接近を感知し、撮像処理を開始するためのトリガーを演算部10に送る装置である。トリガセンサー40には、例えば、静電容量センサーが用いられる。このトリガセンサー40により、後述するドアなどに静脈識別装置を設けた場合において、指をドアに近づけただけでセンサー部20が自動的に指の撮像処理を開始することができるようになる。   The trigger sensor 40 is a device that detects the approach of a finger to be imaged and sends a trigger for starting an imaging process to the arithmetic unit 10. As the trigger sensor 40, for example, a capacitance sensor is used. With this trigger sensor 40, when a vein identification device is provided on a door or the like, which will be described later, the sensor unit 20 can automatically start imaging processing of the finger simply by bringing the finger close to the door.

制御対象50は、静脈識別装置1による識別結果に応じて制御したい対象物である。例えば、制御対象50がコンピューターであるときには、静脈識別装置1による識別結果に応じて識別対象者に対してコンピューターのアクセス権を付与する。また、制御対象50が後述のようなドアの電子錠である場合には、静脈識別装置1による識別結果に応じてドアの電子錠の開錠制御を行う。以下、制御対象50がドアの電子錠である場合について説明を行う。   The control object 50 is an object to be controlled according to the identification result by the vein identification device 1. For example, when the control object 50 is a computer, the access right of the computer is given to the person to be identified according to the identification result by the vein identification device 1. Further, when the control target 50 is an electronic door lock as described later, the door electronic lock unlocking control is performed according to the identification result by the vein identification device 1. Hereinafter, the case where the control target 50 is an electronic lock of a door will be described.

図2A及び図2Bに、静脈識別装置1をドアの開錠制御に用いた場合の例を示す。図に示されるように、静脈識別装置1はドアのドアノブ部に設けられる。静脈識別装置1の前面にはパネル状のセンサー部20が設けられ(図2Bの斜線部)、センサー部20の両側面には光源部30が設けられる(図2Bの横線部)。センサー部20は、識別対象者がドアノブ部を握った際に、ちょうど撮像対象となる指が置かれるような位置に配置される。   2A and 2B show an example in which the vein identification device 1 is used for door unlocking control. As shown in the figure, the vein identification device 1 is provided in a door knob portion of a door. A panel-like sensor unit 20 is provided on the front surface of the vein identification device 1 (shaded portion in FIG. 2B), and light source units 30 are provided on both side surfaces of the sensor unit 20 (horizontal line portion in FIG. 2B). The sensor unit 20 is arranged at a position where a finger to be imaged is placed when the identification target person grasps the door knob.

識別対象者がドアを開閉するために当該ドアノブ部を握ると、トリガセンサー40が指の接近を感知して当該指の静脈パターンの撮像が開始される。図2Bに示されるように、撮像時には、センサー部20の上に位置する識別対象者の指に対して光源部30から近赤外線を照射することにより、当該指の撮像対象部分について静脈パターン画像が取得される。そして、取得された静脈パターンの画像に基づいて識別対象者が登録対象者(ユーザー)であるか否かが判断される。識別が許可される場合には、制御対象50である電子錠が開錠され、識別が拒否される場合には、電子錠が開錠されない。この識別動作の詳細については後で説明する。   When the person to be identified grasps the door knob portion to open and close the door, the trigger sensor 40 detects the approach of the finger and starts imaging the vein pattern of the finger. As shown in FIG. 2B, at the time of imaging, the finger pattern of the person to be identified positioned on the sensor unit 20 is irradiated with near infrared rays from the light source unit 30, so that a vein pattern image is obtained for the imaging target portion of the finger. To be acquired. Then, based on the acquired vein pattern image, it is determined whether the identification target person is a registration target person (user). When the identification is permitted, the electronic lock that is the control target 50 is unlocked, and when the identification is rejected, the electronic lock is not unlocked. Details of this identification operation will be described later.

なお、識別対象者がドアの開閉を行なう場合、その都度ドアノブの握り方が変わるであろうことから、センサー部20の同じ位置・同じ角度に、毎回同じ指が置かれるとは限らない。すなわち、識別の対象として撮像される静脈パターンの位置や撮像方向はその都度変化するものと考えられる。しかし、後述するように、本実施形態では撮像時の位置や方向、または撮像される指によらず、高い精度で識別を行なえるようになっている。   Note that each time the identification target person opens and closes the door, the gripping method of the door knob will change each time, so the same finger is not always placed at the same position and the same angle of the sensor unit 20. That is, it is considered that the position and imaging direction of the vein pattern imaged as the identification target change each time. However, as will be described later, in the present embodiment, identification can be performed with high accuracy irrespective of the position and direction at the time of imaging or the finger to be imaged.

<静脈識別装置1の基本動作>
静脈識別装置1では、登録対象となるユーザー(登録対象者)毎にそれぞれの指についてあらかじめ静脈パターンを登録しておく「登録動作」と、その登録された指毎の静脈パターンデータに基づいて個人の識別を行なう「識別動作」とが行われる。
<Basic operation of vein identification apparatus 1>
In the vein identification device 1, a “registration operation” in which a vein pattern is registered in advance for each finger for each user (registration target person) to be registered, and the individual vein pattern data for each registered finger is used. The “identification operation” is performed to identify the above.

生体パターンに基づく識別対象者の識別(本実施形態では静脈パターンによる識別)を行なうためには、判断基準が必要となる。そのため、まず「登録動作」において、ユーザー(登録対象者)毎に指の静脈パターンが静脈識別装置1の登録部(RAM14)に登録される(登録モードとも呼ぶ)。登録された指毎の静脈パターンは、「識別動作」において、識別対象者の静脈パターンと照合され、両パターンが一致すると判断された場合に登録対象者が識別対象者であるか否かが識別される(識別モードとも呼ぶ)。   In order to identify the person to be identified based on the biometric pattern (identification based on the vein pattern in this embodiment), a determination criterion is required. Therefore, first, in the “registration operation”, a finger vein pattern is registered in the registration unit (RAM 14) of the vein identification device 1 for each user (registration target person) (also referred to as a registration mode). The registered vein pattern for each finger is compared with the vein pattern of the person to be identified in the “identification operation”, and if it is determined that both patterns match, it is identified whether the person to be registered is the person to be identified. (Also called the identification mode).

ただし、基準となるべき登録対象者の指毎の静脈パターンに関するデータが記憶装置等に保存されていて、識別モードにおいて当該データを利用するようにすることもできる。この場合、必ずしも静脈識別装置1において登録動作が行われなくてもよい。すなわち、登録動作と識別動作とは、別の装置で行われてもよい。また、静脈識別装置1は、外部記憶装置等と接続することによって識別に必要なデータを参照してもよい。   However, data related to the vein pattern for each finger of the registration target person to be a reference may be stored in a storage device or the like, and the data may be used in the identification mode. In this case, the registration operation is not necessarily performed in the vein identification device 1. That is, the registration operation and the identification operation may be performed by different devices. The vein identification device 1 may refer to data necessary for identification by connecting to an external storage device or the like.

本実施形態の静脈識別装置1では、通常は識別モードを行なう設定になっており、識別モードと登録モードとの切り替えはユーザーまたは識別対象者がモードを選択することによって行なわれる。以下、各動作についてそれぞれ説明する。   In the vein identification device 1 of the present embodiment, the setting is normally made to perform the identification mode, and switching between the identification mode and the registration mode is performed by the user or the person to be identified selecting the mode. Each operation will be described below.

===登録動作について===
登録動作では、登録対象者であるユーザーの指の静脈パターンについて、その特徴を表す「特徴量」を抽出する。そして、抽出された該特徴量について各ユーザーの指の種類を表す指IDに対応付けて登録する。本実施形態における特徴量は、位置不変、及び、回転不変なものが採用される。これは、同じ人物の静脈パターンに対しては、撮像範囲が変化(位置変化)した場合でも、撮像方向が回転(回転変化)した場合でも、パターンに対して同じ位置が特定され(位置不変)、その位置周辺の局所領域の特徴を数値化した特徴量と同じ値で得られる(回転不変)という特性を有するものである。
=== Registration operation ===
In the registration operation, “feature amount” representing the feature of the vein pattern of the finger of the user who is the registration target is extracted. Then, the extracted feature amount is registered in association with a finger ID representing the type of finger of each user. As the feature amount in the present embodiment, a position invariant and a rotation invariant are employed. This is because the same position is specified for the pattern of the same person regardless of whether the imaging range changes (position change) or the imaging direction rotates (rotation change) (position invariant). The characteristics of the local area around the position can be obtained with the same value as the feature value obtained by quantifying (rotation invariant).

<登録動作の流れ>
図3に、登録動作のフローを示す。登録動作は、S101〜S105の各処理を実行することによって行なわれる。
<Flow of registration operation>
FIG. 3 shows a flow of the registration operation. The registration operation is performed by executing each process of S101 to S105.

登録モードにおいてトリガセンサー40が指の接近を感知すると登録動作が開始され、初めに、撮像パラメータの調整が行なわれる(S101)。センサー部20から入力されてくる指(静脈)の画像をもとに、演算部10によって撮像パラメータが調整され、最も良好な画質で撮像可能なパラメータが設定される。   When the trigger sensor 40 detects the approach of the finger in the registration mode, the registration operation is started, and first, the imaging parameters are adjusted (S101). Based on the image of the finger (vein) input from the sensor unit 20, the imaging parameter is adjusted by the arithmetic unit 10, and a parameter that can be imaged with the best image quality is set.

パラメータの調整後、登録対象となるユーザーの静脈画像の撮像が行われる(S102)。指の静脈パターン画像を撮像するにあたり、光源部30から700nm〜900nmの波長帯を多く含む光が照射され、指の静脈が撮像される。静脈パターンの撮像は、静脈識別装置1のセンサー部20を用いて行うこともできるし、他の撮像可能な装置を用いて行うこともできる。   After adjusting the parameters, a vein image of the user to be registered is captured (S102). In order to capture a finger vein pattern image, light including a large wavelength band of 700 nm to 900 nm is emitted from the light source unit 30 to image the finger vein. The vein pattern can be imaged using the sensor unit 20 of the vein identification device 1 or using another imageable device.

登録モードにおける撮像の際には、上述の特徴量がなるべく多く含まれるように、指が撮像される領域を大きくする。識別の精度を高くするためには、識別に用いる可能性のある領域に含まれる特徴量は全て登録しておくことが好ましい。そのため、本実施形態では識別動作において撮像される識別対象者の静脈パターンよりも、登録動作において撮像される登録対象者の静脈パターンの方が、撮像される領域が大きくなるようにする。例えば、登録対象者の複数の指について、それぞれの指全体を撮像する等、広い領域を撮像する。識別動作で撮像される領域よりも広い領域を撮像するために、登録動作において撮像を行なうセンサーと識別動作において撮像を行なうセンサーとを別個に設けてもよい。また、そのような広い領域を撮像するにあたり、一括して撮像を行う必要はなく、いくつかの領域に分割して撮像することとしてもよい。   When imaging in the registration mode, the area where the finger is imaged is enlarged so that the above-described feature amount is included as much as possible. In order to increase the accuracy of identification, it is preferable to register all the feature amounts included in an area that may be used for identification. For this reason, in the present embodiment, the region to be imaged is larger in the vein pattern of the person to be registered imaged in the registration operation than the vein pattern of the person to be imaged in the identification operation. For example, for a plurality of fingers of a registration target person, a wide area is imaged, for example, the entire finger is imaged. In order to capture an area larger than the area captured by the identification operation, a sensor that performs imaging in the registration operation and a sensor that performs imaging in the identification operation may be provided separately. Further, when imaging such a wide area, it is not necessary to perform imaging in a lump, and it may be divided into several areas and imaged.

なお、本実施形態においては、複数の指について撮像を行なう際には、1回の撮像で全ての指について静脈パターン画像を取得するのではなく、指の1本1本について別個に撮像を行い、指毎に静脈パターン画像を取得する。例えば、登録対象者の人差し指〜小指の4本の指について撮像を行なう際には、まず人差し指の撮像を行なって、次に中指、薬指、小指と順番に撮像を行ない、4種類の静脈パターン画像を取得する。指の種類毎に別々に撮像を行なうことで、次工程(S103)において指静脈パターン画像から特徴量を抽出する際に、指の種類に対応付けて特徴量を抽出することが容易になる。なお、撮像した指の種類を区別し、IDを付与するには、撮像を行う際に登録対象者等がユーザーインターフェースを介して入力したり、静脈識別装置1が登録対象者に対して指の種類を指示したりした情報を記憶するようにすればよい。   In the present embodiment, when imaging with respect to a plurality of fingers, a vein pattern image is not acquired with respect to all fingers in one imaging, but imaging with respect to each finger is performed separately. A vein pattern image is acquired for each finger. For example, when imaging with respect to the index finger to the little finger of the person to be registered, the index finger is first imaged, then the middle finger, the ring finger, and the little finger are imaged in order, and four types of vein pattern images are obtained. To get. By performing imaging separately for each finger type, it is easy to extract the feature value in association with the finger type when extracting the feature value from the finger vein pattern image in the next step (S103). In addition, in order to distinguish the type of the imaged finger and give an ID, a registration target person or the like inputs through the user interface at the time of imaging, or the vein identification device 1 sends a finger to the registration target person. Information indicating the type may be stored.

次に、撮像された指静脈画像から指毎に特徴量の抽出を行う(S103)。上述のように、指の種類毎に静脈パターン画像を撮像しておくことにより、それぞれの指について特徴量を抽出することができる。特徴量抽出処理(S103)の詳細は後で説明する。   Next, feature values are extracted for each finger from the captured finger vein image (S103). As described above, by capturing a vein pattern image for each finger type, it is possible to extract a feature amount for each finger. Details of the feature amount extraction processing (S103) will be described later.

指静脈画像について特徴量の抽出が行なわれた後、その抽出された特徴量が適正なものであるか否かが判断される(S104)。本実施形態では、抽出された該特徴量を基準として静脈パターンについての識別が行なわれるので、識別動作において正確な識別を行なうためには十分な量(数)の特徴量が抽出されている必要がある。言い換えると、十分な数の特徴量が抽出されていなければ、識別の基準として採用することはできない。そこで、演算部10は、抽出された特徴量の数が所定数以上あるか否かを判断し、所定数未満である場合(S104がNo)は特徴量が不適正なものとしてS101に戻ってパラメータの調整からやり直して撮像を行なう。   After the feature amount is extracted from the finger vein image, it is determined whether or not the extracted feature amount is appropriate (S104). In this embodiment, since the vein pattern is identified based on the extracted feature quantity, a sufficient amount (number) of feature quantities must be extracted for accurate identification in the discrimination operation. There is. In other words, unless a sufficient number of feature quantities are extracted, they cannot be used as identification criteria. Therefore, the calculation unit 10 determines whether or not the number of extracted feature quantities is equal to or greater than a predetermined number. If the number is less than the predetermined number (No in S104), the process returns to S101 because the feature quantity is inappropriate. The image is picked up again from the parameter adjustment.

抽出された特徴量の数が所定数以上であると判断された場合(S104がYES)には、特徴量が適正なものとして、抽出された特徴量が、指の種類を表す指IDと対応付けられてRAM14に登録される(S105)。   If it is determined that the number of extracted feature values is equal to or greater than the predetermined number (YES in S104), the extracted feature value corresponds to a finger ID representing the type of finger, assuming that the feature value is appropriate. Attached and registered in the RAM 14 (S105).

以上の処理により、登録動作が完了する。   With the above processing, the registration operation is completed.

<特徴量の抽出(S103)の詳細>
特徴量抽出処理(S103)の処理内容の詳細について説明する。図4に、特徴量抽出処理(S103)のフローを示す。特徴量の抽出はS131〜S133の各処理を順次実行することにより行なわれる。
<Details of Feature Extraction (S103)>
Details of the processing content of the feature amount extraction processing (S103) will be described. FIG. 4 shows a flow of the feature amount extraction process (S103). The feature amount is extracted by sequentially executing the processes of S131 to S133.

まず、撮像した静脈画像の画像補正が行われる(S131)。ここで画像補正が行われるのは、主に次の3つの理由からである。(1)指の透過率には個人差があり、取得した画像の全体の輝度がばらつくことがある。(2)指の透過率の個人差により明暗分布が生じてしまうことがある。例えば、指の関節部は明るく画像が取得され、関節と関節との間は暗く画像が取得される。(3)静脈と表皮との間の生体組織により、光が拡散し、撮像した静脈パターンがぼやける場合がある。   First, image correction of the captured vein image is performed (S131). The image correction is performed mainly for the following three reasons. (1) The finger transmittance varies from person to person, and the overall brightness of the acquired image may vary. (2) A light-dark distribution may occur due to individual differences in finger transmittance. For example, a bright image is acquired at the joint portion of the finger, and a dark image is acquired between the joints. (3) The living tissue between the vein and the epidermis may diffuse light and blur the captured vein pattern.

これらの課題を解決するために、フィルタ処理を行う。上記(1)の課題を解決するためには、正規化が必要であり、そのために平均値(直流成分)を除去する必要がある。また、上記(2)の課題を解決するためには、均一化が必要であり、そのために、緩やかな変動を除去する必要がある。よって、これら(1)と(2)の課題を解決するために、静脈画像に対してハイパスフィルタを適用する。   In order to solve these problems, filter processing is performed. In order to solve the above problem (1), normalization is required, and therefore, it is necessary to remove the average value (DC component). Moreover, in order to solve the above problem (2), it is necessary to make uniform, and for this reason, it is necessary to remove moderate fluctuations. Therefore, in order to solve the problems (1) and (2), a high-pass filter is applied to the vein image.

また、上記(3)の課題を解決するためには、シャープネス処理が必要であるから、静脈画像に対してアンシャープマスクを適用し高周波成分を強調する。すなわち、これらハイパスフィルタとアンシャープマスクを統合したフィルタを作成し適用する。具体的には、2つのフィルタの周波数応答(MTF: Modulation Transfer Function)を周波数空間で積算し、これを逆フーリエ変換したフィルタを適用することになる。   Further, in order to solve the above problem (3), sharpness processing is necessary. Therefore, an unsharp mask is applied to the vein image to emphasize high frequency components. That is, a filter integrating these high-pass filter and unsharp mask is created and applied. Specifically, the frequency response (MTF: Modulation Transfer Function) of the two filters is integrated in the frequency space, and a filter obtained by performing inverse Fourier transform on this is applied.

なお、撮像された画像に輝度のばらつき等がほとんど無い場合には、当該補正処理は必ずしも行われなくてもよい。   Note that when there is almost no variation in luminance in the captured image, the correction processing does not necessarily have to be performed.

次に、特徴点の抽出(S132)が行われる。ここで、「特徴点」とは、撮像された複数の画像の間で、静脈画像が回転したり位置が移動したりする場合でも、静脈パターンの決まった位置に出現する点のことを言う。すなわち、位置・角度がシフトしても静脈パターンに対する相対位置が変化しない点である。   Next, feature point extraction (S132) is performed. Here, the “feature point” refers to a point that appears at a fixed position of the vein pattern even when the vein image rotates or moves between a plurality of captured images. That is, even if the position / angle is shifted, the relative position with respect to the vein pattern does not change.

本実施形態では、前述のようにセンサーと指との位置関係は固定ではないことから、静脈パターンの特徴量を算出するためには、その中心位置(基準となる位置)を求めたいという要求がある。この中心位置となる点が特徴点である。これらの要求を満たす手法の一例として、本実施形態における特徴点抽出及び特徴量抽出では、SIFT(Scale Invariant Feature Transform)が採用される。以下に、SIFTを用いて特徴点抽出及び特徴量抽出を行なう際の方法について説明する。   In the present embodiment, since the positional relationship between the sensor and the finger is not fixed as described above, in order to calculate the feature amount of the vein pattern, there is a request for obtaining the center position (reference position). is there. The point at the center position is a feature point. As an example of a method that satisfies these requirements, SIFT (Scale Invariant Feature Transform) is employed in feature point extraction and feature amount extraction in the present embodiment. Hereinafter, a method for performing feature point extraction and feature amount extraction using SIFT will be described.

特徴点の抽出(S132)の処理においては、まず、ノイズを取り除き、安定した特徴点を得るために、静脈画像にガウスフィルタを適用して平均化処理を行う。そして、ある周波数以上の成分をカットする処理を行う。また、ガウスフィルタを適用した画像の二次微分を算出し、その極値を特徴点候補とする。さらに、ノイズに由来する特徴点を取り除くために、極値の絶対値が所定の閾値以上の点のみを特徴点として採用する。上記において、特徴点候補を得るために二次微分を算出しているのは、均一な領域ではなく、変化があるエッジ部を画像から抽出するためである。また、撮影において斜めから光源照射がなされたときにおいて、一定の傾きで変化する領域が画像に生ずることがあるが、このような領域を特徴点候補としないためである。二次微分の算出は、具体的には、静脈画像とガウス導関数の畳み込み積分により行われる。   In the feature point extraction (S132) process, first, in order to remove noise and obtain a stable feature point, an averaging process is performed by applying a Gaussian filter to the vein image. And the process which cuts the component more than a certain frequency is performed. Further, the second derivative of the image to which the Gaussian filter is applied is calculated, and the extreme value is set as a feature point candidate. Furthermore, in order to remove feature points derived from noise, only points whose absolute value of the extreme value is equal to or greater than a predetermined threshold are adopted as feature points. In the above description, the second derivative is calculated in order to obtain the feature point candidate because the edge portion having a change is extracted from the image instead of the uniform region. In addition, when light source irradiation is performed obliquely during photographing, a region that changes with a certain inclination may appear in the image, but such a region is not used as a feature point candidate. Specifically, the calculation of the second derivative is performed by convolution integration of a vein image and a Gaussian derivative.

図5は、特徴点の一例を示す図である。図5には、撮像された静脈画像を部分的に拡大した図(図の斜線部)と、その静脈の分岐点において特定された特徴点が示されている。特徴点は、輝度勾配の二次微分の極値の場所が選択されるので、輝度の変化量が大きな箇所が選択されることになる。また、二次微分の極値の場所は、一次微分の変化量が極大となる場所であるから、周囲に比べて曲率(すなわり曲がり方)が大きい点が選択される。よって、静脈の分岐点や血管内部も特徴点として選択されることになる。すなわち、静脈とそうでない場所とを分ける場所が特徴点として自動的に選択されることになる。   FIG. 5 is a diagram illustrating an example of feature points. FIG. 5 shows a partially enlarged view of a captured vein image (shaded portion in the figure) and feature points specified at the branch point of the vein. As the feature point, the location of the extreme value of the second derivative of the luminance gradient is selected, so that a portion having a large luminance change amount is selected. Further, since the place of the extreme value of the second derivative is a place where the amount of change of the first derivative is maximized, a point having a larger curvature (ie, how to bend) than the surroundings is selected. Therefore, the branch point of the vein and the inside of the blood vessel are also selected as the feature points. That is, a place that separates a vein from a place that is not so is automatically selected as a feature point.

次に、特徴量の抽出が行われる(S133)。特徴量の抽出は、上記の処理において得られたそれぞれの特徴点に対して以下の処理を行うことにより行われる。まず、特徴点周辺の輝度勾配を算出する。   Next, feature amount extraction is performed (S133). The feature amount is extracted by performing the following processing on each feature point obtained in the above processing. First, the brightness gradient around the feature point is calculated.

図6は、得られた輝度勾配の一例を示す図である。図6には、特徴点を中心とした複数のマス目(本実施形態では、8×8のマス目)が示されている。そして、各マス目における輝度勾配がベクトル量として示されている。   FIG. 6 is a diagram illustrating an example of the obtained luminance gradient. FIG. 6 shows a plurality of grids (in this embodiment, 8 × 8 grids) centering on the feature points. And the brightness | luminance gradient in each square is shown as a vector amount.

次に、図6のように得られた輝度勾配についてヒストグラムを作成する。そして、最も頻度の高い方向を特徴量の基準方向とする。   Next, a histogram is created for the luminance gradient obtained as shown in FIG. The direction with the highest frequency is set as the reference direction of the feature amount.

図7は、輝度勾配のヒストグラムの一例を示す図である。図7の横軸は、全方向(360度)を所定数の方向に分割した場合の各方向を表し(図7の場合は36方向に分割した場合を表す)、縦軸は各方向における輝度の大きさhを表す。すなわち、図7では、36方向のヒストグラムが示されている。そして、「peak」と記載した方向の値が最も高くなっている。よって、この方向が特徴量の基準方向となる。   FIG. 7 is a diagram illustrating an example of a histogram of luminance gradient. The horizontal axis in FIG. 7 represents each direction when all directions (360 degrees) are divided into a predetermined number of directions (in the case of FIG. 7, the case is divided into 36 directions), and the vertical axis represents the luminance in each direction. Represents the size h. That is, in FIG. 7, a histogram in 36 directions is shown. And the value of the direction described as "peak" is the highest. Therefore, this direction becomes the reference direction of the feature amount.

次に、特徴点を中心として、前述の処理で選択された基準方向に合わせて、再度8×8のマス目を作成する。そして、この8×8のマス目を4×4のマス目に対応させ、この4×4のマス目毎の輝度勾配について、マス目ごとに8方向のベクトルに分解する。   Next, an 8 × 8 cell is created again around the feature point in accordance with the reference direction selected in the above process. Then, the 8 × 8 cells are made to correspond to 4 × 4 cells, and the luminance gradient for each 4 × 4 cell is decomposed into eight-direction vectors for each cell.

図8は、基準方向に座標軸を合わせたときの輝度勾配の一例を示す図である。図8の左図においては、太矢印の方向が前述の基準方向であり、基準方向に方向を合わせた8×8のマス目を再作成し輝度勾配を求め直したものである。また、図8の右図は、この8×8のマス目を4×4のマス目に対応させ、マス目毎に輝度勾配を8方向のベクトルに分解したものである。   FIG. 8 is a diagram illustrating an example of the luminance gradient when the coordinate axis is aligned with the reference direction. In the left diagram of FIG. 8, the direction of the thick arrow is the above-described reference direction, and the 8 × 8 squares aligned with the reference direction are recreated and the luminance gradient is obtained again. The right diagram of FIG. 8 corresponds to the 8 × 8 cells corresponding to the 4 × 4 cells, and the luminance gradient is decomposed into vectors in eight directions for each cell.

ここでは、8方向のベクトルに分解しているので、0°、45°、90°、135°、180°、225°、270°、及び、315°のそれぞれの方向についてベクトルのスカラー量が得られる。また、4×4のマス目のそれぞれについて、これらのスカラー量が得られていることになるため、4×4×8=128次元のスカラー量を得ることができることになる。本実施形態において、特徴点における特徴量は、これら複数次元のスカラー量である。   Here, since it is decomposed into vectors in eight directions, vector scalar quantities are obtained in the respective directions of 0 °, 45 °, 90 °, 135 °, 180 °, 225 °, 270 °, and 315 °. It is done. In addition, since these scalar amounts are obtained for each of the 4 × 4 squares, 4 × 4 × 8 = 128-dimensional scalar amounts can be obtained. In the present embodiment, the feature quantity at the feature point is a multi-dimensional scalar quantity.

図9に、本実施形態で静脈パターンから特徴量を抽出する動作について説明する図を示す。図9の上側の図は人差し指〜小指の各指について別個に撮像された指静脈パターン画像を表し、下側の図はそれぞれの指について抽出された特徴量のデータを表す。なお、登録時において必ずしも4本の指が撮像されなくてもよく、例えば、3本の指について撮像されるのであってもよく、両手の指であってもよい。   FIG. 9 is a diagram illustrating an operation for extracting a feature amount from a vein pattern in the present embodiment. The upper diagram in FIG. 9 represents finger vein pattern images captured separately for each of the index finger to the little finger, and the lower diagram represents feature value data extracted for each finger. Note that four fingers do not necessarily have to be imaged at the time of registration. For example, three fingers may be imaged, or fingers of both hands may be used.

指静脈画像の撮像により、図9の上側の図に示されるような各指についての静脈パターン画像が得られる。そして、それぞれの指静脈パターン画像から特徴点が抽出される。図の静脈画像中に複数表示されている白丸が、抽出された特徴点である。これらの特徴点についてそれぞれ特徴量が抽出される。例えば、人差し指の画像から、U1〜Unのn個の特徴量が抽出され、中指の画像から、V1〜Vmのm個の特徴量が抽出される。それぞれの特徴量は上述のような128次元のスカラー量で表される。各指の画像から抽出される全ての特徴量は、その指毎の特徴量群として定義され、図9下側のようにデータ化される。   By capturing the finger vein image, a vein pattern image for each finger as shown in the upper diagram of FIG. 9 is obtained. Then, feature points are extracted from each finger vein pattern image. A plurality of white circles displayed in the vein image in the figure are extracted feature points. A feature amount is extracted for each of these feature points. For example, n feature amounts U1 to Un are extracted from the index finger image, and m feature amounts V1 to Vm are extracted from the middle finger image. Each feature amount is represented by a 128-dimensional scalar amount as described above. All feature amounts extracted from the image of each finger are defined as a feature amount group for each finger, and are converted into data as shown in the lower side of FIG.

データ化された特徴量群は、登録対象者のID及び指IDとセットにしてRAM14に保存される。例えば、或る登録対象者Aの人差し指について、図9に示されるように(U1〜Un)のn個の特徴量が抽出された場合、特徴量群[ID−A人差し指(U1〜Un)]等として、登録対象者毎に指IDに対応付けて登録される。本明細書では、登録対象者毎に指IDに対応付けて登録された全ての特徴量データを「登録特徴量」と称する。   The converted feature quantity group is stored in the RAM 14 as a set together with the ID and finger ID of the person to be registered. For example, when n feature values (U1 to Un) are extracted for the index finger of a certain registration target person A as shown in FIG. 9, the feature value group [ID-A index finger (U1 to Un)] For example, each person to be registered is registered in association with the finger ID. In this specification, all feature amount data registered in association with the finger ID for each person to be registered is referred to as “registered feature amount”.

===識別動作について===
識別動作は、登録対象者(ユーザー)毎に指IDに対応付けて登録されている特徴量(登録特徴量)と、識別対象者の静脈パターン画像から抽出される特徴量とを照合して、登録されているいずれかの登録対象者と識別対象者とが同一人物であるか否かを判定する処理である。
=== About Identification Operation ===
The identification operation is performed by comparing the feature amount (registered feature amount) registered in association with the finger ID for each registration target person (user) with the feature quantity extracted from the vein pattern image of the identification target person. This is a process for determining whether any registered person to be registered and the person to be identified are the same person.

静脈識別装置1は、通常時の使用場面(例えば、図2でドアに施錠しているとき)においては、識別モードの状態で待機している。この状態において、トリガセンサー40が静脈識別装置1へ識別対象者の指が接近するのを検知すると、以下のような識別動作が開始される。   The vein identification device 1 stands by in the identification mode in a normal use scene (for example, when the door is locked in FIG. 2). In this state, when the trigger sensor 40 detects that the finger of the person to be identified approaches the vein identification device 1, the following identification operation is started.

<識別動作の流れ>
図10に、識別動作のフローを示す。識別動作はS501〜S509の各処理を演算部10が実行することによって行なわれる。
<Flow of identification operation>
FIG. 10 shows a flow of the identification operation. The identification operation is performed by the calculation unit 10 executing each process of S501 to S509.

初めに、登録動作におけるS101と同様に、撮像パラメータの調整が行なわれる(S501)。すなわち、センサー部から入力されてくる指(静脈)の画像をもとに、演算部10によって撮像パラメータが調整され、最も良好な画質で撮像可能なパラメータが設定される。   First, the imaging parameters are adjusted in the same manner as S101 in the registration operation (S501). That is, the imaging parameter is adjusted by the calculation unit 10 based on the finger (vein) image input from the sensor unit, and the parameter that can be imaged with the best image quality is set.

撮像パラメータの調整後、識別対象者の指静脈画像の撮像が行われる(S502)。静脈画像の撮像は、識別対象者がドア(図2参照)を開こうとしてドアノブを握ったタイミングで行なわれる。このとき、光源部30から700nm〜900nmの波長帯を多く含む近赤外線を照射しながらセンサー部20を用いて1回の撮像が行なわれる。本実施形態では、位置不変・回転不変な特性を有する特徴量を用いて識別を行なう。したがって、識別時における指の位置・方向は、登録時における指の位置・方向とずれていてもよい。つまり、ユーザーは撮像の際に指の位置合わせ等の細かい調整をする必要がなく、ユーザーにとって利便性の高いものとなっている。   After adjusting the imaging parameters, the finger vein image of the person to be identified is captured (S502). The vein image is captured at the timing when the person to be identified grasps the door knob to open the door (see FIG. 2). At this time, one imaging is performed using the sensor unit 20 while irradiating near infrared rays including many wavelength bands of 700 nm to 900 nm from the light source unit 30. In the present embodiment, identification is performed using a feature amount having a position invariant / rotation invariant characteristic. Therefore, the finger position / direction at the time of identification may be different from the finger position / direction at the time of registration. In other words, the user does not need to make fine adjustments such as finger positioning at the time of imaging, which is highly convenient for the user.

また、撮像される指の範囲は、登録動作時よりも狭くすることができる。通常の場合、指の静脈パターンの一部分を撮像しただけでも、個人の識別を行なう際に必要な数の特徴量を抽出することが可能だからである。登録動作において、登録対象者毎に複数の指についての静脈パターンを撮像し、それぞれの指(例えば、人差し指〜小指までの4本分の指)について特徴量群が抽出されている(前述の登録特徴量)。そのため、識別動作においては、そのうちの一部に対応する範囲(例えば、人差し指及び中指の一部)から抽出される識別対象者の特徴量を登録特徴量と照合を行うことができる。このとき、識別対象者の或る指の静脈パターンの一部とその指に隣り合う指の静脈パターンの一部とが同時に撮像されることが望ましい。隣り合う複数の指(例えば、人差し指及び中指)から抽出される特徴量を用いて識別動作を行う方が、一本の指のみから抽出される特徴量を用いて識別動作を行う場合よりも、ノイズ等の影響が小さくなるため、識別の精度を高くすることができる。詳細は後述する。   Moreover, the range of the finger to be imaged can be narrower than that during the registration operation. This is because, in a normal case, it is possible to extract a necessary number of feature quantities for individual identification only by imaging a part of a finger vein pattern. In the registration operation, vein patterns of a plurality of fingers are imaged for each registration target person, and feature amount groups are extracted for each finger (for example, four fingers from the index finger to the little finger) (the registration described above) Feature value). For this reason, in the identification operation, the feature quantity of the person to be identified extracted from the range corresponding to a part of it (for example, a part of the index finger and the middle finger) can be collated with the registered feature quantity. At this time, it is desirable that a part of a vein pattern of a certain finger of the identification target person and a part of a vein pattern of a finger adjacent to the finger are simultaneously imaged. The identification operation using the feature amount extracted from a plurality of adjacent fingers (for example, the index finger and the middle finger) is more effective than the case where the identification operation is performed using the feature amount extracted from only one finger. Since the influence of noise or the like is reduced, the identification accuracy can be increased. Details will be described later.

次に、撮像された識別対象者の静脈画像から特徴量の抽出が行われる(S503)。特徴量の抽出は登録動作時(S103)と同様にして行なうことができ、1つの静脈画像から複数の特徴量(特徴量群)が抽出される。例えば、識別対象者の静脈パターンを表す特徴量としてW1〜Wpが抽出され、RAM14に一時的に保存される。なお、識別動作における指静脈パターンの撮像(S502)では不特定の指が撮像されるため、抽出された特徴量がそれぞれどの指の静脈パターンから抽出されたものであるかを判断することはできない。つまり、S503の段階では、上述の特徴量W1〜Wpは指の情報を含まないデータである。   Next, a feature amount is extracted from the captured vein image of the person to be identified (S503). The feature amount extraction can be performed in the same manner as in the registration operation (S103), and a plurality of feature amounts (feature amount group) are extracted from one vein image. For example, W1 to Wp are extracted as feature amounts representing the vein pattern of the person to be identified and temporarily stored in the RAM 14. Note that in the finger vein pattern imaging (S502) in the identification operation, an unspecified finger is imaged, and therefore it is impossible to determine from which finger vein pattern each extracted feature amount is extracted. . That is, at the stage of S503, the above-described feature amounts W1 to Wp are data that does not include finger information.

抽出された特徴量群が適正なものである場合、すなわち、静脈識別を行なうのに十分な数の特徴量を抽出することができていれば(S504)、抽出された当該特徴量についての照合処理(S505)が行なわれる。なお、S504は登録動作におけるS104と同様にして行うことができる。   If the extracted feature quantity group is appropriate, that is, if a sufficient number of feature quantities can be extracted for vein identification (S504), collation for the extracted feature quantity is performed. Processing (S505) is performed. Note that S504 can be performed in the same manner as S104 in the registration operation.

照合処理(S505)では、抽出された識別対象者の指静脈パターンの特徴量に基づいて、該識別対象者のスコアが算出される。   In the matching process (S505), the score of the identification target person is calculated based on the extracted feature quantity of the finger vein pattern of the identification target person.

まず、識別動作において抽出された識別対象者の特徴量と、登録動作において指IDに対応付けて登録されている登録対象者の特徴量(登録特徴量)との間で、類似する特徴量の有無が判断される。そして、識別対象者の特徴量と類似する登録特徴量が存在した場合は、当該登録特徴量に対応付けられた指IDに応じて、識別対象者の指ごとのスコアが加算される。この指毎のスコアから識別対象者のスコアが算出される。照合処理(S505)の詳細は後で説明する。   First, between the feature quantity of the identification target person extracted in the identification operation and the feature quantity (registered feature quantity) of the registration target person registered in association with the finger ID in the registration operation, Presence or absence is determined. When there is a registered feature amount similar to the feature amount of the identification target person, the score for each finger of the identification target person is added according to the finger ID associated with the registered feature amount. The score of the person to be identified is calculated from the score for each finger. Details of the collation processing (S505) will be described later.

この方法では、識別対象者の特徴量と登録特徴量との間で、類似する特徴量の数に応じてスコアが増加される。したがって、識別対象者の静脈パターンと、登録されたユーザー(登録対象者)のうちのいずれかの静脈パターンとが類似しているほど、スコアが高い値となる。   In this method, the score is increased according to the number of similar feature amounts between the feature amount of the identification target person and the registered feature amount. Therefore, the higher the score is, the more similar the vein pattern of the person to be identified and the vein pattern of any registered user (registered person).

そして、照合処理の結果として得られた識別対象者のスコアと所定の閾値とが比較される(S506)。上述のように、スコアが高いほど、識別対象者の静脈パターンと、登録対象者の静脈パターンとの類似度が高いので、閾値の値を適当に設定することにより、個人の識別を精度良く行なうことができる。   Then, the score of the person to be identified obtained as a result of the matching process is compared with a predetermined threshold value (S506). As described above, the higher the score, the higher the degree of similarity between the vein pattern of the person to be identified and the vein pattern of the person to be registered, so that the individual can be accurately identified by appropriately setting the threshold value. be able to.

演算部10は、識別対象者のスコアが所定の閾値よりも大きい場合(S506がYes)には、識別対象者と登録対象者とが一致すると判定する(S507)。一方、識別対象者のスコアが所定の閾値よりも小さい場合(S506がNo)には、識別対象者と登録対象者とが一致しないと判定する(S508)。   When the score of the identification target person is greater than the predetermined threshold (S506: Yes), the calculation unit 10 determines that the identification target person and the registration target person match (S507). On the other hand, when the score of the identification target person is smaller than the predetermined threshold (No in S506), it is determined that the identification target person and the registration target person do not match (S508).

判定結果は制御対象50に送信され(S509)、その結果に従った制御がなされる。例えば、図2Aのように制御対象50がドアの電子錠である場合には、識別対象者と登録対象者とが一致すると判定されれば開錠され、識別対象者と登録対象者とが一致しないと判定されれば開錠されない。   The determination result is transmitted to the controlled object 50 (S509), and control according to the result is performed. For example, as shown in FIG. 2A, when the control target 50 is an electronic lock of a door, if it is determined that the identification target person matches the registration target person, it is unlocked, and the identification target person matches the registration target person. If it is determined not to be unlocked, it is not unlocked.

<照合処理(S505)の詳細>
照合処理(S505)の詳細について説明する。図11に、照合処理のフローを示す。照合処理は、演算部10によってS551〜S556の各処理を実行することにより行なわれる。なお、以下では、特徴量抽出処理(S503)において、識別対象者の指静脈パターンから(W1〜Wp)のp個の特徴量が抽出されているものとして説明を行なう。
<Details of collation processing (S505)>
Details of the collation processing (S505) will be described. FIG. 11 shows a flow of collation processing. The collation processing is performed by executing each processing of S551 to S556 by the calculation unit 10. In the following description, it is assumed that p feature amounts (W1 to Wp) are extracted from the finger vein pattern of the person to be identified in the feature amount extraction process (S503).

はじめに、識別対象者の特徴量群に含まれるp個の特徴量(W1〜Wp)について、第j番目(j=1,2,3…)の特徴量Wjが選択される(S551)。例えば、照合処理の開始時点では、まず第1番目の特徴量W1が選択される。   First, the j-th (j = 1, 2, 3,...) Feature quantity Wj is selected for the p feature quantities (W1 to Wp) included in the feature quantity group of the identification target person (S551). For example, at the start of the collation process, first, the first feature amount W1 is selected.

次に、前述の登録特徴量の中に、Wjと類似する特徴量があるか否かについて判断される(S552)。特徴量の「類似」は、比較する2つの特徴量ベクトル間におけるユークリッド距離を算出し、算出されたユークリッド距離とあらかじめ設定してある所定の閾値とを比較することによって判断することができる。これらの距離の値が所定の閾値よりも小さい場合には、両者のベクトルが近いことを示すので2つの特徴量は類似度が高いと判定することができる。   Next, it is determined whether or not there is a feature amount similar to Wj in the above-described registered feature amount (S552). The “similarity” of the feature quantity can be determined by calculating the Euclidean distance between the two feature quantity vectors to be compared and comparing the calculated Euclidean distance with a predetermined threshold value set in advance. When these distance values are smaller than a predetermined threshold value, it indicates that the two vectors are close to each other, so that it can be determined that the two feature quantities have high similarity.

例えば、S551で選択された特徴量W1と、登録特徴量として登録されている登録対象者Aの人差し指に対応付けられた或る特徴量Ul(ID−A人差し指(Ul))との間で、それぞれユークリッド距離が算出される。W1とUlとの間のユークリッド距離が所定の閾値よりも小さい場合、W1とUlとは類似する特徴量であると判断される。また、W1とUlとが非類似であった場合は、登録対象者Aの人差し指に対応付けられた次の特徴量U2(ID−A人差し指(U2))との間で、類否(類似するか否か)が判断される。そして、登録対象者Aの人差し指に対応付けられた特徴量(ID−A人差し指(U1〜Un)の中に類似する特徴量がない場合は、次に登録対象者Aの中指に対応付けられた特徴量(ID−A中指(V1〜Vm)との類否が判断される。   For example, between the feature amount W1 selected in S551 and a certain feature amount Ul (ID-A index finger (Ul)) associated with the index finger of the registration target person A registered as the registered feature amount, A Euclidean distance is calculated for each. If the Euclidean distance between W1 and Ul is smaller than a predetermined threshold, it is determined that W1 and Ul are similar feature amounts. Further, if W1 and Ul are dissimilar, the similarity (similarity) between the next feature amount U2 (ID-A index finger (U2)) associated with the index finger of the person A to be registered is similar. Whether or not) is determined. Then, when there is no similar feature amount in the feature amount (ID-A forefinger (U1 to Un)) associated with the index finger of the registration subject person A, the feature amount is then associated with the middle finger of the registration subject person A. A feature amount (similarity with ID-A middle finger (V1 to Vm)) is determined.

このようにして、選択された識別対象者の各特徴量と登録特徴量との間で順次類否判断が行なわれる。   In this way, the similarity determination is sequentially performed between each feature amount of the selected identification target person and the registered feature amount.

なお、ここでは、ユークリッド距離に基づいて類似判断を行なうこととしたが、市街地距離やマハラノビスの距離に基づいて類似判断を行なうこととしてもよい。   Here, the similarity determination is performed based on the Euclidean distance, but the similarity determination may be performed based on the city distance or the Mahalanobis distance.

選択されたWjについて、類似する特徴量が登録特徴量の中に見つかった場合は(S552がYes)、その登録特徴量に対応付けられた指IDに応じて、識別対象者の指毎にスコアを増加する(S553)。例えば、上述の例において選択された特徴量W1が、登録特徴量中の或る登録対象者Aの人差し指に対応付けられた特徴量Ulと類似すると判断された場合は、識別対象者の人差し指のスコアが1ポイント加算される。なお、加算されるポイントは調整可能であり、例えば特徴量が類似する場合に、その指について2ポイントずつ加算されるようにしてもよい。   If a similar feature value is found in the registered feature value for the selected Wj (Yes in S552), a score is determined for each finger of the identification target person according to the finger ID associated with the registered feature value. Is increased (S553). For example, if it is determined that the feature value W1 selected in the above example is similar to the feature value Ul associated with the index finger of a certain registration target person A in the registered feature value, the index finger of the identification target person One point is added to the score. The points to be added can be adjusted. For example, when the feature amounts are similar, two points may be added for each finger.

選択された識別対象者の特徴量Wjが、登録特徴量中のいずれの登録対象者のいずれの指の特徴量にも類似しなかった場合は(S552がNo)、識別対象者のいずれの指のスコアも加算されない。   When the feature quantity Wj of the selected identification target person is not similar to the feature quantity of any finger of any registration target person in the registered feature quantity (No in S552), any finger of the identification target person No score is added.

そして、次の特徴量(j+1番目の特徴量Wj+1)が存在する場合は(S554がNo)、該特徴量Wj+1について上述の(S551〜S553)の処理が繰り返される(S554)。   If the next feature amount (j + 1th feature amount Wj + 1) exists (S554 is No), the above-described processing (S551 to S553) is repeated for the feature amount Wj + 1 (S554).

次の特徴量がない場合(S554がYes)、識別対象者の指毎のスコアから識別対象者のスコアが算出される(S555)。スコアを算出する際は、S554までの工程で識別対象者の各指について算出されたスコアのうち隣り合う複数の指のスコアの合計値を算出し、該合計値が最大となる指の組み合わせが、識別対象者のスコアとして算出される。例えば、隣り合う2本の指のスコアの合計値から識別対象者のスコアを算出する場合は、人差し指と中指のスコアの合計、中指と薬指のスコアの合計、薬指と小指のスコアの合計が算出され、この中で最大となる値が識別対象者のスコアとされる。   When there is no next feature quantity (Yes in S554), the score of the identification target person is calculated from the score of each finger of the identification target person (S555). When calculating the score, the total value of the scores of a plurality of adjacent fingers among the scores calculated for each finger of the person to be identified in the steps up to S554 is calculated, and the combination of the fingers with the maximum total value is calculated. Is calculated as the score of the person to be identified. For example, when calculating the score of the person to be identified from the total score of two adjacent fingers, the total of the index and middle finger scores, the middle and ring finger scores, and the ring finger and little finger scores are calculated. The maximum value among them is used as the score of the person to be identified.

そして、算出された識別対象者のスコアが出力され(S556)、この値と前述の閾値を比較することにより(S506)、識別対象者がユーザー(登録者)であるか否かの判断がなされる。   Then, the calculated score of the identification target person is output (S556), and by comparing this value with the above-described threshold (S506), it is determined whether the identification target person is a user (registrant). The

<識別動作の具体例>
識別動作の流れについて、具体例を用いて説明する。図12A〜図12Cは識別対象者Xの指静脈パターンを用いて識別動作を行う例について説明する図である。なお、本例では、登録特徴量として、登録対象者A〜Cの3人分の指静脈データ(ID−A〜ID−C)が登録されているものとする。該指静脈データは、それぞれ人差し指〜薬指の4種類の指IDに対応付けて登録された特徴量である。例えば、登録対象者Aについての該指静脈データとして[ID−A人差し指(U1〜Un)]、[ID−A中指(V1〜Vm)]等、登録対象者毎に人差し指〜薬指の各指に対応付けられた特徴量データが登録されている。
<Specific example of identification operation>
The flow of the identification operation will be described using a specific example. 12A to 12C are diagrams illustrating an example in which the identification operation is performed using the finger vein pattern of the person X to be identified. In this example, it is assumed that finger vein data (ID-A to ID-C) for three persons to be registered A to C are registered as registered feature amounts. The finger vein data is a feature amount registered in association with four types of finger IDs of the index finger and the ring finger. For example, as the finger vein data for the registration target person A, [ID-A index finger (U1 to Un)], [ID-A middle finger (V1 to Vm)], etc. The associated feature amount data is registered.

本例では、識別対象者Xの指静脈パターン画像が撮像される際に(S502)、図12Aのセンサー部20の斜線部で表される範囲で撮像が行なわれたものとする。図では、識別対象者Xの中指が他の指よりも大きく撮像され、人差し指及び薬指の一部が撮像されている。この撮像範囲に含まれる識別対象者Xの指静脈パターンについて、前述の方法によって特徴量(W1〜Wp)が抽出される(S503)。   In this example, when the finger vein pattern image of the person X to be identified is captured (S502), it is assumed that the imaging is performed in the range represented by the hatched portion of the sensor unit 20 in FIG. 12A. In the figure, the middle finger of the identification target person X is imaged larger than the other fingers, and a part of the index finger and ring finger are imaged. With respect to the finger vein pattern of the identification target person X included in the imaging range, the feature amounts (W1 to Wp) are extracted by the above-described method (S503).

次に、照合処理(S505)において、登録特徴量中の各特徴量と、抽出された識別対象者Xの各特徴量(W1〜Wp)との類否が判断される。登録特徴量中に類似する特徴量がある場合には、当該特徴量に対応付けられた指IDに応じて、識別対象者の指のスコアが増加される。そして、増加されたスコアを指毎に合計することで、図12Bのように指毎のスコアが算出される。   Next, in the matching process (S505), the similarity between each feature quantity in the registered feature quantity and each feature quantity (W1 to Wp) of the extracted identification target person X is determined. When there are similar feature amounts in the registered feature amount, the finger score of the identification target person is increased according to the finger ID associated with the feature amount. And the score for every finger is calculated like FIG. 12B by totaling the increased score for every finger.

まず、識別対象者Xの各特徴量(W1〜Wp)について、登録対象者Aの人差し指に対応付けられた特徴量U1〜Un([ID−A人差し指(U1)]〜[ID−A人差し指(Un)])までが順に照合される。登録対象者Aの人差し指に対応付けられた登録特徴量との照合の結果、識別対象者Xの特徴量(W1〜Wp)のうち14点が類似したとする。この場合、識別対象者Xの指スコアとして、人差し指のスコアが14ポイント加算される(図12Bの斜線で表される棒グラフ)。   First, for each feature quantity (W1 to Wp) of identification target person X, feature quantities U1 to Un ([ID-A index finger (U1)] to [ID-A index finger ( Un)]) are collated in order. It is assumed that 14 points out of the feature amounts (W1 to Wp) of the identification target person X are similar as a result of collation with the registered feature amount associated with the index finger of the registration target person A. In this case, as the finger score of the identification target person X, the score of the index finger is added by 14 points (a bar graph represented by hatching in FIG. 12B).

次に登録対象者Aの中指に対応付けられた特徴量[ID−A中指(V1〜Vm)]との照合が行なわれ、中指のスコアが5と算出される。同様にして、薬指のスコアが10、小指のスコアが13と算出される。この指スコアが、識別対象者Xと登録対象者Aとの照合結果となる。   Next, a comparison is made with the feature amount [ID-A middle finger (V1 to Vm)] associated with the middle finger of the registration target person A, and the score of the middle finger is calculated as 5. Similarly, the score of the ring finger is calculated as 10 and the score of the little finger is calculated as 13. This finger score is a collation result between the identification target person X and the registration target person A.

同様にして、識別対象者Xの各特徴量と、登録対象者Bの登録特徴量(ID−B人差し指)〜(ID−B小指)とが順次照合さる。登録対象者Bの登録特徴量(ID−B)との照合の結果、人差し指のスコアが16、中指のスコアが34、薬指のスコアが17、小指のスコアが7と算出される(図12Bの黒塗りで表される棒グラフ)。   Similarly, each feature quantity of the identification target person X and the registration feature quantity (ID-B index finger) to (ID-B pinky finger) of the registration target person B are sequentially collated. As a result of collation with the registered feature amount (ID-B) of the person B to be registered, the index finger score is 16, the middle finger score is 34, the ring finger score is 17, and the little finger score is 7 (FIG. 12B). Bar graph represented in black).

また、登録対象者Cの登録特徴量(ID−C)との照合の結果、人差し指のスコアが11、中指のスコアが4、薬指のスコアが10、小指のスコアが11と算出される(図12Bの白塗りで表される棒グラフ)。   Further, as a result of collation with the registered feature amount (ID-C) of the person C to be registered, the index finger score is 11, the middle finger score is 4, the ring finger score is 10, and the little finger score is 11 (FIG. 12B is a bar graph expressed in white).

次に、識別対象者Xの指毎に算出されたスコアのうち、隣り合う2本の指のスコアの合計値を算出する。例えば、図12BのID−Bの場合、人差し指と中指との合計スコアは50(=16+34)である。また、中指と薬指との合計スコアは51(=34+17)、薬指と小指との合計スコアは24(=17+7)である。   Next, among the scores calculated for each finger of the identification target person X, the total value of the scores of two adjacent fingers is calculated. For example, in the case of ID-B in FIG. 12B, the total score of the index finger and the middle finger is 50 (= 16 + 34). The total score of the middle finger and the ring finger is 51 (= 34 + 17), and the total score of the ring finger and the little finger is 24 (= 17 + 7).

このうち、合計スコアが最大となる組み合わせが識別対象者Xのスコア候補として選択される。上述の例においては、図12Cに示されるように、中指と薬指との合計スコアである51が、登録対象者Bの登録特徴量(ID−B)との照合から算出される識別対象者Xのスコア候補となる(図12Cの黒塗りで表される棒グラフ)。同様に、登録対象者Aの登録特徴量(ID−A)と照合した結果による識別対象者Xのスコア候補は23(=10+13)であり(図12Cの斜線で表される棒グラフ)、登録対象者Cの登録特徴量(ID−C)と照合した結果による識別対象者Xのスコア候補は21(=10+11)である(図12Cの白塗りで表される棒グラフ)。   Among these, the combination with the maximum total score is selected as a candidate score for the identification target person X. In the above-described example, as shown in FIG. 12C, 51 that is the total score of the middle finger and the ring finger is the identification target person X calculated from the comparison with the registration feature amount (ID-B) of the registration target person B. (A bar graph represented by black in FIG. 12C). Similarly, the score candidate of the identification target person X based on the result of collation with the registration feature amount (ID-A) of the registration target person A is 23 (= 10 + 13) (the bar graph represented by the oblique lines in FIG. 12C), and the registration target The score candidate of identification target person X based on the result of collation with the registered feature amount (ID-C) of person C is 21 (= 10 + 11) (bar graph represented by white in FIG. 12C).

これらの候補のうち、ID−Bとの照合で得られたスコア(51)が最大であるので、このスコアが識別対象者Xの合計スコアとなる。   Among these candidates, since the score (51) obtained by collation with ID-B is the maximum, this score is the total score of the person X to be identified.

そして、識別対象者Xのスコア(51)と所定の閾値との大小関係が比較され(S506)、識別の許否が判断される。例えば、本例において閾値が40に設定されているとすると、識別対象者Xのスコア(51)>閾値(40)であるため、識別が許可される(S507)。なお、この場合、識別対象者Xは登録対象者Bと同一人物であると判断されることになる。閾値の設定は、あらかじめ実験を行なうことにより、最適な値が決定される。   Then, the size relationship between the score (51) of the identification target person X and a predetermined threshold is compared (S506), and whether or not the identification is permitted is determined. For example, if the threshold value is set to 40 in this example, since the score (51) of the identification target person X is greater than the threshold value (40), identification is permitted (S507). In this case, it is determined that the identification target person X is the same person as the registration target person B. As for the setting of the threshold value, an optimum value is determined by conducting an experiment in advance.

また、識別対象者Xのスコアとして、隣り合う3本の指の合計値を算出してもよい。3本指の合計とした場合、ID−Aとの照合結果によるスコアの最大値は29(=14+5+10)となる。同様に、ID−Bとの照合の結果は67(=16+34+17)、ID−Cとの照合の結果は25(=11+4+10)となる。このうち、ID−Bとの照合で得られたスコア(67)が最大であるので、結局、このスコアが識別対象者Xの合計スコアとなる。閾値を適当に調整することで、上述の場合と同様に、識別対象者Xは登録対象者Bと同一人物であると判断することができる。   Moreover, you may calculate the total value of three adjacent fingers as a score of identification object person X. In the case of a total of three fingers, the maximum score value according to the collation result with ID-A is 29 (= 14 + 5 + 10). Similarly, the result of collation with ID-B is 67 (= 16 + 34 + 17), and the result of collation with ID-C is 25 (= 11 + 4 + 10). Among these, since the score (67) obtained by collation with ID-B is the maximum, this score is eventually the total score of the person X to be identified. By appropriately adjusting the threshold value, it is possible to determine that the identification target person X is the same person as the registration target person B as in the case described above.

図13A〜図13Cは、識別対象者Yの指静脈パターンを用いて識別動作を行う例について説明する図である。基本的な流れは、上述の例と同様である。   13A to 13C are diagrams illustrating an example in which the identification operation is performed using the finger vein pattern of the person Y to be identified. The basic flow is the same as in the above example.

本例では、識別対象者Yの指静脈パターン画像が撮像される際に(S502)、図13Aに示されるように、識別対象者Yの人差し指及び中指が撮像範囲に含まれている。すなわち、人差し指及び中指の静脈パターンの一部から識別対象者Yの特徴量が抽出される。   In this example, when the finger vein pattern image of the identification target person Y is captured (S502), as shown in FIG. 13A, the index finger and middle finger of the identification target person Y are included in the imaging range. That is, the characteristic amount of the identification target person Y is extracted from a part of the vein pattern of the index finger and the middle finger.

次に、上述の例と同様に、識別対象者Yの各特徴量が登録対象者A〜Cの登録特徴量と照合される。登録対象者Aの人差し指に対応付けられた登録特徴量との照合の結果、図13Bに示されるように、識別対象者Yの指スコアとして、人差し指のスコアが24、中指のスコアが23、薬指のスコアが10、小指のスコアが9と算出される(図13Bの斜線で表される棒グラフ)。この指スコアが、識別対象者Yと登録対象者Aとの照合結果となる。また、識別対象者Yの各特徴量が登録対象者B及びCの登録特徴量と照合され、その結果図13Bの黒塗りで表される棒グラフ(ID−B)、及び、白塗りで表される棒グラフ(ID−C)の指スコアが算出される。   Next, as in the above-described example, each feature quantity of the identification target person Y is collated with the registration feature quantities of the registration target persons A to C. As a result of collation with the registered feature amount associated with the index finger of the registration target person A, as shown in FIG. 13B, the finger score of the identification target person Y is 24 for the index finger, 23 for the middle finger, and the ring finger Is calculated as 10 and the score of the little finger is calculated as 9 (a bar graph represented by diagonal lines in FIG. 13B). This finger score is a matching result between the identification target person Y and the registration target person A. Further, each feature quantity of the identification target person Y is collated with the registration feature quantities of the registration target persons B and C, and as a result, the bar graph (ID-B) represented by black in FIG. 13B and the white paint are represented. The finger score of the bar graph (ID-C) is calculated.

そして、識別対象者Xの指毎に算出されたスコアのうち、隣り合う2本の指のスコアの合計値が算出され、ID−Aとの照合で得られたスコア45(=23+22)が最大であるので(図13B)、このスコアが識別対象者Xの合計スコアとなる。   Then, among the scores calculated for each finger of the identification target person X, the total value of the scores of two adjacent fingers is calculated, and the score 45 (= 23 + 22) obtained by collation with ID-A is the maximum. Therefore (FIG. 13B), this score becomes the total score of the person X to be identified.

算出されたスコアと閾値を比較して、閾値識別対象者Yのスコア(45)>閾値(40)となるため、識別が許可される(S507)。なお、この場合、識別対象者Xは登録対象者Aと同一人物であると判断されることになる。   Since the calculated score and the threshold are compared, and the score of the threshold identification target person Y (45)> the threshold (40), the identification is permitted (S507). In this case, the identification target person X is determined to be the same person as the registration target person A.

このように、隣り合う複数の指スコアを考慮することによって、精度良く指静脈識別を行うことが可能となる。   Thus, finger vein identification can be performed with high accuracy by considering a plurality of adjacent finger scores.

隣り合う複数の指のスコアを考慮するのは、偶然に発生するミスマッチ(本来合致するはずのない特徴量が誤って類似と判定されること)の影響を小さくするためである。例えば、図13Bで登録対象者B(ID−B)の登録特徴量との照合によって得られる識別対象者Yの人差し指についての指スコアは20である。一方で、識別対象者Yと登録対象者Bは非同一人物であることがわかっているので、このスコアは偶然発生したノイズ等の影響によって算出されたものと考えられる。   The reason for considering the scores of a plurality of adjacent fingers is to reduce the influence of a mismatch that occurs by chance (a feature quantity that should not originally match is erroneously determined to be similar). For example, in FIG. 13B, the finger score for the index finger of the identification target person Y obtained by matching with the registration feature amount of the registration target person B (ID-B) is 20. On the other hand, since it is known that the identification target person Y and the registration target person B are non-identical persons, this score is considered to be calculated by the influence of noise or the like that occurred by chance.

仮に、指1本分のスコアのみを用いて識別を行なう場合、図13Bに示されるように、登録対象者Aとの照合による識別対象者Yのスコアは23(ID−A人差し指)となる。また、登録対象者Bとの照合によるスコアは20(ID−B人差し指)、登録対象者Cとの照合によるスコアは13(ID−C薬指)となる(図13B参照)。この場合、閾値の設定によっては(例えば閾値=19と設定されていた場合)、登録対象者Aだけでなく、登録対象者Bとの関係でも、識別対象者Yの識別が許可されてしまい、誤識別が発生する。   If the identification is performed using only the score for one finger, as shown in FIG. 13B, the score of the identification target person Y based on the verification with the registration target person A is 23 (ID-A index finger). Moreover, the score by collation with the registration subject person B is 20 (ID-B index finger), and the score by collation with the registration subject person C is 13 (ID-C ring finger) (see FIG. 13B). In this case, depending on the setting of the threshold (for example, when threshold = 19 is set), identification of the identification target person Y is permitted not only in the registration target person A but also in the relationship with the registration target person B. Misidentification occurs.

これに対して、本実施形態のように、隣り合う複数の指のスコアを考慮すると、当該複数の指の全てにおいてミスマッチが生じる可能性は極めて低くなる。これにより、偶然のミスマッチによる影響を相対的に小さくすることができるので、精度良く識別を行なうことが可能となる。   On the other hand, when the scores of a plurality of adjacent fingers are taken into consideration as in the present embodiment, the possibility of mismatches occurring in all of the plurality of fingers is extremely low. As a result, the influence of the accidental mismatch can be made relatively small, so that the identification can be performed with high accuracy.

また、隣り合う指のデータを用いることが重要である。例えば、4本の指スコアのうち、最大となる2本の指についての指スコアの合計を識別対象者のスコアとして扱うとすると、識別の精度が悪くなる。上述のようなミスマッチによって発生したデータを積極的に採用することになるためである。   It is also important to use adjacent finger data. For example, if the sum of the finger scores for the two fingers that are the maximum of the four finger scores is handled as the score of the person to be identified, the accuracy of the identification is deteriorated. This is because the data generated by the mismatch as described above is positively adopted.

また、考慮するべき(隣り合う)指の数は撮像範囲に応じて決定される。例えば、図12や図13のような撮像を行なう場合、人差し指〜小指の4本についての指スコアの合計を識別対象者のスコアとして扱うとすると、識別の精度が悪くなる。撮像範囲外となる小指について算出される指スコアは信頼できるものとはいえないため、小指のスコアを考慮することにより、かえって識別精度が低下してしまう。従って、図12や図13に示されるような撮像範囲の場合、隣り合う2本または3本の指についてのみ考慮するものとする。なお、考慮する指の数は、撮像部の面積(撮像可能な面積)等を考慮して決定することができる。   The number of fingers to be considered (adjacent) is determined according to the imaging range. For example, when imaging is performed as shown in FIGS. 12 and 13, if the sum of the finger scores for the index finger to the little finger is handled as the score of the person to be identified, the accuracy of the identification is deteriorated. Since the finger score calculated for the little finger outside the imaging range cannot be said to be reliable, taking into consideration the score of the little finger results in a decrease in identification accuracy. Therefore, in the case of the imaging range as shown in FIGS. 12 and 13, only two or three adjacent fingers are considered. Note that the number of fingers to be considered can be determined in consideration of the area of the imaging unit (area that can be imaged) and the like.

<まとめ>
本実施形態では、識別動作において、識別対象者の静脈パターンを、位置・方向によらずに撮像して得られる画像から、当該静脈パターンを特徴付ける複数の特徴量を抽出する。そして、指の種類を表す指IDに対応付けて登録されている登録特徴量と、抽出された該識別対象者の各特徴量とを照合する。照合の結果、該識別対象者の特徴量と登録特徴量が類似する場合は、その登録特徴量に対応付けられた指IDに応じて、該識別対象者の指毎にスコアを算出する。算出された指毎のスコアから、隣り合う複数の指のスコアを組み合わせた場合に最大となる値を識別対象者のスコアとし、所定の閾値とを比較することにより、静脈識別を行なう。
<Summary>
In the present embodiment, in the identification operation, a plurality of feature quantities characterizing the vein pattern are extracted from an image obtained by capturing the vein pattern of the person to be identified regardless of the position and direction. Then, the registered feature quantity registered in association with the finger ID representing the finger type is collated with the extracted feature quantity of the identification target person. As a result of the collation, when the feature quantity of the identification target person is similar to the registered feature quantity, a score is calculated for each finger of the identification target person according to the finger ID associated with the registration feature quantity. From the calculated score for each finger, the maximum value when the scores of a plurality of adjacent fingers are combined is set as the score of the person to be identified, and vein identification is performed by comparing the score with a predetermined threshold.

この方法によれば、撮像範囲外となる指や互いに隣り合わない指について生じるミスマッチ分が、最終的な識別対象者のスコアに反映されにくい。さらに、ノイズ等に起因すると考えられる特徴量の影響が相対的に小さくなるため、高精度な識別を実現することができる。また、撮像時における位置合わせやガイドの設置等も不要であるため、ユーザーにとっても利便性が高い。   According to this method, mismatches that occur with fingers that are outside the imaging range or fingers that are not adjacent to each other are hardly reflected in the final score of the person to be identified. Furthermore, since the influence of the feature amount that is considered to be caused by noise or the like becomes relatively small, highly accurate identification can be realized. In addition, since it is not necessary to perform positioning and guide installation at the time of imaging, it is highly convenient for users.

したがって、撮像した指の画像を用いて個人の識別を行なう生体識別装置において、識別時の指の位置や方向によらず、精度の高い識別を行なうことが可能となる。   Therefore, in a biometric identification device that identifies an individual using a captured finger image, it is possible to perform highly accurate identification regardless of the position and direction of the finger at the time of identification.

===その他の実施形態===
一実施形態としての静脈識別装置を説明したが、上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは言うまでもない。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
=== Other Embodiments ===
Although the vein identification device as one embodiment has been described, the above embodiment is for facilitating the understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.

<生体識別装置について>
上述の実施形態において、生体識別装置の例として静脈パターンを用いて識別を行なう静脈識別装置1を挙げて説明しているが、この限りではなく、静脈パターン以外の人間の生体パターンを捉えて識別を行なう装置であってもよい。例えば、指の指紋等の画像を用いて個人の識別を行なうことも可能である。
<About biometric identification device>
In the above-described embodiment, the vein identification device 1 that performs identification using a vein pattern has been described as an example of the biometric identification device. It may be a device that performs the above. For example, it is possible to identify an individual using an image such as a fingerprint of a finger.

<SIFT特徴量について>
上述の実施形態において、特徴点の抽出及び特徴量の抽出を行なう際の手法としてSIFT特徴量を用いた例について説明しているが、この限りではない。例えば、SURF(Speeded Up Robust Features)、GLOH(Gradient Location and Orientation Histogram)等の手法を用いることとしてもよい。
<SIFT feature value>
In the above-described embodiment, an example in which SIFT feature values are used as a technique for extracting feature points and feature values has been described, but this is not restrictive. For example, techniques such as SURF (Speeded Up Robust Features) and GLOH (Gradient Location and Orientation Histogram) may be used.

1 静脈識別装置、
10 演算部、12 CPU、14 RAM、16 EEPROM、
20 センサー部、
30 光源部、
40 トリガセンサー、
50 制御対象
1 vein identification device,
10 arithmetic units, 12 CPU, 14 RAM, 16 EEPROM,
20 Sensor part,
30 light source,
40 trigger sensor,
50 Control target

Claims (6)

指の生体パターンを撮像する撮像部と、
演算部と、を備え、
前記演算部は、
前記撮像部を用いて識別対象者の指の生体パターンを撮像して得られる画像から、前記識別対象者の前記生体パターンを特徴付ける特徴量であって、撮像範囲及び撮像方向が変化した場合でも前記生体パターンに対して位置不変かつ回転不変な特性を有する特徴量を複数抽出し、
所定の登録部に指の種類を表す指IDに対応付けて登録されている登録対象者の生体パターンを特徴付ける特徴量と、前記識別対象者の特徴量とが類似するか否かを判断し、
前記識別対象者の特徴量と類似すると判断された前記登録対象者の特徴量に対応付けられた指IDに応じて、前記識別対象者の指毎のスコアを算出するとともに、前記識別対象者の隣り合う複数の指のスコアの合計値を算出し、
前記スコアの合計値のうち最大の値が所定の閾値よりも大きい場合に、前記識別対象者が前記登録対象者であると識別する、
ことを特徴とする生体識別装置。
An imaging unit for imaging a biological pattern of a finger;
An arithmetic unit,
The computing unit is
A characteristic amount characterizing the biological pattern of the identification target person from an image obtained by imaging the biological pattern of the finger of the identification target person using the imaging unit, even when the imaging range and the imaging direction change. Extract multiple features that have position-invariant and rotation-invariant characteristics with respect to the biological pattern,
Determining whether or not the feature quantity characterizing the biometric pattern of the person to be registered registered in association with the finger ID representing the kind of finger in the predetermined registration unit is similar to the feature quantity of the person to be identified;
In accordance with the finger ID associated with the feature quantity of the registration subject determined to be similar to the feature quantity of the identification subject person, the score for each finger of the identification subject person is calculated, and Calculate the total score of multiple adjacent fingers,
When the maximum value among the total values of the scores is larger than a predetermined threshold, the identification target person is identified as the registration target person.
A biometric identification device.
請求項1に記載の生体識別装置であって、
前記撮像部は、前記識別対象者の1本の指の生体パターンの少なくとも一部と、前記1本の指に隣り合う指の生体パターンの少なくとも一部とを撮像することを特徴とする、生体識別装置。
The biometric identification device according to claim 1,
The imaging unit images at least a part of a biological pattern of one finger of the identification target person and at least a part of a biological pattern of a finger adjacent to the one finger. Identification device.
請求項1または2に記載の生体識別装置であって、
前記演算部は、
前記撮像部を用いて登録対象者の指の生体パターンを撮像して得られる画像から、前記登録対象者の特徴量を抽出し、
前記登録対象者の特徴量と前記登録対象者の指IDとを対応付けて登録特徴量として前記登録部に登録することを特徴とする、生体識別装置。
The biometric identification device according to claim 1 or 2 ,
The computing unit is
From the image obtained by imaging the biometric pattern of the finger of the registration subject using the imaging unit, the feature amount of the registration subject is extracted,
The biometric identification device, wherein the registration target person's feature quantity and the registration target person's finger ID are associated with each other and registered as a registration feature quantity in the registration unit.
請求項に記載の生体識別装置であって、
前記識別対象者の指の生体パターンよりも、
前記登録対象者の指の生体パターンの方が、前記撮像部によって撮像される領域が大きいことを特徴とする、生体識別装置。
The biometric identification device according to claim 3 ,
Than the biometric pattern of the identification subject's finger,
The biometric identification device, wherein the biometric pattern of the finger of the person to be registered has a larger area imaged by the imaging unit.
請求項1〜のいずれかに記載の生体識別装置であって、
前記特徴量が、SIFT(Scale Invariant Feature Transform)を用いて抽出されることを特徴とする、生体識別装置。
The biometric identification device according to any one of claims 1 to 4 ,
The biometric identification device, wherein the feature amount is extracted using a SIFT (Scale Invariant Feature Transform).
識別対象者の指の生体パターンを撮像して得られる画像から、前記識別対象者の指の生体パターンを特徴付ける特徴量であって、撮像範囲及び撮像方向が変化した場合でも前記生体パターンに対して位置不変かつ回転不変な特性を有する特徴量を複数抽出することと、
指の種類を表す指IDに対応付けて登録されている登録対象者の特徴量と、前記識別対象者の特徴量とが類似するか否かを判断することと、
前記識別対象者の特徴量と類似すると判断された前記登録対象者の特徴量に対応付けられた指IDに応じて、前記識別対象者の指毎のスコアを算出するとともに、前記識別対象者の隣り合う複数の指のスコアの合計値を算出することと、
前記スコアの合計値のうち最大の値が所定の閾値よりも大きい場合に、前記識別対象者が前記登録対象者であると識別することと、
を有する生体識別方法。
A characteristic amount characterizing the biological pattern of the finger of the identification target person from an image obtained by imaging the biological pattern of the finger of the identification target person, and even if the imaging range and imaging direction change, Extracting a plurality of features having position-invariant and rotation-invariant characteristics;
Determining whether or not the feature quantity of a registration target person registered in association with a finger ID representing a finger type is similar to the feature quantity of the identification target person;
In accordance with the finger ID associated with the feature quantity of the registration subject determined to be similar to the feature quantity of the identification subject person, the score for each finger of the identification subject person is calculated , and Calculating a total value of scores of a plurality of adjacent fingers;
Identifying the identification target person as the registration target person when the maximum value of the total score is greater than a predetermined threshold;
A biometric identification method comprising:
JP2011126502A 2011-06-06 2011-06-06 Biological identification device and biological identification method Active JP5914995B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011126502A JP5914995B2 (en) 2011-06-06 2011-06-06 Biological identification device and biological identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011126502A JP5914995B2 (en) 2011-06-06 2011-06-06 Biological identification device and biological identification method

Publications (3)

Publication Number Publication Date
JP2012252644A JP2012252644A (en) 2012-12-20
JP2012252644A5 JP2012252644A5 (en) 2014-07-24
JP5914995B2 true JP5914995B2 (en) 2016-05-11

Family

ID=47525369

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011126502A Active JP5914995B2 (en) 2011-06-06 2011-06-06 Biological identification device and biological identification method

Country Status (1)

Country Link
JP (1) JP5914995B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI792017B (en) * 2020-07-01 2023-02-11 義隆電子股份有限公司 Biometric identification system and identification method thereof

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498370A (en) * 1990-08-09 1992-03-31 Sharp Corp Fingerprint identification device
JPH07220075A (en) * 1994-02-07 1995-08-18 Sharp Corp Fingerprint recognizing device
JP2002222424A (en) * 2001-01-29 2002-08-09 Nec Corp Fingerprint matching system
EP1708135B1 (en) * 2004-01-13 2011-05-11 Fujitsu Ltd. Authenticator using organism information
JP4684013B2 (en) * 2005-06-06 2011-05-18 株式会社日立製作所 Identification system
JP4956131B2 (en) * 2006-10-06 2012-06-20 シャープ株式会社 Biometric authentication device and method, and biometric authentication processing program
US20080298643A1 (en) * 2007-05-30 2008-12-04 Lawther Joel S Composite person model from image collection
US20110057346A1 (en) * 2009-09-09 2011-03-10 Nunn Kayren J Art of using regenerated fibers in multi process non-wovens

Also Published As

Publication number Publication date
JP2012252644A (en) 2012-12-20

Similar Documents

Publication Publication Date Title
US20220165087A1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US8265347B2 (en) Method and system for personal identification using 3D palmprint imaging
US20070217660A1 (en) Biometric authentication method and biometric authentication apparatus
JP2012256272A (en) Biological body identifying device and biological body identifying method
US8355543B2 (en) Method and system for identifying a person based on their tongue
JP2002083298A (en) Personal identification device and method
Jain et al. Fingerprint image analysis: role of orientation patch and ridge structure dictionaries
JP6908843B2 (en) Image processing equipment, image processing method, and image processing program
JP2008198083A (en) Individual identification device
JP2011221699A (en) Operation instruction recognition device and robot
JP2012248047A (en) Biological identification device and biological identification method
JP2004178606A (en) Personal identification device and method
JP5914995B2 (en) Biological identification device and biological identification method
WO2009008550A1 (en) Registering apparatus, collaiting apparatus, data structure, and storage medium
JP5134655B2 (en) Personal authentication system, personal authentication device, and blood vessel image capturing device
JP5729029B2 (en) Identification device and identification method
JP2007179267A (en) Pattern matching device
WO2023242899A1 (en) Similarity degree calculation method, similarity degree calculation program, and similarity degree calculation device
JP2012221110A (en) Living body identification device and living body identification method
JP2008299678A (en) Personal identification apparatus and personal identification program for use in the same
Dere et al. Biometric Accreditation Adoption using Iris and Fingerprint: A Review
JP2008186125A (en) Authentication method, and authentication device and program
JP2010165132A (en) Personal identification device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160321

R150 Certificate of patent or registration of utility model

Ref document number: 5914995

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150