JP2011253378A - Authentication device and authentication method - Google Patents

Authentication device and authentication method Download PDF

Info

Publication number
JP2011253378A
JP2011253378A JP2010127154A JP2010127154A JP2011253378A JP 2011253378 A JP2011253378 A JP 2011253378A JP 2010127154 A JP2010127154 A JP 2010127154A JP 2010127154 A JP2010127154 A JP 2010127154A JP 2011253378 A JP2011253378 A JP 2011253378A
Authority
JP
Japan
Prior art keywords
area
fingerprint
information
identification information
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010127154A
Other languages
Japanese (ja)
Inventor
Naohisa Komatsu
尚久 小松
Tetsufumi Oki
哲史 大木
Kohei Shukuzawa
晃平 宿沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2010127154A priority Critical patent/JP2011253378A/en
Publication of JP2011253378A publication Critical patent/JP2011253378A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To propose an authentication device and an authentication method capable of preventing that fingerprint information on each individual is specified from registered information.SOLUTION: A fingerprint image 20 is sectioned into a plurality of areas ER, and a plurality of pieces of fingerprint identification information by area are generated, which shows angles to be formed by a ridge 21 with feature parts of fingerprints in the fingerprint image 20 and a reference line y for every area ER, respectively. A common template 30 at an angle level where an endpoint angle θ1 and a branching point angle θ2 of the pieces of fingerprint identification information by area are included is selected for every piece of fingerprint identification information by area from among a plurality of common templates represented for every area ER by unit of a predetermined angle range, and a registered ID pattern X by converting each piece of fingerprint identification information by area into corresponding common templates 30 is generated. Thus, collation processing is performed while altering the fingerprint identification information by area which shows features of the fingerprints of the user, it also becomes difficult to presume the fingerprint identification information by area from the registered ID pattern X, and specification of the fingerprint information on each individual is prevented.

Description

本発明は、認証装置及び認証方法に関し、例えば指紋画像を用いて正規のユーザであるか否かの個人認証を行う認証装置に適用して好適なものである。   The present invention relates to an authentication device and an authentication method, and is suitable for application to an authentication device that performs personal authentication of whether or not the user is a legitimate user using a fingerprint image, for example.

近年、指紋や虹彩、血管パターン等のような個人の持つ生体情報を認証情報として用いることにより、従来のパスワードによる個人認証に比して安全性を格段に向上させたバイオメトリック認証が知られている。   In recent years, biometric authentication has been known that uses personal biometric information such as fingerprints, irises, blood vessel patterns, etc. as authentication information, which significantly improves security compared to conventional personal authentication using passwords. Yes.

このようなバイオメトリック認証においては、例えば指紋を用いる場合、予めユーザの指紋から特徴量を抽出し、これを登録情報としてデータベースに登録しておく。そして、個人認証を行う際は、認証を行おうとするユーザの指紋から特徴を抽出して認証情報を生成し、当該認証情報と、登録されている登録情報とを照合し、両者の類似性が予め設定した条件を満足した場合、このユーザが登録された正当なユーザであると認証される(例えば、特許文献1参照)。   In such biometric authentication, for example, when using a fingerprint, a feature amount is extracted from the user's fingerprint in advance and registered as registration information in a database. When performing personal authentication, the authentication information is generated by extracting features from the fingerprint of the user who is going to authenticate, the authentication information is compared with the registered information, and the similarity between the two is verified. If a preset condition is satisfied, the user is authenticated as a registered valid user (see, for example, Patent Document 1).

特開平10―91769号公報JP-A-10-91769

しかしながら、このようなバイオメトリック認証では、個人の持つ固有の指紋情報を抽出し、これを登録情報としてデータベースに登録しているため、このような登録情報が仮に漏洩した場合、登録情報から個人の固有かつ生涯不変な指紋情報が特定されてしまう虞があるという問題があった。   However, in such biometric authentication, since the fingerprint information unique to the individual is extracted and registered in the database as registration information, if such registration information is leaked, the personal information is registered from the registration information. There is a problem that fingerprint information that is unique and invariant throughout life may be identified.

そこで、本発明は以上の点を考慮してなされたもので、登録情報から各個人の指紋情報が特定されることを防止し得る認証装置及び認証方法を提案することを目的とする。   Therefore, the present invention has been made in view of the above points, and an object thereof is to propose an authentication apparatus and an authentication method that can prevent each individual's fingerprint information from being specified from registration information.

かかる課題を解決するため本発明の請求項1は、指紋画像を複数のエリアに区分けし、前記指紋画像中の指紋の特徴部分と基準線とがなす角度を前記エリア毎にそれぞれ示した複数のエリア別指紋識別情報を生成する生成手段と、前記指紋の特徴部分と前記基準線とがなす想定される全ての角度を、所定の角度範囲単位で前記エリア毎に表した複数の共通テンプレートが記憶された記憶手段と、前記複数の共通テンプレートの中から、前記エリア別指紋識別情報の前記角度が含まれる前記角度範囲の共通テンプレートを、前記エリア別指紋識別情報毎に選択し、各前記エリア別指紋識別情報をそれぞれ対応する前記共通テンプレートに変換したパターン情報を生成する変換手段とを備えることを特徴とするものである。   In order to solve this problem, claim 1 of the present invention divides a fingerprint image into a plurality of areas, and a plurality of angles each showing an angle formed by a feature portion of the fingerprint in the fingerprint image and a reference line. A generating unit that generates fingerprint identification information for each area, and a plurality of common templates that represent all the angles assumed by the feature portion of the fingerprint and the reference line for each area in a predetermined angle range unit are stored. A common template of the angle range including the angle of the fingerprint identification information for each area is selected for each of the fingerprint identification information for each area from among the plurality of common templates. Conversion means for generating pattern information obtained by converting fingerprint identification information into the corresponding common template.

また、本発明の請求項2は、前記変換手段は、前記エリア別指紋識別情報を前記共通テンプレートに変換した後、前記エリア毎に該共通テンプレートの角度範囲の平均値を算出し、該平均値で表された前記パターン情報を生成することを特徴とするものである。   In addition, according to a second aspect of the present invention, the converting means calculates the average value of the angle range of the common template for each area after converting the fingerprint identification information for each area into the common template, and calculates the average value. The pattern information represented by the above is generated.

また、本発明の請求項3は、前記変換手段は、前記平均値に応じて予め対応付けられた出力ビット列を読み出し、該出力ビット列で表された前記パターン情報を生成することを特徴とするものである。   According to a third aspect of the present invention, the conversion unit reads an output bit string associated in advance according to the average value, and generates the pattern information represented by the output bit string. It is.

また、本発明の請求項4は、前記パターン情報を登録情報として記憶手段に記憶する際に、該パターン情報に誤り訂正符号化処理を施すことを特徴とするものである。   According to a fourth aspect of the present invention, when the pattern information is stored in the storage means as registration information, an error correction coding process is performed on the pattern information.

また、本発明の請求項5は、指紋画像を複数のエリアに区分けし、前記指紋画像中の指紋の特徴部分と基準線とがなす角度を前記エリア毎にそれぞれ示した複数のエリア別指紋識別情報を、生成手段によって生成する生成ステップと、前記指紋の特徴部分と前記基準線とがなす想定される全ての角度を、所定の角度範囲単位で前記エリア毎に表した複数の共通テンプレートの中から、前記エリア別指紋識別情報の前記角度が含まれる前記角度範囲の共通テンプレートを、変換手段によって、前記エリア別指紋識別情報毎に選択し、各前記エリア別指紋識別情報をそれぞれ対応する前記共通テンプレートに変換したパターン情報を生成する変換ステップとを備えることを特徴とするものである。   According to a fifth aspect of the present invention, a fingerprint image is divided into a plurality of areas, and a plurality of fingerprint identifications for each area each indicating an angle formed by a feature portion of the fingerprint in the fingerprint image and a reference line. A generation step of generating information by a generation unit, and a plurality of common templates in which all the angles assumed by the feature portion of the fingerprint and the reference line are expressed for each area in a predetermined angle range unit. From the above, the common template of the angle range including the angle of the fingerprint identification information by area is selected for each fingerprint identification information by area by the conversion means, and the common fingerprint identification information corresponding to each area is respectively corresponding to the common fingerprint identification information by area. And a conversion step for generating pattern information converted into a template.

本発明の請求項1及び請求項5によれば、指紋の特徴を示した指紋情報を改変させていることから、パターン情報からエリア別指紋識別情報が推測されることも困難となり、各個人の指紋情報が特定されることを防止し得る。   According to the first and fifth aspects of the present invention, since the fingerprint information indicating the characteristics of the fingerprint is altered, it is difficult to estimate the fingerprint identification information for each area from the pattern information. It is possible to prevent the fingerprint information from being specified.

本発明の認証方法の概略的な説明に供する概略図である。It is the schematic where it uses for the rough description of the authentication method of this invention. 本発明の認証システムの構成を示す概略図である。It is the schematic which shows the structure of the authentication system of this invention. 配置されたエリアの構成について示す概略図である。It is the schematic shown about the structure of the arrange | positioned area. 指紋画像の端点及び分岐点と、端点方向及び分岐点方向と、端点角度及び分岐点角度の説明に供する概略図である。It is the schematic where it uses for description of the end point and branch point of a fingerprint image, an end point direction and a branch point direction, an end point angle, and a branch point angle. 照合閾値の説明に供する概略図である。It is the schematic where it uses for description of a collation threshold value. 共通テンプレート情報の構成を示す概略図である。It is the schematic which shows the structure of common template information. テンプレート角度レベル情報の説明に供する概略図である。It is the schematic where it uses for description of template angle level information. 領域決定テーブルの説明に供する概略図である。It is the schematic where it uses for description of an area | region determination table. 出力ビット変換テーブルの構成を示す概略図である。It is the schematic which shows the structure of an output bit conversion table. 指紋画像を受け取ってから登録IDパターンを生成するまでの一連の処理過程を示す概略図である。It is the schematic which shows a series of process steps after receiving a fingerprint image until it produces | generates a registration ID pattern. 秘密情報復元の条件である評価式の説明に供する概略図である。It is the schematic where it uses for description of the evaluation type | formula which is the conditions of confidential information restoration. 評価実験の実験諸元を纏めた表である。It is the table | surface which summarized the experiment specifications of the evaluation experiment. 秘密情報要素数と、復元率との関係を示したグラフである。It is the graph which showed the relationship between the number of secret information elements, and a restoration rate. 誤合致率(FMR)と非誤合致率(FNMR)との関係を示したグラフである。5 is a graph showing a relationship between a false match rate (FMR) and a non-false match rate (FNMR).

以下図面に基づいて本発明の実施の形態を詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(1)本発明の概略
図1は本発明の認証方法の概略を示しており、登録処理と照合処理とに分かれている。この認証方法では、例えばユーザの指紋の特徴を表した指紋情報を用いており、照合処理の際にユーザの指紋情報を取得し、当該指紋情報から生成された情報を基に、登録されている正規のユーザであるか否かの認証がされ得る。
(1) Outline of the Present Invention FIG. 1 shows an outline of an authentication method according to the present invention, which is divided into a registration process and a verification process. In this authentication method, for example, fingerprint information representing the characteristics of the user's fingerprint is used, and the fingerprint information of the user is acquired at the time of collation processing, and is registered based on the information generated from the fingerprint information. It can be authenticated whether or not the user is a legitimate user.

ここで、指紋情報とは、ユーザの指を撮像して所定の画像処理により得られた指紋画像を所定数のエリアに区分けし、各エリア毎に指紋の端点及び分岐点(マニューシャ)の有無を判定して、エリア毎にこれら端点及び分岐点やその角度(後述する)を所定ビット数(「0」、「1」の2進法)で表したエリア別指紋識別情報(後述する)の集まりである。実際上、この認証方法では、本発明の特徴である共通テンプレート情報が予め生成され、記憶手段としての共通テンプレート記憶部1に記憶されている。   Here, the fingerprint information is obtained by imaging a user's finger and dividing a fingerprint image obtained by predetermined image processing into a predetermined number of areas, and determining whether there are fingerprint end points and branch points (maneuvers) for each area. Judgment and collection of fingerprint identification information (described later) for each area in which these end points, branch points, and angles thereof (described later) are represented by a predetermined number of bits (binary system of “0” and “1”). It is. In practice, in this authentication method, common template information, which is a feature of the present invention, is generated in advance and stored in the common template storage unit 1 as storage means.

登録処理では、ユーザの指紋を示す指紋画像を取得すると、共通テンプレート情報を用いたIDパターン生成処理(後述する)により、ユーザの指紋画像から登録IDパターンXが生成される。そして、この認証方法では、所定の誤り訂正符号化方式を用いて、2進法で表した所定ビット数からなる秘密情報Sに対し、誤り訂正符号化処理を施すことにより、登録IDパターンXと符号長を等しくした検査符号Cが生成され得る。   In the registration process, when a fingerprint image indicating the user's fingerprint is acquired, a registration ID pattern X is generated from the user's fingerprint image by an ID pattern generation process (described later) using the common template information. In this authentication method, the registered ID pattern X is obtained by performing error correction encoding processing on the secret information S having a predetermined number of bits expressed in binary using a predetermined error correction encoding method. A check code C having the same code length can be generated.

ここで誤り訂正符号化方式については、一例として文献「A.Juels and M.Sudan,:“A fuzzy commitment scheme.”ACM CCS,1999.」に記載された誤り訂正符号化の適用手段を用いている。
なお、ここでは「A fuzzy commitment scheme」の詳細な説明は省略するが、「A fuzzy commitment scheme」では、登録データから補助情報を生成し、その補助情報を用いて、登録データと僅かに異なる照合データから登録データを誤り訂正符号により復号する方式である。すなわち、本発明は、共通テンプレート情報を利用したIDパターン生成処理にて登録IDパターンX及び照合IDパターンX´を生成する点に特徴を有し、照合処理時の僅かな誤差を修正するため、これら登録IDパターンX及び照合IDパターンX´に対して、「A fuzzy commitment scheme」における誤り訂正符号化の適用手段を用いたバイオメトリック暗号手法を提案するものである。
Here, as an example of the error correction coding scheme, the error correction coding application means described in the document “A. Juels and M. Sudan ,:“ A fuzzy commitment scheme. ”ACM CCS, 1999” is used. Yes.
Detailed explanation of “A fuzzy commitment scheme” is omitted here, but in “A fuzzy commitment scheme”, auxiliary information is generated from registered data, and the verification information is slightly different from registered data using the auxiliary information. In this method, registered data is decoded from data using an error correction code. That is, the present invention is characterized in that the registration ID pattern X and the verification ID pattern X ′ are generated in the ID pattern generation processing using the common template information, and in order to correct a slight error during the verification processing, A biometric encryption method using an error correction coding applying means in the “A fuzzy commitment scheme” is proposed for these registered ID pattern X and verification ID pattern X ′.

登録処理では、「A fuzzy commitment scheme」における誤り訂正符号化方式の適用手段に従って、例えばkビット(kは任意の整数を示す)の誤り訂正能力がある符号語により秘密情報Sを誤り訂正符号化することにより、登録IDパターンXと符号長を等しくした検査符号Cを生成し、所定の記憶部(図示せず)に記憶する。次いで、この登録処理では、登録IDパターンXと、この検査符号Cとの排他的論理和(以下、図中、排他的論理和は「○」の中に「+」を記載した記号で示す)を算出し(ステップSP1)、この算出結果をマスクデータMとして保管サーバ2に記憶しておく。このようにして登録処理では、指紋情報の内容を共通テンプレート情報に変換して、後述する各種処理を行うことで得られたマスクデータMを保管サーバ2に記憶するようになされており、ユーザ固有の指紋情報がそのまま保管サーバ2に記憶されることが防止されている。   In the registration process, according to the means for applying the error correction encoding scheme in the “A fuzzy commitment scheme”, the secret information S is error correction encoded by a code word having an error correction capability of, for example, k bits (k is an arbitrary integer). As a result, a check code C having the same code length as that of the registered ID pattern X is generated and stored in a predetermined storage unit (not shown). Next, in this registration process, the exclusive logical sum of the registration ID pattern X and the check code C (hereinafter, the exclusive logical sum is indicated by a symbol in which “+” is entered in “◯”). (Step SP1), and the calculation result is stored in the storage server 2 as mask data M. In this way, in the registration process, the contents of the fingerprint information are converted into common template information, and the mask data M obtained by performing various processes to be described later is stored in the storage server 2. Is prevented from being stored in the storage server 2 as it is.

照合処理では、認証対象者となるユーザの指紋を示す指紋画像を取得すると、登録処理時に登録IDパターンXの生成に用いた共通テンプレート情報を用い、IDパターン生成処理により当該指紋画像から照合IDパターンX´を生成する。この際、照合IDパターンX´と登録IDパターンXは、同一のユーザの指紋から生成されていれば、登録処理時及び照合処理時における指の位置ずれ等により生じる僅かな違いに留めることができる。   In the collation process, when a fingerprint image indicating a fingerprint of a user who is an authentication target is acquired, the common template information used to generate the registration ID pattern X during the registration process is used, and the collation ID pattern is obtained from the fingerprint image by the ID pattern generation process. X ′ is generated. At this time, if the collation ID pattern X ′ and the registration ID pattern X are generated from the same user's fingerprint, a slight difference caused by finger misalignment during the registration process and the collation process can be limited. .

そして、照合処理では、保管サーバ2からマスクデータMを読み出した後、当該マスクデータMと、照合IDパターンX´との排他的論理和を取って照合符号C´を算出する(ステップSP2)。この照合符号C´は、照合IDパターンX´と、登録IDパターンXと、検査符号Cとの排他的論理和であり、また、照合IDパターンX´及び登録IDパターンXでの誤り部分εと、検査符号Cとの排他的論理和でもある。また、この誤り部分εは、照合IDパターンX´と登録IDパターンXとのビットデータの違いを示すとともに、照合符号C´と検査符号Cとのビットデータの違いをも示すものである。この際、この誤り部分εが復元可能なほど小さい場合には秘密情報Sを復元することができる。   In the verification process, after the mask data M is read from the storage server 2, the exclusive OR of the mask data M and the verification ID pattern X ′ is calculated to calculate the verification code C ′ (step SP2). The verification code C ′ is an exclusive OR of the verification ID pattern X ′, the registered ID pattern X, and the check code C, and the error part ε in the verification ID pattern X ′ and the registered ID pattern X It is also an exclusive OR with the check code C. The error portion ε indicates a difference in bit data between the verification ID pattern X ′ and the registered ID pattern X, and also indicates a difference in bit data between the verification code C ′ and the check code C. At this time, if the error portion ε is small enough to be restored, the secret information S can be restored.

実際上、照合処理では、照合符号C´が算出されると、照合符号C´と検査符号Cとを比較して、この照合符号C´及び検査符号Cの違いを示した誤り部分εが、誤り訂正能力の閾値kビット以内であるとき、照合符号C´は検査符号Cであると推定し、当該検査符号Cに対して誤り訂正符号化処理と逆の誤り訂正復号化処理を施すことにより秘密情報Sを復元する。   In practice, in the collation process, when the collation code C ′ is calculated, the collation code C ′ and the check code C are compared, and an error part ε indicating the difference between the collation code C ′ and the check code C is When the error correction capability is within the threshold k bits, the verification code C ′ is estimated to be a check code C, and the check code C is subjected to an error correction decoding process that is the reverse of the error correction encoding process. The secret information S is restored.

ここで、本発明による認証方法では、登録IDパターンXが指紋情報そのものではなく、共通テンプレート情報を用いたIDパターン生成処理によって、ユーザの指紋情報が変更されており、登録IDパターンXと排他的論理和を取ったマスクデータMにも指紋情報そのものが含まれることがないことから、仮に検査符号Cが漏洩しても、このマスクデータMから指紋情報を推測することが困難となり、各個人の指紋情報が特定されることを防止し得る。   Here, in the authentication method according to the present invention, the registered ID pattern X is not the fingerprint information itself, but the user's fingerprint information is changed by the ID pattern generation processing using the common template information, and is exclusive from the registered ID pattern X. Since the fingerprint data itself is not included in the ORed mask data M, it is difficult to guess the fingerprint information from the mask data M even if the inspection code C is leaked. It is possible to prevent the fingerprint information from being specified.

(2)認証システムの構成
次に、上述した認証方法に関し、図1とは構成が異なる図2に示す認証システム5を用いて、詳細に説明する。この実施の形態の場合、認証システム5は、クライアント端末6とサーバ7とから構成されており、当該クライアント端末6とサーバ7との間でデータを送受信し得るようになされている。ここで本発明の特徴である共通テンプレート情報は、サーバ7に設けられた共通テンプレート記憶部8に予め記憶されており、クライアント端末6のIDパターン生成部10が共通テンプレート情報を共通テンプレート記憶部8から読み出し、当該共通テンプレート情報を用いたIDパターン生成処理により登録IDパターンX及び照合IDパターンX´を生成し得る。
(2) Configuration of Authentication System Next, the authentication method described above will be described in detail using the authentication system 5 shown in FIG. 2 having a configuration different from that in FIG. In the case of this embodiment, the authentication system 5 includes a client terminal 6 and a server 7, and can transmit and receive data between the client terminal 6 and the server 7. Here, the common template information which is a feature of the present invention is stored in advance in a common template storage unit 8 provided in the server 7, and the ID pattern generation unit 10 of the client terminal 6 converts the common template information into the common template storage unit 8. The registered ID pattern X and the verification ID pattern X ′ can be generated by the ID pattern generation process using the common template information.

(2−1)登録処理
ここでは、初めに登録処理について以下説明する。この場合、クライアント端末6は、指紋取得部11の指紋採取面にユーザの指が載置されると、当該指紋採取面において指紋の隆線を表した指紋画像を取得し得るようになされている。なお、指紋画像は、例えば指紋採取面の半導体表面に指を押し付けたときに生ずる指紋の山(隆線)と谷との電荷量の違いにより指紋画像を生成する静電方式や、指紋採取面に接触する山(体温)と谷(空気温度)との温度差を検知して指紋画像を生成する感熱方式、指の表面に流した微弱電流で生じた山(隆線)と谷との電界強度の差から生ずる分布パターンから指紋画像を生成する電界方式等その他種々の方式を用いてもよい。また、指紋取得部11では、撮像素子によってユーザの指紋を撮像した後、2値化等の所定の画像処理を施すことで指紋の隆線を明確にした指紋画像を取得するようにしてもよく、要は指紋の端点及び分岐点を明確に表した指紋画像が得られれば、その他種々の画像処理を用いるようにしてもよい。
(2-1) Registration Process Here, the registration process will be described first. In this case, when the user's finger is placed on the fingerprint collecting surface of the fingerprint obtaining unit 11, the client terminal 6 can obtain a fingerprint image representing a ridge of the fingerprint on the fingerprint collecting surface. . The fingerprint image can be generated by, for example, an electrostatic method for generating a fingerprint image based on a charge amount difference between a crest (ridge) and a trough of a fingerprint generated when a finger is pressed against a semiconductor surface of the fingerprint collecting surface, or a fingerprint collecting surface. A heat-sensitive method that generates a fingerprint image by detecting the temperature difference between a mountain (body temperature) and a valley (air temperature) in contact with an electric field, and an electric field between a mountain (ridge) and a valley generated by a weak current flowing on the surface of the finger Various other methods such as an electric field method for generating a fingerprint image from a distribution pattern resulting from a difference in intensity may be used. The fingerprint acquisition unit 11 may acquire a fingerprint image in which a ridge of the fingerprint is clarified by imaging a user's fingerprint with an image sensor and performing predetermined image processing such as binarization. In short, as long as a fingerprint image clearly showing the end points and branch points of the fingerprint is obtained, various other image processing may be used.

指紋取得部11は、指紋採取面に指が載置され、指紋を表す隆線からなる指紋画像を生成すると、これを指紋画像データBとしてIDパターン生成部10に送出する。生成手段及び変換手段としてのIDパターン生成部10は、IDパターン生成処理を開始して、受け取った指紋画像データBを基に生成される指紋画像を所定数のエリアに区分けし、指紋を構成する隆線の形状を解析したエリア別指紋識別情報を各エリア毎に生成し得る。ここでは、このIDパターン生成部10によって、例えば0〜84のエリア番号が順に付された85個のエリアに指紋画像を区分けし得る。   When the finger is placed on the fingerprint collecting surface and a fingerprint image composed of ridges representing the fingerprint is generated, the fingerprint acquisition unit 11 sends this as fingerprint image data B to the ID pattern generation unit 10. The ID pattern generation unit 10 serving as a generation unit and a conversion unit starts an ID pattern generation process, divides a fingerprint image generated based on the received fingerprint image data B into a predetermined number of areas, and forms a fingerprint. The fingerprint identification information for each area that analyzes the shape of the ridge can be generated for each area. Here, the ID pattern generation unit 10 can divide the fingerprint image into 85 areas, for example, with area numbers 0 to 84 in order.

図3に示すように、指紋画像を区分けする各エリアERは、円形状からなり、その領域の一部が互いに重なり合うように隙間なく配置され、指紋画像全てが必ず何れかのエリアER内に位置するように配列されている。また、これらエリアERから構成されるエリア区分け領域15には、中心部16に最小のエリアERが同心上に配置されるとともに、この中心部16のエリアERを取り囲むようにして複数のエリアERが配置されている。   As shown in FIG. 3, each area ER that divides the fingerprint image has a circular shape and is arranged without a gap so that a part of the area overlaps each other, and all the fingerprint images are always located in any one of the areas ER. Are arranged to be. In addition, in the area segmentation area 15 composed of these areas ER, the minimum area ER is concentrically arranged in the central portion 16, and a plurality of areas ER are provided so as to surround the area ER of the central portion 16. Has been placed.

ここで、中心部16のエリアERを取り囲むエリアERは、エリア区分け領域15の中心部16を中心に中心部から遠ざかるほど半径が次第に大きくなるよう選定された複数の円形仮想線17に沿って配列されているとともに、当該円形仮想線17上に各エリアERの中心点18が重なるように配置されている。   Here, the area ER surrounding the area ER of the central portion 16 is arranged along a plurality of circular imaginary lines 17 selected so that the radius gradually increases as the distance from the central portion increases with the central portion 16 of the area division region 15 as the center. In addition, the center point 18 of each area ER is arranged on the circular virtual line 17 so as to overlap.

また、エリアERは、配置される円形仮想線17毎にその半径が選定されており、中心部16から離れた円形仮想線17になるほど、当該円形仮想線17上に配置されるエリアERの半径が次第に大きくなるように選定されている。すなわち、中心部16のエリアERに隣接するエリアERは半径が小さく、中心部16から最も離れた最外郭の円形仮想線17上に配置されたエリアERは半径が最も大きくなるように選定されている。   In addition, the radius of the area ER is selected for each circular imaginary line 17 to be arranged, and the radius of the area ER arranged on the circular imaginary line 17 becomes closer to the circular imaginary line 17 that is separated from the central portion 16. Is selected to gradually increase. That is, the area ER adjacent to the area ER of the center portion 16 has a small radius, and the area ER arranged on the outermost circular virtual line 17 farthest from the center portion 16 is selected to have the largest radius. Yes.

因みに、ここで指紋画像を区分けするエリアERの形状を仮に正方形状とした場合には、各エリアにおいてエリアの中心点から斜め方向側に角部分ができるため、エリアの中心点から隣接するエリアとの境界線までの距離が一定とならず、当該斜め方向(角方向)への位置ずれ許容が大きくなる。これに対してIDパターン生成部10では、指紋画像を区分けするエリアERの形状を円形状にしていることにより、エリアERの中心点18から隣接するエリアERとの境界線までの距離が一定となり、位置ずれに対する揺らぎの許容範囲の均一化が図られている。   By the way, if the shape of the area ER that divides the fingerprint image here is a square shape, a corner is formed on the diagonal side from the center point of the area in each area. The distance to the boundary line is not constant, and the displacement tolerance in the oblique direction (angular direction) is increased. On the other hand, in the ID pattern generation unit 10, the distance from the center point 18 of the area ER to the boundary line with the adjacent area ER is constant by making the shape of the area ER for dividing the fingerprint image circular. The tolerance of fluctuation with respect to the positional deviation is made uniform.

また、指紋は、一般的に指の中心部ほど端点や分岐点が密集し、指の外側にゆくほど端点や分岐点が少なくなる傾向にある。そこで、IDパターン生成部10は、指の中心部が配置され易い中心部16側のエリアERの半径を小さくして、中心部16に近いほどエリアERが密集するようにしたことにより、中心部16に近いエリアERと中心部16から遠いエリアERとにそれぞれ含まれる端点や分岐点の数を均一化し得るように図られている。   In addition, fingerprints generally have denser end points and branch points toward the center of the finger, and tend to have fewer end points and branch points toward the outside of the finger. Therefore, the ID pattern generation unit 10 reduces the radius of the area ER on the side of the central part 16 where the central part of the finger is easily arranged, and the area ER is denser as the distance from the central part 16 increases. The number of end points and branch points included in the area ER near 16 and the area ER far from the center 16 can be made uniform.

ここで、IDパターン生成部10は、指紋の隆線が表示された指紋画像を解析して、図4に示すように、指紋画像20中で隆線21が途切れている位置を端点22と判定し、一方、指紋画像20中で1本の隆線21が分岐して複数の隆線21に分かれている位置を分岐点23として判定し得るようになされている。IDパターン生成部10は、これら判定した端点22及び分岐点23を例えば2進法で表し、判定した端点22に対して「0」、分岐点23に対して「1」を対応付けるようになされている。   Here, the ID pattern generation unit 10 analyzes the fingerprint image in which the ridges of the fingerprint are displayed, and determines the position where the ridge 21 is interrupted in the fingerprint image 20 as the end point 22 as shown in FIG. On the other hand, a position where one ridge 21 is branched and divided into a plurality of ridges 21 in the fingerprint image 20 can be determined as a branch point 23. The ID pattern generation unit 10 represents the determined end point 22 and branch point 23 in, for example, a binary system, and associates “0” with the determined end point 22 and “1” with the branch point 23. Yes.

IDパターン生成部10は、ユーザの指紋から得た指紋画像20において、特定した所定の端点22又は分岐点23がどのエリアER内に位置しているか否かを判断する際、所定のエリアERの中心点18から端点22又は分岐点23までの距離だけを用いて判断するのではなく、エリアERの半径に対する相対的な距離を照合閾値として用いている。具体的に、判断対象とした端点22又は分岐点23が特定のエリアER内に含まれているか否かの判断は、図5に示すように、エリアERの中心点18から端点22又は分岐点23までの距離dと、エリアERの半径rとで表されるd/rが1以下となったとき、当該エリアER内にその端点22又は分岐点23が含まれていると判断する。このようにして、IDパターン生成部10は、各エリアERの半径rと、当該エリアERの中心点18から判断対象とする端点22又は分岐点23までの距離dとを用いたd/rを算出し、その結果が1以下であるか否かを基に、判定対象の端点22又は分岐点23がどのエリアER内に含まれるかについて判断してゆき、エリア番号0〜84を決定してゆく。   When the ID pattern generation unit 10 determines in which area ER the specified predetermined end point 22 or branch point 23 is located in the fingerprint image 20 obtained from the user's fingerprint, the ID pattern generation unit 10 Rather than using only the distance from the center point 18 to the end point 22 or the branch point 23, the relative distance with respect to the radius of the area ER is used as a matching threshold. Specifically, whether or not the end point 22 or the branch point 23 to be determined is included in the specific area ER is determined from the center point 18 of the area ER to the end point 22 or the branch point as shown in FIG. When d / r represented by the distance d to 23 and the radius r of the area ER is 1 or less, it is determined that the end point 22 or the branch point 23 is included in the area ER. In this way, the ID pattern generation unit 10 calculates d / r using the radius r of each area ER and the distance d from the center point 18 of the area ER to the end point 22 or the branch point 23 to be determined. Based on whether or not the result is 1 or less, it is determined in which area ER the end point 22 or the branch point 23 to be determined is included, and the area numbers 0 to 84 are determined. go.

次に、IDパターン生成部10は、図4に示すように、端点22及び分岐点23を中心に各隆線21がどの方向に向かって延びているかを示す角度θ1,θ2を算出し得るようになされている。この場合、IDパターン生成部10は、例えば指紋画像20中の端点22及び分岐点23を通り縦方向線を基準線yとし、端点22から直線的に延びる隆線21(特徴部分)の方向(以下、端点方向と呼ぶ)x1と、基準線yとがなす角度(以下、端点角度と呼ぶ)θ1や、分岐点23から直線的に延びる隆線21(特徴部分)の方向(以下、分岐点方向と呼ぶ)x2と、基準線yとがなす角度(以下、分岐点角度と呼ぶ)θ2を算出し得る。   Next, as shown in FIG. 4, the ID pattern generation unit 10 can calculate angles θ <b> 1 and θ <b> 2 indicating in which direction each ridge 21 extends around the end point 22 and the branch point 23. Has been made. In this case, the ID pattern generation unit 10 uses, for example, the direction of the ridge 21 (characteristic portion) extending linearly from the end point 22 with the vertical line passing through the end point 22 and the branch point 23 in the fingerprint image 20 as a reference line y. Hereinafter, the angle (hereinafter referred to as the end point angle) θ1 formed by x1 and the reference line y and the direction of the ridge 21 (characteristic portion) linearly extending from the branch point 23 (hereinafter referred to as the branch point). An angle (hereinafter referred to as a branching point angle) θ2 formed by x2 and a reference line y can be calculated.

このようにしてIDパターン生成部10は、端点22及び分岐点23があるエリアERをエリア番号0〜84で示すエリア情報と、端点22及び分岐点23を属性番号0,1で示す属性情報と、端点角度θ1及び分岐点角度θ2を示す角度情報とからなるエリア別指紋識別情報を、指紋画像20を区分けするエリアER毎にそれぞれ生成し得るようになされている。なお、上述した実施の形態においては、基準線として、指紋画像20中の端点22及び分岐点23を通り縦方向線を基準線yとした場合について述べたが、本発明はこれに限らず、指紋画像20中の端点22及び分岐点23を通り横方向線等その他種々の方向線を基準線yとしてもよい。   In this way, the ID pattern generation unit 10 includes area information indicating the area ER having the end points 22 and the branch points 23 by area numbers 0 to 84, and attribute information indicating the end points 22 and the branch points 23 by attribute numbers 0 and 1. The area-specific fingerprint identification information including the angle information indicating the end point angle θ1 and the branch point angle θ2 can be generated for each area ER that divides the fingerprint image 20. In the above-described embodiment, the case where the vertical line is set as the reference line y passing through the end point 22 and the branch point 23 in the fingerprint image 20 as the reference line is described, but the present invention is not limited thereto. Various other direction lines such as a horizontal line passing through the end point 22 and the branch point 23 in the fingerprint image 20 may be used as the reference line y.

かかる構成に加えて、図2に示したように、IDパターン生成部10は、サーバ7に設けられた共通テンプレート記憶部8から共通テンプレート情報を読み出し、当該共通テンプレート情報を基に、これら生成したエリア情報、属性情報及び角度情報からなる複数のエリア別指紋識別情報を、それぞれ対応する共通テンプレートに置き換えるようになされている。ここで、共通テンプレート情報は、図6に示すように、インデックス番号(この場合、5440個の共通テンプレート30が予め作成されていることから、0〜5439までの番号)に対して、指紋画像20を区分けする各エリアERの位置をエリア番号0〜84で表したテンプレートエリア情報31と、指紋画像20中にある隆線21の端点22及び分岐点23を属性番号0,1で表したテンプレート属性情報32と、指紋画像20中にある隆線21の端点角度θ1及び分岐点角度θ2の想定される全ての角度を、所定の角度範囲で大まかな角度レベルで表したテンプレート角度レベル情報33とが対応付けられている。   In addition to such a configuration, as shown in FIG. 2, the ID pattern generation unit 10 reads out the common template information from the common template storage unit 8 provided in the server 7, and generates these based on the common template information. A plurality of fingerprint identification information by area consisting of area information, attribute information, and angle information is replaced with a corresponding common template. Here, as shown in FIG. 6, the common template information includes the fingerprint image 20 for the index number (in this case, the number from 0 to 5439 since 5440 common templates 30 are created in advance). Template area information 31 that represents the position of each area ER that divides the area with the area numbers 0 to 84, and the template attribute that represents the end points 22 and the branch points 23 of the ridges 21 in the fingerprint image 20 with the attribute numbers 0 and 1 Information 32 and template angle level information 33 representing all possible angles of the end point angle θ1 and the branch point angle θ2 of the ridge line 21 in the fingerprint image 20 in a predetermined angle range as a rough angle level. It is associated.

ここで、テンプレートエリア情報31は、IDパターン生成部10によって指紋画像20を区分けしたエリア数に対応して0〜84のエリア番号が設けられている。また、テンプレート属性情報32は、端点22及び分岐点23を2進法で表したものであり、例えば端点22を「0」、分岐点23を「1」として表している。さらに、テンプレート角度レベル情報33は、図7に示すように、端点角度θ1及び分岐点角度θ2で想定される全角度360度を32の角度領域に均等角度で区分けし、360度を角度レベル0〜31レベル(すなわち、1レベルの角度範囲は11.25度)に分類したものである。   Here, the template area information 31 is provided with area numbers of 0 to 84 corresponding to the number of areas obtained by dividing the fingerprint image 20 by the ID pattern generation unit 10. The template attribute information 32 represents the end point 22 and the branch point 23 in a binary system. For example, the end point 22 is represented as “0” and the branch point 23 is represented as “1”. Further, as shown in FIG. 7, the template angle level information 33 divides all angles of 360 degrees assumed by the end point angle θ1 and the branch point angle θ2 into 32 angle areas by equal angles, and 360 degrees is set to the angle level 0. It is classified into ˜31 levels (that is, the angle range of 1 level is 11.25 degrees).

これら複数の共通テンプレート30からなる共通テンプレート情報では、エリア番号0〜84のテンプレートエリア情報31にそれぞれ端点22及び分岐点23の2種類のテンプレート属性情報32が対応付けられているとともに、これら2種類のテンプレート属性情報32に対し角度レベル0〜31レベルのテンプレート角度レベル情報33がそれぞれ対応付けられている。すなわち、この実施の形態の場合、共通テンプレート情報は、エリア数(85個)×属性数(端点及び分岐点の2種類)×角度レベル数(32レベル)の全5440個(インデックス番号0〜5439)の共通テンプレート30が予め作成されている。   In the common template information composed of the plurality of common templates 30, two types of template attribute information 32 of the end point 22 and the branch point 23 are associated with the template area information 31 of area numbers 0 to 84, respectively. Template angle level information 33 of angle levels 0 to 31 is associated with the template attribute information 32. In other words, in the case of this embodiment, the common template information includes a total of 5440 items (index numbers 0 to 5439): area number (85) × attribute number (two types of end points and branch points) × angle level number (32 levels). ) Common template 30 is created in advance.

ここで、IDパターン生成部10は、ユーザの指紋を示す指紋画像20から生成したエリア情報、属性情報、角度情報を基に、共通テンプレート情報のうちから対応するいずれかの共通テンプレート30を選択し、各エリア別指紋識別情報を共通テンプレート30にそれぞれ変換するようになされている。IDパターン生成部10は、例えばエリア番号「0」、属性番号「0」、端点角度「5度」からなる端点22のエリア別指紋識別情報が得られると、共通テンプレート情報の中からこのエリア別指紋識別情報のエリア番号「0」及び属性番号「0」に該当し、かつ端点角度「5度」が含まれる角度レベル「0レベル」を示す共通テンプレート(すなわち、インデックス番号「0」の共通テンプレート)30を選択して、当該エリア別指紋識別情報をこの共通テンプレート(テンプレートエリア情報31がエリア番号「0」、テンプレート属性情報32が属性番号「0」、テンプレート角度レベル情報33が角度レベル「0レベル」の共通テンプレート)30に変換する。   Here, the ID pattern generation unit 10 selects one of the corresponding common templates 30 from the common template information based on the area information, attribute information, and angle information generated from the fingerprint image 20 indicating the user's fingerprint. The fingerprint identification information for each area is converted into the common template 30. When the fingerprint identification information for each area of the end point 22 consisting of, for example, the area number “0”, the attribute number “0”, and the end point angle “5 degrees” is obtained, the ID pattern generation unit 10 selects the area-specific fingerprint information from the common template information. Common template indicating the angle level “0 level” corresponding to the area number “0” and the attribute number “0” of the fingerprint identification information and including the end point angle “5 degrees” (that is, the common template having the index number “0”) ) 30 is selected, and the fingerprint identification information for each area is designated as the common template (template area information 31 is area number “0”, template attribute information 32 is attribute number “0”, and template angle level information 33 is angle level “0”. Level ”common template) 30.

また、IDパターン生成部10は、その他として、例えばエリア番号「84」、属性番号「1」、分岐点角度「350度」からなる分岐点23のエリア別指紋識別情報が得られると、共通テンプレート情報の中からこのエリア別指紋識別情報のエリア番号「84」及び属性番号「1」に該当し、かつ分岐点角度「350度」が含まれる角度レベル「31レベル」を示す共通テンプレート(すなわち、インデックス番号「5439」の共通テンプレート)30を選択して、当該エリア別指紋識別情報をこの共通テンプレート(テンプレートエリア情報31がエリア番号「84」、テンプレート属性情報32が属性番号「1」、テンプレート角度レベル情報32が角度レベル「31レベル」の共通テンプレート)30に変換する。   In addition, when the ID pattern generation unit 10 obtains fingerprint identification information for each area of the branch point 23 including, for example, the area number “84”, the attribute number “1”, and the branch point angle “350 degrees”, the common template A common template (ie, an angle level “31 level” that corresponds to the area number “84” and the attribute number “1” of the fingerprint identification information for each area and includes the branch point angle “350 degrees” from among the information) The common template (index number “5439”) 30 is selected, and the fingerprint identification information for each area is designated as this common template (template area information 31 is area number “84”, template attribute information 32 is attribute number “1”, template angle Level information 32 is converted into a common template 30) with an angle level of “31 levels”.

このようにして、IDパターン生成部10は、得られたエリア別指紋識別情報全てを共通テンプレート30に変換してゆき、これらエリア別指紋識別情報と置き換わった複数の共通テンプレート(以下、これを登録時選択共通テンプレートと呼ぶ)群を変換情報として一時的に記憶し得るようになされている。次いで、IDパターン生成部10は、変換情報の中でテンプレートエリア情報のエリア番号が同じである登録時選択共通テンプレートを特定して、同じエリア番号にそれぞれ対応付けられたテンプレート角度レベル情報のレベル平均値(以下、角度平均と呼ぶ)を算出する。なお、同じエリア番号に端点22及び分岐点23の異なるテンプレート属性情報32がある場合には、これら端点22及び分岐点23の角度レベルをまとめて角度平均が算出され、テンプレート属性情報32の属性番号(端点22及び分岐点23の種類)を問わず、エリア番号毎に角度平均が算出され得る。   In this way, the ID pattern generation unit 10 converts all of the obtained fingerprint identification information for each area into a common template 30, and a plurality of common templates (hereinafter referred to as “registration”) replaced with the fingerprint identification information for each area. A group (referred to as a time selection common template) can be temporarily stored as conversion information. Next, the ID pattern generation unit 10 identifies the selection common template at the time of registration in which the area number of the template area information is the same in the conversion information, and the level average of the template angle level information respectively associated with the same area number A value (hereinafter referred to as angle average) is calculated. When there are different template attribute information 32 for the end point 22 and the branch point 23 in the same area number, the angle average is calculated by combining the angle levels of the end point 22 and the branch point 23, and the attribute number of the template attribute information 32 is obtained. Regardless of (type of end point 22 and branch point 23), the angle average can be calculated for each area number.

次いで、IDパターン生成部10は、図8に示すような領域決定テーブルT100を用いて角度平均を例えば4つの領域0〜3に分類し得るようになされている。この実施の形態の場合、領域決定テーブルT100は、角度平均が0レベル以上8レベル未満(0≦角度平均<8)を領域0とし、8レベル以上16レベル未満(8≦角度平均<16)を領域1とし、16レベル以上24レベル未満(16≦角度平均<24)を領域2とし、24レベル以上32レベル未満(24≦角度平均<32)を領域3としている。   Next, the ID pattern generation unit 10 can classify the angle average into, for example, four areas 0 to 3 using an area determination table T100 as shown in FIG. In the case of this embodiment, the region determination table T100 has an angle average of 0 level or more and less than 8 levels (0 ≦ angle average <8) as region 0, and 8 levels or more and less than 16 levels (8 ≦ angle average <16). Region 1 is set to 16 or more and less than 24 levels (16 ≦ angle average <24), and region 2 is set to 24 or more and less than 32 levels (24 ≦ angle average <32).

IDパターン生成部10は、各エリアER毎に算出した角度平均から領域決定テーブルT100を基に領域0〜3のいずれかを決定すると、図9に示すような出力ビット変換テーブルT101に基づいて各領域0〜3に対応付けられた出力ビット列を読み出し、当該領域0〜3を出力ビット列に変換する。   When the ID pattern generation unit 10 determines any one of the regions 0 to 3 based on the region determination table T100 from the angle average calculated for each area ER, each ID pattern generation unit 10 determines each of the regions based on the output bit conversion table T101 as illustrated in FIG. The output bit string associated with the areas 0 to 3 is read, and the areas 0 to 3 are converted into output bit strings.

実際上、この実施の形態の場合、出力ビット変換テーブルT101は、例えば領域0に出力ビット列「0000」、領域1に出力ビット列「0001」、領域2に出力ビット列「0010」、領域3に出力ビット列「0011」が対応付けられている。また、出力ビット変換テーブルT101は、該当する領域がない場合に対して、出力ビット列「1111」が対応付けられている。かくして、IDパターン生成部10は、領域0〜3が算出されたエリアERに対して出力ビット列「0000」、「0001」、「0010」、「0011」のうち対応するいずれかの出力ビット列を対応付けるとともに、端点22及び分岐点23が1つもなく領域0〜3が算出されていないエリアERに対して出力ビット列「1111」を対応付け、これら出力ビット列を0〜84のエリア番号順に組み合わせた登録IDパターンXを生成し、これをマスクデータ生成部40に送出して、IDパターン生成処理を終了する。   In practice, in this embodiment, the output bit conversion table T101 includes, for example, an output bit string “0000” in area 0, an output bit string “0001” in area 1, an output bit string “0010” in area 2, and an output bit string in area 3 “0011” is associated. In the output bit conversion table T101, the output bit string “1111” is associated with the case where there is no corresponding area. Thus, the ID pattern generation unit 10 associates one of the output bit strings corresponding to the output bit strings “0000”, “0001”, “0010”, and “0011” with the area ER in which the areas 0 to 3 are calculated. In addition, an output bit string “1111” is associated with an area ER in which there are no end points 22 and no branch points 23 and the areas 0 to 3 are not calculated, and the registration ID is a combination of these output bit strings in the order of area numbers 0 to 84. A pattern X is generated and sent to the mask data generation unit 40, and the ID pattern generation process is terminated.

次に、IDパターン生成部10において、上述した指紋画像20を受け取ってから登録IDパターンXを生成するまでの一連の処理過程を図10(A)〜(D)の概略図を用いてまとめる。ここで図10(A)は、説明の便宜上、エリアER間の境界線を明確にするためその形状を単なる正方形状で示し、指紋画像20の所定領域が複数のエリアERによって区分けされていることを示すものである。また、図10(A)中の「×」印は、端点22又は分岐点23の位置を示し、例えばエリアER1では端点22又は分岐点23が2箇所あり、エリアER2では端点22又は分岐点23が1つもないことを示している。   Next, a series of processing steps from receiving the above-described fingerprint image 20 to generating the registered ID pattern X in the ID pattern generation unit 10 will be summarized with reference to the schematic diagrams of FIGS. Here, for convenience of explanation, FIG. 10A shows that the shape of the fingerprint image 20 is divided by a plurality of areas ER, in order to clarify the boundary line between the areas ER. Is shown. 10A indicates the position of the end point 22 or the branch point 23. For example, the area ER1 has two end points 22 or 23, and the area ER2 has the end point 22 or the branch point 23. Indicates that there is none.

そして、これら端点22又は分岐点23は、テンプレートエリア情報31とテンプレート属性情報32とテンプレート角度レベル情報33とからなる共通テンプレート30に置き換えられ、各エリアER毎に共通テンプレート30の角度レベルの角度平均が算出され得る。IDパターン生成部10は、これら各エリアER毎に角度平均を算出すると、領域決定テーブルT100に基づいて角度平均を領域0〜3に変換し、図10(B)に示すように、角度平均が算出された各エリアERに領域0〜3を対応付ける。なお、図10(B)において、例えばエリアER2の斜め線は、エリアER2内に端点22又は分岐点23がなく、角度平均が算出されていないことから、対応する領域0〜3がないことを示している。   These end points 22 or branch points 23 are replaced with a common template 30 composed of template area information 31, template attribute information 32, and template angle level information 33, and the angle average of the angle levels of the common template 30 for each area ER. Can be calculated. When the angle average is calculated for each of these areas ER, the ID pattern generation unit 10 converts the angle average into regions 0 to 3 based on the region determination table T100, and the angle average is calculated as shown in FIG. The areas 0 to 3 are associated with the calculated areas ER. In FIG. 10B, for example, the diagonal line of area ER2 indicates that there is no corresponding region 0 to 3 because there is no end point 22 or branch point 23 in area ER2, and no angle average is calculated. Show.

次いで、IDパターン生成部10は、図10(C)に示すように、出力ビット変換テーブルT101を基に、領域0〜3を対応する出力ビット列に変換し、エリアER毎に出力ビット列を決定してゆく。ここで、例えば端点22又は分岐点23がなく、領域0〜3が対応付けられていないエリアERに対しては、出力ビット変換テーブルT101を基に、該当領域0〜3がない場合に対応付けられた出力ビット列「1111」を対応付けてゆく。このようにしてIDパターン生成部10は、エリアER全てに出力ビット列を対応付けてゆき、図10(D)に示すように、これら出力ビット列を0〜84のエリア番号順に組み合わせた登録IDパターンXを生成し、これをマスクデータ生成部40に送出する。   Next, as shown in FIG. 10C, the ID pattern generation unit 10 converts the areas 0 to 3 into corresponding output bit strings based on the output bit conversion table T101, and determines an output bit string for each area ER. Go. Here, for example, the area ER that does not have the end point 22 or the branch point 23 and is not associated with the areas 0 to 3 is associated with the corresponding area 0 to 3 based on the output bit conversion table T101. The output bit string “1111” is associated. In this way, the ID pattern generation unit 10 associates the output bit strings with all the areas ER, and as shown in FIG. 10D, the registered ID pattern X in which these output bit strings are combined in the order of area numbers 0 to 84. Is transmitted to the mask data generation unit 40.

一方、図2に示すように、誤り訂正符号化部41は、秘密情報となる秘密鍵Skを受け取ると、「A fuzzy commitment scheme」における誤り訂正符号化方式の適用手段に従って、例えばkビット(kは任意の整数を示す)の誤り訂正能力がある符号語により秘密鍵Skを誤り訂正符号化し、登録IDパターンXと符号長を等しくした検査符号Cを生成する。誤り訂正符号化部41は、この検査符号Cをマスクデータ生成部40に送出し、図示しない記憶部に記憶させる。 On the other hand, as shown in FIG. 2, the error correction encoding unit 41 receives the secret key S k as the secret information according to application means of the error correction coding scheme in "A fuzzy commitment scheme", e.g., k bits ( The secret key Sk is error-correction-encoded with a codeword having an error correction capability (k represents an arbitrary integer), and a check code C having the same code length as the registered ID pattern X is generated. The error correction coding unit 41 sends this check code C to the mask data generation unit 40 and stores it in a storage unit (not shown).

マスクデータ生成部40は、登録IDパターンXと検査符号Cとの排他的論理和を算出することによりマスクデータMを生成し、IC(integrated circuit)カード等の記憶媒体42に当該マスクデータMを記憶させる。ここで登録IDパターンXは、ユーザの指紋から直接生成されたものではなく、指紋画像20のエリアER毎に得たエリア別指紋識別情報を共通テンプレート30に置き換え、さらに共通テンプレート30から得られたエリアER毎の角度平均を基に出力ビット列に変換されたランダムビットから構成されていることから、この登録IDパターンXと排他的論理和を取ったマスクデータMもランダムビットとなる。これにより認証システム5では、マスクデータMからユーザの指紋情報(エリア別指紋識別情報の集まり)を推測することが困難となり、各個人の指紋情報が特定されることを防止し得る。   The mask data generation unit 40 generates mask data M by calculating an exclusive OR of the registered ID pattern X and the check code C, and stores the mask data M in a storage medium 42 such as an IC (integrated circuit) card. Remember. Here, the registered ID pattern X is not generated directly from the user's fingerprint, but the fingerprint identification information obtained for each area ER of the fingerprint image 20 is replaced with the common template 30, and further obtained from the common template 30. Since it is composed of random bits converted into an output bit string based on the average angle for each area ER, the mask data M obtained by performing an exclusive OR with the registered ID pattern X also becomes random bits. As a result, it is difficult for the authentication system 5 to guess the user's fingerprint information (collection of fingerprint identification information for each area) from the mask data M, and it is possible to prevent the fingerprint information of each individual from being specified.

(2−2)照合処理
次に記憶媒体42に記憶されたマスクデータMを用いて、認証対象となるユーザが登録された正規のユーザであるか否かの認証を行う照合処理について以下説明する。この場合、クライアント端末6は、登録処理時と同様に、指紋取得部11の指紋採取面にユーザの指が載置されると、指紋の隆線を表した指紋画像20を取得し、これを指紋画像データB´としてIDパターン生成部10に送出する。IDパターン生成部10は、登録処理時と同様に、指紋画像20内にある端点22及び分岐点23毎に、当該端点22又は分岐点23があるエリアERをエリア番号で示すエリア情報と、端点22又は分岐点23を属性番号で示す属性情報と、端点角度θ1又は分岐点角度θ2を示す角度情報をそれぞれ特定し得るようになされている。
(2-2) Collation Processing Next, collation processing for authenticating whether or not the user to be authenticated is a registered regular user using the mask data M stored in the storage medium 42 will be described below. . In this case, as in the registration process, when the user's finger is placed on the fingerprint collection surface of the fingerprint acquisition unit 11, the client terminal 6 acquires the fingerprint image 20 representing the ridges of the fingerprint. It is sent to the ID pattern generator 10 as fingerprint image data B ′. As in the registration process, the ID pattern generation unit 10 includes, for each end point 22 and branch point 23 in the fingerprint image 20, area information indicating the area ER where the end point 22 or the branch point 23 is located by area number, and the end point The attribute information indicating 22 or the branch point 23 by an attribute number and the angle information indicating the end point angle θ1 or the branch point angle θ2 can be specified.

すなわち、IDパターン生成部10は、登録処理時と同様に、図3に示したような円形状からなる複数のエリア(0〜84のエリア番号が順に付された85個のエリア)ERによって指紋画像20を区分けし、指紋を構成する隆線21の形状を各エリアER毎に解析し得る。この場合、IDパターン生成部10は、指紋の隆線21が表示された指紋画像20を解析して、図4に示したように、指紋画像20中で隆線21が途切れている位置を端点22と判定し、一方、指紋画像20中で1本の隆線21が分岐して複数の隆線21に分かれている位置を分岐点23として判定して、これら判定した端点22及び分岐点23を例えば2進法で表し、判定した端点22に対して「0」、分岐点23に対して「1」を対応付けるようになされている。   That is, the ID pattern generation unit 10 prints fingerprints by using a plurality of circular areas (85 areas sequentially assigned with area numbers 0 to 84) ER as shown in FIG. The image 20 can be segmented, and the shape of the ridges 21 constituting the fingerprint can be analyzed for each area ER. In this case, the ID pattern generation unit 10 analyzes the fingerprint image 20 on which the fingerprint ridges 21 are displayed, and, as shown in FIG. On the other hand, the position where one ridge line 21 is branched into a plurality of ridge lines 21 in the fingerprint image 20 is determined as a branch point 23, and the determined end point 22 and branch point 23 are determined. Is expressed in binary, for example, so that “0” is associated with the determined end point 22 and “1” is associated with the branch point 23.

また、IDパターン生成部10は、照合閾値であるd/r=1(dは、エリアERの中心点18から端点22又は分岐点23までの距離、rはエリアERの半径を示す)以下であるか否かを基に(図5)、端点22及び分岐点23が含まれるエリアERを特定して、判断対象の端点22及び分岐点23がどのエリアER内に含まれるかについて判断し、端点22及び分岐点23の含まれるエリア番号を決定してゆく。IDパターン生成部10は、図4に示したように、指紋画像20中の端点22及び分岐点23を通り縦方向線を基準線yとし、端点角度θ1及び分岐点角度θ2を算出し得る。このようにしてIDパターン生成部10は、照合処理時、登録処理時と同様に、端点22又は分岐点23があるエリアERをエリア番号0〜84で示すエリア情報と、端点22又は分岐点23を属性番0又は1号で示す属性情報と、端点角度θ1及び分岐点角度θ2を示す角度情報とからなるエリア別指紋識別情報を、指紋画像20を区分けするエリアER毎にそれぞれ生成し得るようになされている。   Further, the ID pattern generation unit 10 has a collation threshold value d / r = 1 (d is a distance from the center point 18 of the area ER to the end point 22 or the branch point 23, and r is a radius of the area ER). Based on whether or not (FIG. 5), the area ER including the end point 22 and the branch point 23 is specified, and the end point 22 and the branch point 23 to be determined are determined in which area ER, The area numbers including the end points 22 and the branch points 23 are determined. As shown in FIG. 4, the ID pattern generation unit 10 can calculate the end point angle θ1 and the branch point angle θ2 with the vertical line passing through the end point 22 and the branch point 23 in the fingerprint image 20 as the reference line y. In this way, the ID pattern generation unit 10 performs the area information indicating the area ER where the end point 22 or the branch point 23 is located by the area numbers 0 to 84 and the end point 22 or the branch point 23 at the time of the matching process and the registration process. Can be generated for each area ER that divides the fingerprint image 20, each of which includes the attribute information indicating the attribute number 0 or 1 and the angle information indicating the end point angle θ1 and the branch point angle θ2. Has been made.

かかる構成に加えて、IDパターン生成部10は、登録処理時と同様に、サーバ7に設けられた共通テンプレート記憶部8から共通テンプレート情報を読み出し、ユーザの指紋を示す指紋画像20から生成したエリア情報、属性情報、角度情報を基に、共通テンプレート情報のうちから対応するいずれかの共通テンプレート30を選択し、各エリア別指紋識別情報を共通テンプレート30にそれぞれ変換するようになされている。   In addition to this configuration, the ID pattern generation unit 10 reads the common template information from the common template storage unit 8 provided in the server 7 as in the registration process, and generates an area generated from the fingerprint image 20 indicating the user's fingerprint. Based on the information, attribute information, and angle information, one of the corresponding common templates 30 is selected from the common template information, and the fingerprint identification information for each area is converted into the common template 30, respectively.

IDパターン生成部10は、例えばエリア番号「0」、属性番号「0」、端点角度「5度」からなる端点22のエリア別指紋識別情報が得られると、共通テンプレート情報の中からこのエリア別指紋識別情報のエリア番号「0」及び属性番号「0」に該当し、かつ端点角度「5度」が含まれる角度レベル「0レベル」を示す共通テンプレート(すなわち、インデックス番号「0」の共通テンプレート)30を選択して、当該エリア別指紋識別情報をこの共通テンプレート(テンプレートエリア情報31がエリア番号「0」、テンプレート属性情報32が属性番号「0」、テンプレート角度レベル情報33が角度レベル「0レベル」の共通テンプレート)30に変換する。   When the fingerprint identification information for each area of the end point 22 consisting of, for example, the area number “0”, the attribute number “0”, and the end point angle “5 degrees” is obtained, the ID pattern generation unit 10 selects the area-specific fingerprint information from the common template information. Common template indicating the angle level “0 level” corresponding to the area number “0” and the attribute number “0” of the fingerprint identification information and including the end point angle “5 degrees” (that is, the common template having the index number “0”) ) 30 is selected, and the fingerprint identification information for each area is designated as the common template (template area information 31 is area number “0”, template attribute information 32 is attribute number “0”, and template angle level information 33 is angle level “0”. Level ”common template) 30.

このようにして、IDパターン生成部10は、照合処理時に得られたエリア別指紋識別情報全てを、共通テンプレート30に変換してゆき、これらエリア別指紋識別情報と置き換わった複数の共通テンプレート(以下、これを照合時選択共通テンプレートと呼ぶ)群を変換情報として一時的に記憶し得るようになされている。次いで、IDパターン生成部10は、変換情報の中でテンプレートエリア情報31のエリア番号が同じである照合時選択共通テンプレートを特定して、同じエリア番号にそれぞれ対応付けられたテンプレート角度レベル情報33のレベル平均値(以下、角度平均と呼ぶ)を算出する。なお、ここでも同じエリア番号に端点22及び分岐点23の異なるテンプレート属性情報32がある場合には、これら端点22及び分岐点23の角度レベルをまとめて角度平均が算出され、テンプレート属性情報32の属性番号(端点22及び分岐点23の種類)を問わず、エリア番号毎に角度平均が算出され得る。   In this way, the ID pattern generation unit 10 converts all of the fingerprint identification information for each area obtained during the matching process into the common template 30 and replaces the fingerprint identification information for each area with a plurality of common templates (hereinafter referred to as “fingerprint identification information for each area”). This group is called a collation selection common template), and can be temporarily stored as conversion information. Next, the ID pattern generation unit 10 specifies the selection common template at the time of matching in which the area number of the template area information 31 is the same in the conversion information, and the template angle level information 33 respectively associated with the same area number. A level average value (hereinafter referred to as an angle average) is calculated. Here, if there is different template attribute information 32 of the end point 22 and the branch point 23 in the same area number, the angle average of the end point 22 and the branch point 23 is collectively calculated, and the template attribute information 32 Regardless of the attribute number (the type of the end point 22 and the branch point 23), the angle average can be calculated for each area number.

次いで、IDパターン生成部10は、図8に示すような領域決定テーブルT100に基づいて角度平均を例えば4つの領域0〜3に分類した後、図9に示すような出力ビット変換テーブルT101に基づいて各領域0〜3に対応付けられた出力ビット列を読み出し、当該領域0〜3を出力ビット列に変換する。かくして、IDパターン生成部10は、出力ビット変換テーブルT101を基に、各エリアER全てに出力ビット列を対応付けて、これら出力ビット列を0〜84のエリア番号順に組み合わせた照合IDパターンX´を生成し、これを照合部43に送出する(図2)。なお、登録処理時のユーザと照合処理時のユーザとが同一人物である場合、照合IDパターンX´と、登録処理時に生成された登録IDパターンXは、一般的に指紋採取面における指紋の位置ずれ等による情報の揺らぎにより、多少異なるものとなる。   Next, the ID pattern generation unit 10 classifies the angle averages into, for example, four areas 0 to 3 based on the area determination table T100 as shown in FIG. 8, and then based on the output bit conversion table T101 as shown in FIG. The output bit strings associated with the areas 0 to 3 are read out, and the areas 0 to 3 are converted into output bit strings. Thus, based on the output bit conversion table T101, the ID pattern generation unit 10 associates the output bit strings with all the areas ER, and generates a collation ID pattern X ′ in which these output bit strings are combined in the order of area numbers from 0 to 84. This is sent to the collation unit 43 (FIG. 2). When the user at the registration process and the user at the verification process are the same person, the verification ID pattern X ′ and the registration ID pattern X generated at the registration process generally indicate the fingerprint position on the fingerprint collection surface. Due to fluctuations in information due to deviation or the like, the information may be slightly different.

照合部43は、登録処理時に記憶媒体42に記憶されたマスクデータMを読み出し、当該マスクデータMと、照合IDパターンX´との排他的論理和を取り、照合符号C´を算出してこれを誤り訂正復号化部44に送出する。誤り訂正復号化部44は、所定の記憶部(図示せず)から検査符号Cを読み出し、照合符号C´と検査符号Cとを比較して、この照合符号C´及び検査符号Cの違いを示した誤り部分εが、誤り訂正能力の範囲内である閾値kビット以内であるか否かを判断し得るようになされている。その結果、誤り訂正復号化部44は、誤り部分εが、誤り訂正能力の範囲内である閾値kビット以内であると判断すると、照合符号C´は検査符号Cであると推定し、当該検査符号Cに対して誤り訂正符号化処理と逆の誤り訂正復号化処理を施すことにより秘密鍵Skを復元する。一方、誤り訂正復号化部44は、誤り部分εが、閾値kビット以上となり誤り訂正能力の範囲外であると判断すると、照合符号C´と検査符号Cとが異なるものであると推定し、認証対象のユーザが登録されている正規のユーザでないと判断し得るようになされている。 The collation unit 43 reads the mask data M stored in the storage medium 42 during the registration process, takes an exclusive OR of the mask data M and the collation ID pattern X ′, and calculates a collation code C ′. Is sent to the error correction decoding unit 44. The error correction decoding unit 44 reads the check code C from a predetermined storage unit (not shown), compares the check code C ′ with the check code C, and determines the difference between the check code C ′ and the check code C. It is possible to determine whether or not the indicated error part ε is within a threshold value k bits within the range of error correction capability. As a result, when the error correction decoding unit 44 determines that the error part ε is within the threshold k bits within the range of the error correction capability, the error correction decoding unit 44 estimates that the verification code C ′ is the check code C, and The secret key S k is restored by performing an error correction decoding process opposite to the error correction encoding process on the code C. On the other hand, when the error correction decoding unit 44 determines that the error portion ε is equal to or greater than the threshold k bits and is outside the range of the error correction capability, the error correction decoding unit 44 estimates that the verification code C ′ and the check code C are different, It can be determined that the user to be authenticated is not a registered regular user.

誤り訂正復号化部44は、秘密鍵Skを復元すると、これを暗号処理部45に送出する。暗号処理部45は、サーバ7の乱数生成部47から乱数をチャレンジコードとして受け取り、秘密鍵Skをチャレンジコードにより暗号化することによりレスポンスコードを生成し、このレスポンスコードをサーバ7に送出する。サーバ7は、判定部48によりレスポンスコードを受け取ると、公開鍵Pkによりレスポンスコードを復号化し、自身が発行してクライアント端末6に送ったチャレンジコードと、このレスポンスコードを復号化した情報とが一致するか否かを判断することにより、ユーザを認証する。 Error correction decoding unit 44, to restore the secret key S k, and outputs this to the encryption processing unit 45. The encryption processing unit 45 receives a random number as a challenge code from the random number generation unit 47 of the server 7, generates a response code by encrypting the secret key Sk with the challenge code, and sends this response code to the server 7. When the server 7 receives the response code from the determination unit 48, the server 7 decrypts the response code with the public key P k , and issues the challenge code sent by itself and sent to the client terminal 6, and information obtained by decrypting the response code. The user is authenticated by determining whether or not they match.

(3)動作及び効果
以上の構成において、クライアント端末6では、指紋画像20内の端点22又は分岐点23があるエリアERをエリア番号で示すエリア情報と、端点22又は分岐点23を属性番号で示す属性情報と、端点角度θ1又は分岐点角度θ2を示す角度情報とからなるエリア別指紋識別情報を、指紋画像20を区分けするエリアER毎に生成する。また、クライアント端末6では、指紋画像20を区分けするエリアERをエリア番号で示すテンプレートエリア情報31と、エリアER毎に端点22及び分岐点23を属性番号で示したテンプレート属性情報32と、端点角度θ1及び分岐点角度θ2の想定される全ての角度を、所定の角度範囲に分けて概略的な角度レベルで示したテンプレート角度レベル情報33とでなる複数の共通テンプレート30の中から、各エリア別指紋識別情報に対応する共通テンプレート30を選択して、各エリア別指紋識別情報を対応する共通テンプレート30に変換する。
(3) Operation and Effect In the above configuration, the client terminal 6 uses the area information indicating the area ER where the end point 22 or the branch point 23 is located in the fingerprint image 20 by the area number and the end point 22 or the branch point 23 as the attribute number. The area-specific fingerprint identification information including the attribute information indicating and the angle information indicating the end point angle θ1 or the branching point angle θ2 is generated for each area ER that divides the fingerprint image 20. Further, in the client terminal 6, the template area information 31 indicating the area ER for dividing the fingerprint image 20 by the area number, the template attribute information 32 indicating the end point 22 and the branch point 23 by the attribute number for each area ER, and the end point angle For each area, a plurality of common templates 30 including template angle level information 33 in which all assumed angles of θ1 and branching point angle θ2 are divided into predetermined angle ranges and indicated by rough angle levels. The common template 30 corresponding to the fingerprint identification information is selected, and the fingerprint identification information for each area is converted into the corresponding common template 30.

これにより、このクライアント端末6では、ユーザの指紋の特徴を示したエリア別指紋識別情報そのものを用いず、当該エリア別指紋識別情報に置き換えて共通テンプレート30を用い、IDパターン生成処理により登録IDパターンX又は照合IDパターンX´を生成することができ、かくして登録IDパターンX又は照合IDパターンX´からエリア別指紋識別情報の推測を困難にさせることができる。   As a result, the client terminal 6 does not use the fingerprint identification information for each area indicating the characteristics of the user's fingerprint, but uses the common template 30 instead of the fingerprint identification information for each area. X or the collation ID pattern X ′ can be generated, and thus it is difficult to guess the fingerprint identification information for each area from the registered ID pattern X or the collation ID pattern X ′.

また、クライアント端末6では、登録処理時、テンプレートエリア情報のエリア番号が同じである登録時選択共通テンプレートを特定してエリア番号毎に角度平均を算出し、領域決定テーブルT100に基づき4つの領域0〜3の中から角度平均に対応する領域0〜3を決定する。クライアント端末6では、領域0〜3が対応付けられた各エリアERと、端点22及び分岐点23がなく領域0〜3が対応付けられていない各エリアERとについて、出力ビット変換テーブルT101に基づきそれぞれ所定の出力ビット列を対応付け、これら出力ビット列を0〜84のエリア番号順に組み合わせた登録IDパターンXを生成する。   Further, at the time of registration processing, the client terminal 6 specifies a common template selected at the time of registration in which the area numbers of the template area information are the same, calculates an angle average for each area number, and calculates four areas 0 based on the area determination table T100. From 0 to 3, regions 0 to 3 corresponding to the angle average are determined. In the client terminal 6, each area ER associated with the areas 0 to 3 and each area ER without the end points 22 and the branch points 23 and not associated with the areas 0 to 3 are based on the output bit conversion table T101. A predetermined output bit string is associated with each other, and a registration ID pattern X is generated by combining these output bit strings in the order of area numbers from 0 to 84.

このようにクライアント端末6では、登録時選択共通テンプレートからエリアER毎に角度平均を算出してこれを出力ビット列に変換していることから、ユーザの指紋の特徴を示したエリア別指紋識別情報を一段と改変させ、登録IDパターンXからエリア別指紋識別情報の推測を更に一段と困難にさせ、各個人の指紋情報が特定されることを防止し得る。   As described above, since the client terminal 6 calculates the average angle for each area ER from the common template selected at the time of registration and converts it into an output bit string, the fingerprint identification information by area indicating the characteristics of the user's fingerprint is obtained. It can be further modified to make it more difficult to estimate the fingerprint identification information for each area from the registered ID pattern X, thereby preventing the fingerprint information of each individual from being specified.

また、クライアント端末6では、照合処理時でも、登録処理時と同様に、テンプレートエリア情報のエリア番号が同じである認証時選択共通テンプレートからエリアER毎に角度平均を算出し、領域決定テーブルT100から角度平均に対応する領域0〜3を決定した後、領域0〜3が対応付けられた各エリアERと、領域0〜3が対応付けられていない各エリアERについて、出力ビット変換テーブルT101に基づいてそれぞれ所定の出力ビット列を対応付け、これら出力ビット列を0〜84のエリア番号順に組み合わせた照合IDパターンX´を生成する。かくして、クライアント端末6では、照合処理時においても、ユーザの指紋の特徴を示したエリア別指紋識別情報を一段と改変させることができ、照合IDパターンX´からエリア別指紋識別情報の推測を更に一段と困難にさせ、各個人の指紋情報が特定されることを防止し得る。   In addition, the client terminal 6 calculates the angle average for each area ER from the authentication-selected common template in which the area number of the template area information is the same as in the registration process even during the matching process, and from the area determination table T100 After determining the areas 0 to 3 corresponding to the angle average, each area ER associated with the areas 0 to 3 and each area ER not associated with the areas 0 to 3 are based on the output bit conversion table T101. Then, a predetermined output bit string is associated with each other, and a collation ID pattern X ′ is generated by combining these output bit strings in the order of area numbers from 0 to 84. Thus, the client terminal 6 can further modify the area-specific fingerprint identification information indicating the characteristics of the user's fingerprint even during the collation process, and further estimate the area-specific fingerprint identification information from the collation ID pattern X ′. This makes it difficult to prevent the fingerprint information of each individual from being specified.

以上の構成によれば、指紋画像20を複数のエリアERに区分けし、指紋画像20中の指紋の特徴部分となる端点22及び分岐点23がある隆線21と、基準線yとがなす角度をエリアER毎にそれぞれ示した複数のエリア別指紋識別情報を生成する。また、指紋の特徴部分と基準線yとがなす想定される全ての角度を、所定の角度範囲単位でエリアER毎に表した複数の共通テンプレートの中から、エリア別指紋識別情報の端点角度θ1及び分岐点角度θ2が含まれる角度レベルの共通テンプレート30を、エリア別指紋識別情報毎に選択し、各エリア別指紋識別情報をそれぞれ対応する共通テンプレート30に変換した登録IDパターンX及び照合IDパターンX´を生成するようにした。これにより、認証システム5では、ユーザの指紋の特徴を示したエリア別指紋識別情報を改変させつつ照合処理を行うことができ、かつ登録IDパターンXや照合IDパターンX´からエリア別指紋識別情報が推測されることも困難となり、各個人の指紋情報が特定されることを防止し得る。   According to the above configuration, the fingerprint image 20 is divided into a plurality of areas ER, and the angle formed between the reference line y and the ridge line 21 having the end point 22 and the branch point 23 which are the characteristic portions of the fingerprint in the fingerprint image 20 Are generated for each area ER, and a plurality of area-specific fingerprint identification information is generated. In addition, the end point angle θ1 of the fingerprint identification information for each area is selected from a plurality of common templates in which all assumed angles formed by the fingerprint characteristic portion and the reference line y are represented for each area ER in a predetermined angle range unit. And a common template 30 having an angle level including the branch point angle θ2 is selected for each fingerprint identification information for each area, and the fingerprint identification information for each area is converted into the corresponding common template 30 and the matching ID pattern X and the verification ID pattern X ′ is generated. Thereby, in the authentication system 5, it is possible to perform collation processing while modifying the fingerprint identification information for each area showing the characteristics of the user's fingerprint, and the fingerprint identification information for each area from the registered ID pattern X or the collation ID pattern X ′. It is also difficult to guess, and it is possible to prevent the fingerprint information of each individual from being specified.

(4)他の実施の形態
なお、本発明は、本実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形実施が可能である。例えば、上述した実施の形態においては、認証装置として、クライアント端末6とサーバ7とが別体からなる認証システム5を適用した場合について述べたが、本発明はこれに限らず、クライアント端末6の構成とサーバ7の構成とが1つの筐体内に設けられた認証装置を適用してもよく、この他種々の構成を適用してもよい。
(4) Other Embodiments The present invention is not limited to the present embodiment, and various modifications can be made within the scope of the gist of the present invention. For example, in the above-described embodiment, the case where the authentication system 5 in which the client terminal 6 and the server 7 are separated from each other is applied as the authentication device. However, the present invention is not limited thereto, and the client terminal 6 An authentication apparatus in which the configuration and the configuration of the server 7 are provided in one housing may be applied, or various other configurations may be applied.

また、上述した実施の形態においては、登録時選択共通テンプレート及び照合時選択共通テンプレートの各エリアER毎に角度平均を算出し、領域決定テーブルT100及び出力ビット変換テーブルT101に基づいて登録IDパターンX及び照合IDパターンX´を生成した場合について述べたが、本発明はこれに限らず、登録時選択共通テンプレート及び照合時選択共通テンプレートをそのままビット列で表し、これを登録IDパターンX及び照合IDパターンX´としたり、また、登録時選択共通テンプレート及び照合時選択共通テンプレートの各エリアER毎に角度平均を算出したものを登録IDパターンX及び照合IDパターンX´としてもよい。   Further, in the above-described embodiment, the angle average is calculated for each area ER of the registration common template and the matching selection common template, and the registration ID pattern X is calculated based on the region determination table T100 and the output bit conversion table T101. However, the present invention is not limited to this, and the registration-time selection common template and the matching-time selection common template are represented as bit strings as they are, which are registered ID pattern X and matching ID pattern. Alternatively, X ′ may be used as the registration ID pattern X and the collation ID pattern X ′, which are obtained by calculating the average angle for each area ER of the registration common template and the collation selection common template.

さらに、上述した実施の形態においては、誤り訂正符号化処理として、「A fuzzy commitment scheme」における誤り訂正符号化方式の適用手段を用いた場合について述べたが、本発明はこれに限らず、他の誤り訂正符号化方式の適用手段を採用してもよい。また、検査符号C等の各種データに対して、ハフ変換処理を施すようにしてもよい。   Furthermore, in the above-described embodiment, the case where the application unit of the error correction encoding scheme in the “A fuzzy commitment scheme” is used as the error correction encoding process has been described, but the present invention is not limited to this, and other The means for applying the error correction coding method may be adopted. Further, Hough conversion processing may be performed on various data such as the check code C.

さらに、上述した実施の形態においては、4つの領域に角度平均を分類するようにした場合について述べたが、本発明はこれに限らず、3つや5つ、6つ等その他種々の数の領域に角度平均を分類するようにしてもよく、この場合、出力ビット変換テーブルT101でも各領域の数に応じて出力ビット列を対応付けるようにすればよい。   Furthermore, in the above-described embodiment, the case where the angle average is classified into four regions has been described. However, the present invention is not limited to this, and various other regions such as three, five, six, etc. In this case, the output bit string may be associated with the output bit conversion table T101 according to the number of areas.

(5)評価実験
(5−1)秘密情報復元の条件
先ず、本発明の認証方法を用いた評価実験を行った際における秘密情報復元の条件について説明する。図11に示すように、秘密情報S(秘密鍵Sk)の要素数をk、検査符号Cの要素数をgとし、照合処理時に各エリア情報から選び出された出力ビット列の中で、登録処理時と同じ出力ビット列の数をmt、異なる出力ビット列の数をmfとする。また、エリア情報に一致したマニューシャ(端点及び分岐点)がない場合の消失誤りの数をeとする。ここから検査符号Cの多項式における要素の誤りはmf+eとなる。よって、図11に示す一致・不一致の関係式(1)の関係が成り立つ。また、誤り訂正能力を示す条件式は、図11に示す誤り訂正条件式(2)となる。これら一致・不一致の関係式(1)と、誤り訂正条件式(2)とから消失誤りの数eを消去すると、評価式(3)となり、この評価式(3)を以後の秘密情報Sの復元率の評価実験に用いた。
(5) Evaluation Experiment (5-1) Conditions for Secret Information Restoration First, conditions for secret information restoration when an evaluation experiment using the authentication method of the present invention is performed will be described. As shown in FIG. 11, the number of elements of the secret information S (secret key S k ) is k, the number of elements of the check code C is g, and registered in the output bit string selected from each area information during the collation process. Let mt be the same number of output bit strings as in the process, and mf be the number of different output bit strings. Also, let e be the number of erasure errors when there is no minutiae (end point and branch point) that matches the area information. From here, the element error in the polynomial of the check code C is mf + e. Therefore, the relationship of the coincidence / mismatch relationship (1) shown in FIG. 11 is established. The conditional expression indicating the error correction capability is the error correction conditional expression (2) shown in FIG. When the number e of erasure errors is deleted from the coincidence / mismatch relational expression (1) and the error correction conditional expression (2), the evaluation expression (3) is obtained. It used for the evaluation experiment of the restoration rate.

(5−2)評価結果
秘密情報復元実験として、ユーザ本人と、他のユーザ各々に対し、ユーザ本人の秘密情報Sが正しく復元される確率(以下、復元率と呼ぶ)を確認した。また、分割数の比較として角度情報θを4分割(すなわち、領域が4つ)、8分割(すなわち、領域が8つ)にした際の復元率を確認した。使用した指紋とその他のシミュレーション諸元を、図12に示す。なお、照合閾値d/r(dは、エリアERの中心点18から端点22又は分岐点23までの距離、rはエリアERの半径を示す)は、角度情報θの分割数により異なるが、本実験では他人復元率が同程度となるような値を選択した。なお、図12において、特徴量抽出アルゴリズムのNFIS2とは、指紋画像の中から特徴点である端点と分岐点との抽出を行う公知のソフトウェアである。
(5-2) Evaluation Result As a secret information restoration experiment, the probability of correctly restoring the secret information S of the user himself / herself and each of other users (hereinafter referred to as a restoration rate) was confirmed. Further, as a comparison of the number of divisions, the restoration rate was confirmed when the angle information θ was divided into four (that is, four areas) and eight (that is, eight areas). FIG. 12 shows the used fingerprints and other simulation specifications. The collation threshold d / r (d is the distance from the center point 18 of the area ER to the end point 22 or the branch point 23, and r is the radius of the area ER) differs depending on the number of divisions of the angle information θ. In the experiment, a value was selected so that the restoration rate of others was comparable. In FIG. 12, NFIS2 of the feature quantity extraction algorithm is known software that extracts end points and branch points that are feature points from a fingerprint image.

図13は、角度情報θを4分割(4つの領域)及び8分割(8つの領域)にしたときの秘密情報要素数と、復元率との関係を示したものである。図13において、一例として、誤り訂正符号にGF(2^8)ガロア拡大体上のReed Solomon符号を用いた場合、k=7、すなわち秘密情報量56bitsのとき、4分割時には本人復元率90%以上、他人復元率5%以下が達成されている。なお、一般にGF(2m)ガロア拡大体上のk個のシンボルで構成される秘密情報の情報量はm×k bitsとなる。   FIG. 13 shows the relationship between the number of secret information elements and the restoration rate when the angle information θ is divided into four (four regions) and eight (eight regions). In FIG. 13, as an example, when the Reed Solomon code on the GF (2 ^ 8) Galois extension field is used as the error correction code, when k = 7, that is, when the secret information amount is 56 bits, the person restoration rate is 90% when dividing into four As described above, a restoration rate of 5% or less has been achieved. In general, the information amount of secret information composed of k symbols on the GF (2m) Galois extension field is m × k bits.

また、図14は、誤合致率(FMR)と非誤合致率(FNMR)との関係を検証した結果を示したものである(ROCカーブ)。図14から、8分割時には、ビットスケールを細分化することにより、指紋の回転による角度情報θの変化に弱くなり、4分割時と比較して本人復元率が低下していることがわかる。以上より、分割数を多くすることにより、必ずしも精度向上が見られるわけではなく、4分割で最も精度が良く、ユーザ本人と他のユーザとの識別が可能であることが分かった。   FIG. 14 shows the result of verifying the relationship between the false match rate (FMR) and the non-false match rate (FNMR) (ROC curve). From FIG. 14, it can be seen that, when the image is divided into eight, by subdividing the bit scale, it becomes weak against changes in the angle information θ due to the rotation of the fingerprint, and the identity restoration rate is reduced compared with the case of dividing into four. From the above, it has been found that increasing the number of divisions does not necessarily improve the accuracy, but the four divisions provide the best accuracy, and the user himself / herself can be distinguished from other users.

1,8 共通テンプレート記憶部
5 認証システム(認証装置)
6 クライアント端末
7 サーバ
10 パターンID生成部(生成手段、変換手段)
11 指紋取得部
40 マスクデータ生成部
1,8 Common template storage 5 Authentication system (authentication device)
6 Client terminal 7 Server
10 Pattern ID generator (generation means, conversion means)
11 Fingerprint acquisition unit
40 Mask data generator

Claims (5)

指紋画像を複数のエリアに区分けし、前記指紋画像中の指紋の特徴部分と基準線とがなす角度を前記エリア毎にそれぞれ示した複数のエリア別指紋識別情報を生成する生成手段と、
前記指紋の特徴部分と前記基準線とがなす想定される全ての角度を、所定の角度範囲単位で前記エリア毎に表した複数の共通テンプレートが記憶された記憶手段と、
前記複数の共通テンプレートの中から、前記エリア別指紋識別情報の前記角度が含まれる前記角度範囲の共通テンプレートを、前記エリア別指紋識別情報毎に選択し、各前記エリア別指紋識別情報をそれぞれ対応する前記共通テンプレートに変換したパターン情報を生成する変換手段と
を備えることを特徴とする認証装置。
Generating means for dividing a fingerprint image into a plurality of areas, and generating a plurality of fingerprint identification information for each area indicating an angle formed by a feature portion of the fingerprint in the fingerprint image and a reference line for each area;
Storage means for storing a plurality of common templates representing all the angles assumed by the characteristic part of the fingerprint and the reference line for each area in a predetermined angle range unit;
From the plurality of common templates, a common template of the angle range including the angle of the fingerprint identification information for each area is selected for each fingerprint identification information for each area, and each fingerprint identification information for each area corresponds to each. An authentication device comprising: conversion means for generating pattern information converted into the common template.
前記変換手段は、
前記エリア別指紋識別情報を前記共通テンプレートに変換した後、前記エリア毎に該共通テンプレートの角度範囲の平均値を算出し、該平均値で表された前記パターン情報を生成する
ことを特徴とする請求項1記載の認証装置。
The converting means includes
After converting the fingerprint identification information by area into the common template, the average value of the angular range of the common template is calculated for each area, and the pattern information represented by the average value is generated. The authentication device according to claim 1.
前記変換手段は、
前記平均値に応じて予め対応付けられた出力ビット列を読み出し、該出力ビット列で表された前記パターン情報を生成する
ことを特徴とする請求項2記載の認証装置。
The converting means includes
The authentication apparatus according to claim 2, wherein an output bit string associated in advance according to the average value is read, and the pattern information represented by the output bit string is generated.
前記パターン情報を登録情報として記憶手段に記憶する際に、該パターン情報に誤り訂正符号化処理を施す
ことを特徴とする請求項1〜3のうちいずれか1項記載の認証装置。
The authentication apparatus according to any one of claims 1 to 3, wherein when the pattern information is stored as registration information in a storage unit, an error correction encoding process is performed on the pattern information.
指紋画像を複数のエリアに区分けし、前記指紋画像中の指紋の特徴部分と基準線とがなす角度を前記エリア毎にそれぞれ示した複数のエリア別指紋識別情報を、生成手段によって生成する生成ステップと、
前記指紋の特徴部分と前記基準線とがなす想定される全ての角度を、所定の角度範囲単位で前記エリア毎に表した複数の共通テンプレートの中から、前記エリア別指紋識別情報の前記角度が含まれる前記角度範囲の共通テンプレートを、変換手段によって、前記エリア別指紋識別情報毎に選択し、各前記エリア別指紋識別情報をそれぞれ対応する前記共通テンプレートに変換したパターン情報を生成する変換ステップと
を備えることを特徴とする認証方法。
A generating step of dividing the fingerprint image into a plurality of areas, and generating a plurality of fingerprint identification information for each area indicating the angle formed by the feature portion of the fingerprint in the fingerprint image and the reference line for each area by the generating unit When,
The angle of the fingerprint identification information for each area is selected from a plurality of common templates in which all the angles assumed by the characteristic part of the fingerprint and the reference line are expressed for each area in a predetermined angle range unit. A conversion step of selecting a common template of the included angle range for each of the fingerprint identification information for each area by a conversion unit, and generating pattern information obtained by converting each of the fingerprint identification information for each area into the corresponding common template; An authentication method comprising:
JP2010127154A 2010-06-02 2010-06-02 Authentication device and authentication method Withdrawn JP2011253378A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010127154A JP2011253378A (en) 2010-06-02 2010-06-02 Authentication device and authentication method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010127154A JP2011253378A (en) 2010-06-02 2010-06-02 Authentication device and authentication method

Publications (1)

Publication Number Publication Date
JP2011253378A true JP2011253378A (en) 2011-12-15

Family

ID=45417262

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010127154A Withdrawn JP2011253378A (en) 2010-06-02 2010-06-02 Authentication device and authentication method

Country Status (1)

Country Link
JP (1) JP2011253378A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219967A (en) * 2013-05-01 2014-11-20 三菱電機株式会社 Method and system for authenticating biometric data obtained from fingerprint of user, and biometric authentication system
JP2015228070A (en) * 2014-05-30 2015-12-17 日本電気株式会社 Fingerprint image processor, fingerprint image processing method and program
JP2016111687A (en) * 2014-12-04 2016-06-20 富士通株式会社 Privacy preserving set-based biometric authentication
WO2016136142A1 (en) * 2015-02-24 2016-09-01 日本電気株式会社 Ciphertext collation system, method and recording medium
JP2017175244A (en) * 2016-03-22 2017-09-28 株式会社日立製作所 1:n biometric authentication, encryption, and signature system
CN107315935A (en) * 2016-04-27 2017-11-03 中兴通讯股份有限公司 A kind of recognition methods of many fingerprints and device
WO2022074836A1 (en) * 2020-10-09 2022-04-14 匡次 岩崎 Biometric authentication system, biometric authentication program, and biometric authentication article
WO2022107224A1 (en) * 2020-11-17 2022-05-27 日本電気株式会社 Information concealing control device, information concealing device, information reconstruction control device, information reconstruction device, information concealing system, information concealing control method, information reconstruction control method, information concealing control program, and information reconstruction control program
WO2022268023A1 (en) * 2021-06-22 2022-12-29 维沃移动通信有限公司 Fingerprint recognition method and apparatus, and electronic device and readable storage medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014219967A (en) * 2013-05-01 2014-11-20 三菱電機株式会社 Method and system for authenticating biometric data obtained from fingerprint of user, and biometric authentication system
JP2015228070A (en) * 2014-05-30 2015-12-17 日本電気株式会社 Fingerprint image processor, fingerprint image processing method and program
JP2016111687A (en) * 2014-12-04 2016-06-20 富士通株式会社 Privacy preserving set-based biometric authentication
JPWO2016136142A1 (en) * 2015-02-24 2018-03-22 日本電気株式会社 Ciphertext verification system, method, and recording medium
WO2016136142A1 (en) * 2015-02-24 2016-09-01 日本電気株式会社 Ciphertext collation system, method and recording medium
JP2020144395A (en) * 2015-02-24 2020-09-10 日本電気株式会社 Cryptography collation system, method, and program
US10503915B2 (en) 2015-02-24 2019-12-10 Nec Corporation Encrypted text verification system, method and recording medium
JP2017175244A (en) * 2016-03-22 2017-09-28 株式会社日立製作所 1:n biometric authentication, encryption, and signature system
US10680808B2 (en) 2016-03-22 2020-06-09 Hitachi, Ltd. 1:N biometric authentication, encryption, signature system
WO2017164159A1 (en) * 2016-03-22 2017-09-28 株式会社日立製作所 1:n biometric authentication, encryption, signature system
CN107315935A (en) * 2016-04-27 2017-11-03 中兴通讯股份有限公司 A kind of recognition methods of many fingerprints and device
CN107315935B (en) * 2016-04-27 2022-03-25 中兴通讯股份有限公司 Multi-fingerprint identification method and device
WO2022074836A1 (en) * 2020-10-09 2022-04-14 匡次 岩崎 Biometric authentication system, biometric authentication program, and biometric authentication article
WO2022107224A1 (en) * 2020-11-17 2022-05-27 日本電気株式会社 Information concealing control device, information concealing device, information reconstruction control device, information reconstruction device, information concealing system, information concealing control method, information reconstruction control method, information concealing control program, and information reconstruction control program
JP7476982B2 (en) 2020-11-17 2024-05-01 日本電気株式会社 Information concealment control device, information concealment device, information reconfiguration control device, information reconfiguration device, information concealment system, information concealment control method, information reconfiguration control method, information concealment control program, and information reconfiguration control program
WO2022268023A1 (en) * 2021-06-22 2022-12-29 维沃移动通信有限公司 Fingerprint recognition method and apparatus, and electronic device and readable storage medium

Similar Documents

Publication Publication Date Title
JP2011253378A (en) Authentication device and authentication method
Panchal et al. A novel approach to fingerprint biometric-based cryptographic key generation and its applications to storage security
Lee et al. A new method for generating an invariant iris private key based on the fuzzy vault system
Li et al. An alignment-free fingerprint cryptosystem based on fuzzy vault scheme
Uludag et al. Securing fingerprint template: Fuzzy vault with helper data
US8417960B2 (en) Method for generating an encryption key using biometrics authentication and restoring the encryption key and personal authentication system
Jin et al. Fingerprint template protection with minutiae-based bit-string for security and privacy preserving
Yang et al. A Delaunay quadrangle-based fingerprint authentication system with template protection using topology code for local registration and security enhancement
US9036876B2 (en) Method and system for authenticating biometric data
KR100714303B1 (en) Method for recognizing fingerprint while hiding minutiae and apparatus thereof
US8699799B2 (en) Fingerprint verification method and apparatus with high security
JP4616677B2 (en) Encryption key generation using biometric information and personal authentication system using biometric information
Ao et al. Near infrared face based biometric key binding
Wang et al. Biometric key generation based on generated intervals and two-layer error correcting technique
Lutsenko et al. Biometric cryptosystems: overview, state-of-the-art and perspective directions
Saputra et al. Improving the accuracy of fuzzy vault scheme in fingerprint biometric
Chafia et al. A biometric crypto-system for authentication
Ali et al. Fingerprint shell construction with prominent minutiae points
Shi et al. Fingerprint recognition strategies based on a fuzzy commitment for cloud-assisted IoT: a minutiae-based sector coding approach
CN116010917A (en) Privacy-protected image processing method, identity registration method and identity authentication method
Selwal et al. Low overhead octet indexed template security scheme for multi-modal biometric system
Baghel et al. An enhanced fuzzy vault to secure the fingerprint templates
Shukla et al. Securing fingerprint templates by enhanced minutiae‐based encoding scheme in Fuzzy Commitment
Moi et al. An improved approach of iris biometric authentication performance and security with cryptography and error correction codes
US8122260B2 (en) Shaping classification boundaries in template protection systems

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130806