JP2004287563A - Device and method for inputting and collating biological pattern information - Google Patents

Device and method for inputting and collating biological pattern information Download PDF

Info

Publication number
JP2004287563A
JP2004287563A JP2003075910A JP2003075910A JP2004287563A JP 2004287563 A JP2004287563 A JP 2004287563A JP 2003075910 A JP2003075910 A JP 2003075910A JP 2003075910 A JP2003075910 A JP 2003075910A JP 2004287563 A JP2004287563 A JP 2004287563A
Authority
JP
Japan
Prior art keywords
input
image
storage unit
feature data
image storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003075910A
Other languages
Japanese (ja)
Other versions
JP3866672B2 (en
Inventor
Munehiro Ikeda
宗広 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Infrontia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Infrontia Corp filed Critical NEC Infrontia Corp
Priority to JP2003075910A priority Critical patent/JP3866672B2/en
Publication of JP2004287563A publication Critical patent/JP2004287563A/en
Application granted granted Critical
Publication of JP3866672B2 publication Critical patent/JP3866672B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a small and inexpensive device for inputting and collating biological pattern information. <P>SOLUTION: Upon the input of a biological pattern to an input part 1, a data processing unit 3 stores an image of the living body pattern for one input into an input image storage part 21, then compares the image of the living body pattern stored in the input image storage part to reconfigured image information stored in a reconfigured image storage part 22, then calculates position coordinates on the reconfigured image storage part which the image of the pattern in the input image storage part should assume, and stores the image of the pattern for the one input into the reconfigured image storage part according to the calculated coordinates. The data processor repeats the above operations a plurality of times while moving the subject of input. Where the reconfigured image has reached a predetermined size, characteristic data are extracted by analysis of the reconfigured image and stored in a characteristic data storage part 23. The reconfigured image for which the process of extracting characteristic data has been over is disposed of. Using the stored characteristic data, a collating/authenticating device 4 determines if the pattern matches the registered living body pattern information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、携帯端末等に実装して好適な指紋情報等の生体パターン情報の入力・照合装置に関する。
【0002】
【従来の技術】
一般に、指紋等、生体にはその固体特有の生体パターンがあり、その固体を特定する手段として用いられている。例えば、指紋データを用いて個人を特定する場合、以下の照合方法がある。
「1対1照合」:登録されている多数の指紋の中から「IDなどの情報」により指紋を特定した上で入力された指紋と照合を行い、個人を特定する方法。
「1対N照合」:登録されている全ての指紋の中から指紋データのみで入力された指紋と照合を行い、一致する指紋を探し出す方法。
【0003】
入力された指紋データのみで一致する指紋を探し出す「1対N照合」を実現するには高い照合精度を必要とする。すなわち、他人許容率(登録されていない指紋を登録されている指紋と誤って認識してしまう率)を小さくすると共に本人拒否率(登録されている指紋を登録されていない指紋と誤って認識してしまう率)を小さくする必要がある。このため、指紋照合に特徴点及びリレーションの情報を用いることで、他人許容率小さくすると共に本人拒否率を小さくして、安全性と利便性を兼ね備えている(例えば、特許文献1及び2参照)。
【0004】
【特許文献1】
特許1289457号(特公昭60−12674号)公報
【特許文献2】
特許1468842号(特公昭63−13226号)公報
【特許文献3】
特公表2002−505778号公報
【0005】
この特徴点とリレーションについて、図6を参照して説明する。図6(a)に示すように、指紋の模様を形成する盛り上がっているところを「隆線」と呼ぶ。この隆線には、切れている部分と分岐している部分がある。切れている部分を「端点」、分岐しているところを「分岐点」と呼ぶ。この「端点」と「分岐点」を合わせて「特徴点」と呼んでいる。通常の指紋では、指紋の中心部分の特徴点は、約50である。この特徴点から得られる「位置」と「方向」を特徴点の基本情報として扱う。
【0006】
しかし、特徴点の位置と方向の情報だけでは、偶然に一致する可能性がある。そこでリレーションと呼ばれる情報を付加する。図6(b)に示すように、「リレーション」とは、特徴点と他の特徴点との間を横切る「隆線」の数の情報で、特徴点の情報に付加することによって、特徴点の位置と方向の情報だけを用いた場合に比べ、指紋照合精度が格段に向上する。
【0007】
この指紋入力・照合装置を携帯端末等に実装する場合、その指紋入力部は、できるだけ小型である方が望ましい。しかし指の大きさよりも小型化した指紋入力部は、指全体の指紋を一度に取得できない。よって、指を入力部分の上で動かすなどして得られた部分的な指紋情報を、全体的な指紋情報に再構成する必要がある。
【0008】
図7を参照して、従来の技術による指紋入力、指紋情報の再構成、照合・認証の動作を説明する。
【0009】
入力部に指紋が入力されると、入力一回分の指紋画像が入力画像記憶部に格納され(ステップS11)、入力画像記憶部の位置座標を算出し(ステップS12)、この位置座標を基に、入力画像記憶部の指紋画像を再構成画像記憶部に格納する(ステップS13)。そして、入力が終了するまで以上を繰り返す(ステップS14)。
【0010】
入力が終了し、指紋全体の画像が再構成画像記憶部に格納された時点で、再構成画像から特徴点、リレーション等の特徴データの抽出を行う。抽出された特徴データは、特徴データ記憶部に格納される(ステップS15)。特徴データの抽出が完了した後、再構成画像記憶部の再構成画像が廃棄される(ステップS16)。その後、特徴データ記憶部に格納された特徴データを、照合・認証装置に渡して照合・認証処理を行う(ステップS17)。
【0011】
【発明が解決しようとする課題】
しかしながら、従来の技術では、再構成画像記憶部に指紋全体の画像を格納しており、指紋全体の画像を格納できるだけの容量が必要である。再構成画像記憶部が大容量化することは、装置の大型化、重量増加、消費電力の増加を招き好ましくない。
【0012】
また、小型で安価な指紋入力装置の例として、一次元のセンサーアレーを用いて指紋の構造を測定する方法が開示されている(例えば、特許文献3参照)。
【0013】
そこで本発明は、従来と同様の機能を有しながら、より小型で安価な生体パターン情報の入力・照合装置及び方法を提供することを目的とする。
【0014】
【課題を解決するための手段】
上述の課題を解決するため、本発明は、入力対象物よりも小さな面積の入力部と、この入力部から得られた画像情報を記憶する入力画像記憶部と、複数の入力画像から再構成された画像情報を記憶する再構成画像記憶部と、再構成画像を解析して得られた特徴データを記憶する特徴データ記憶部と、前記入力部に生体パターンが入力されると、入力一回分の生体パターン画像を前記入力画像記憶部に格納し、前記入力画像記憶部に格納された生体パターン画像を前記再構成画像記憶部に格納されている再構成画像情報と比較し、前記入力画像記憶部の生体パターン画像が取るべき前記再構成画像記憶部上の位置座標を算出し、この算出された座標を基に、入力一回分の生体パターン画像を前記再構成画像記憶部に格納するまでの動作を、入力対象物をずらされながら複数回繰り返し、再構成された画像が所定の大きさに達している場合は、再構成画像を解析して特徴データを抽出し、前記特徴データ記憶部に格納するデータ処理手段と、この格納された特徴データを用いて登録された生体パターン情報と一致するかどうかを判定する照合・認証部とを備えることを特徴とする。
【0015】
さらに、前記データ処理手段は、特徴データの抽出処理が終了した再構成画像を廃棄することを特徴とする。
【0016】
以上の構成によって、画像記憶部の記憶容量を小さくすることができる。
【0017】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0018】
図1は、本発明による生体パターン情報の入力・照合装置の構成を示す。1は指紋等の生体パターンを読み取るための入力部である。2は記憶装置、3はデータ処理装置であり、4は得られた生体パターンの特徴データが登録されたの生体パターン情報と一致するかどうかを判定する照合・認証装置である。入力部1の生体パターン読み取り部分の面積は、入力対象物(指紋入力の場合人間の指)よりも小さい。なお、本発明は指紋に限らず、掌紋等、他の生体パターンに関しても適用可能であるが、ここでは指紋の入力に適用した場合を例に説明を行う。
【0019】
図2は、第1の実施形態における指紋入力部の大きさの例を示す。図2における入力部1には、指紋を画像として取得するため十分な細かさで検出素子が並べられているが、検出部分の総面積は入力対象物である指5の面積よりも小さく構成されている。
【0020】
検出素子の方式としては、光学的に画像を取得するもの、稜線と検出素子、および谷間と検出素子との間に生じる静電容量の差を検出するもの、同じく圧力差を検出するもの等、様々な方式が考えられるが、生体パターンを入力できるものであれば方式を問わず、これらとは別の方式であっても構わない。
【0021】
記憶装置2は、入力画像記憶部21と、再構成画像記憶部22、特徴データ記憶部23とを備えている。入力画像記憶部21は、入力部1から得られた画像情報を記憶する。再構成画像記憶部22は、複数の入力画像から再構成された画像情報を記憶する。特徴データ記憶部23は、再構成された画像を解析して得られた特徴データを記憶する。
【0022】
データ処理装置3は、座標算出手段31と、再構成手段32と、特徴データ抽出手段33とを備えている。座標算出手段31は、入力画像記憶部21の画像が再構成画像記憶部22上で取るべき位置座標を算出する。再構成手段32は、入力画像記憶部21の画像情報を、座標算出手段31によって算出された座標位置を用いて再構成画像記憶部22に格納する。特徴データ抽出手段33は、再構成画像記憶部22に格納された画像を解析して特徴データを抽出し、特徴データ記憶部23に格納する。
【0023】
次に図3を参照して、本実施形態の動作を説明する。入力部1に指紋が入力されると、入力一回分の指紋画像を入力画像記憶部21に格納する(ステップS1)。
【0024】
図4に、一回の入力で取得される指紋画像の例を示す。実線51が指紋の稜線を表している。入力部1は図2に示すように指5よりも面積が小さいので、一回の入力で取得できる画像の範囲は全体のうちの一部分のみである。この範囲を図4では、1a、1b、1cの四角形で示している。それぞれの位置がずれているのは、入力ごとに指5と入力部1の相対的な位置がずれていくことを示している。
【0025】
次に、座標算出手段31は、入力画像記憶部21に格納された指紋画像を再構成画像記憶部22に格納されている再構成画像情報と比較し、入力画像記憶部21の指紋画像が取るべき再構成画像記憶部22上の位置座標を算出する(ステップS2)。
【0026】
位置座標の算出は、画像の一致度を調べることで行う。例として図4における1bの位置座標を算出する場合を説明する。1aは過去に入力され、既に再構成画像記憶部22に格納されているものとする。ここで、1aと1bには重なった領域1abが存在する。つまり、1bでの領域1abの指紋画像と、再構成画像記憶部22に格納された領域1abの指紋画像は一致する。このようにして、再構成画像記憶部22上での1bの位置座標を算出することができる。
【0027】
座標算出手段31によって座標が算出されると、この座標を基にして再構成手段32が入力一回分の指紋画像を再構成画像記憶部22に格納する(ステップS3)。
【0028】
ここで、再構成された画像が所定の大きさに達している場合は(ステップS4)、再構成画像を解析して特徴データを抽出し、特徴データ記憶部23に格納する(ステップS5)。所定の大きさは、指紋全体の画像よりも小さくなるよう、あらかじめ定めておく。
【0029】
再構成画像が所定の大きさに達していない場合(ステップS4)、更に指紋画像を取得する必要があるため画像の取得(ステップS1)を再び行い、以上の処理を繰り返す。
【0030】
特徴データの抽出処理が終了した再構成画像は、不要なのでこれを廃棄する(ステップS6)。つまり、再構成画像記憶部22には、あらかじめ定められた所定の大きさ(指紋全体よりも小さい)分の容量があればよい。指紋全体の画像を格納するだけの容量は必要ない。
【0031】
次に、入力部1に引き続き指紋が入力されているかどうか判定する(ステップS7)。入力されている場合、画像の取得(ステップS1)に戻り、以上を繰り返す。画像の取得及び特徴データ抽出を繰り返して行うことによって、信頼性の高い照合を行うのに必要な特徴データを得ることができる。
【0032】
入力されていない場合は、使用者が指紋の入力を終了したと考えられるため、特徴データ記憶部23に格納された特徴データを照合・認証装置4に渡し、登録された指紋情報との照合・認証処理を行う(ステップS8)。
【0033】
図5は、第2の実施形態における指紋入力部の大きさを示す。第1の実施形態では図2に示すように入力部1は細長い形状であるが、図5に示す本実施形態の細長くない形状の入力部1でもよい。ただし、指5の面積よりは小さく構成されている。その他の構成及び動作については第1の実施形態と同様である。
【0034】
以上、生体パターンとして指紋を例に説明したが、掌紋等の場合はより大きな面積の生体パターンを入力しなければならず、携帯端末等の小型の機器に掌紋情報の入力・照合装置を実装する場合は、本発明を適用することによって、より大きな効果を得ることができる。
【0035】
【発明の効果】
以上説明したように、本発明によれば、従来指紋全体の画像を格納する必要のあった再構成画像記憶部に指紋全体の画像を格納する必要がなく、再構成画像記憶部の容量を従来の技術よりも削減できるので、記憶装置を小型・簡略化することができる。このため、従来と同様の機能を有しながら、より小型で安価な生体パターン情報の入力・照合装置を製造・供給することができる。
【図面の簡単な説明】
【図1】本発明による生体パターン情報の入力・照合装置の構成図である。
【図2】第1の実施形態における指紋入力部の大きさを示す図である。
【図3】本発明の動作を説明するフローチャートである。
【図4】一回の入力で取得される指紋画像の例を示す図である。
【図5】第2の実施形態における指紋入力部の大きさを示す図である。
【図6】(a)は特徴点について、(b)は特徴点とリレーションについての説明図である。
【図7】従来の技術の動作を説明するフローチャートである。
【符号の説明】
1 入力部
2 記憶装置
21 入力画像記憶部
22 再構成画像記憶部
23 特徴データ記憶部
3 データ処理装置
31 座標算出手段
32 再構成手段
33 特徴データ抽出手段
4 照合・認証装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an input / collation apparatus for biometric pattern information such as fingerprint information suitable for being mounted on a portable terminal or the like.
[0002]
[Prior art]
Generally, a living body has a biological pattern peculiar to the solid such as a fingerprint, and is used as a means for specifying the solid. For example, when an individual is specified using fingerprint data, the following matching method is available.
“One-to-one collation”: a method of identifying a fingerprint by “information such as ID” from a large number of registered fingerprints, collating the fingerprint with an input fingerprint, and identifying an individual.
"1: N collation": a method of collating with a fingerprint input only with fingerprint data from all registered fingerprints and searching for a matching fingerprint.
[0003]
A high degree of matching accuracy is required to realize "one-to-N matching" for finding a matching fingerprint only with the input fingerprint data. That is, the false acceptance rate (the rate at which unregistered fingerprints are erroneously recognized as registered fingerprints) is reduced, and the false rejection rate (registered fingerprints are erroneously recognized as unregistered fingerprints). Must be reduced. For this reason, by using the information on the feature points and the relations in the fingerprint collation, the false acceptance rate and the false rejection rate are reduced, and both security and convenience are provided (for example, see Patent Documents 1 and 2). .
[0004]
[Patent Document 1]
Japanese Patent No. 1289457 (Japanese Patent Publication No. 60-12677) [Patent Document 2]
Japanese Patent No. 1468842 (Japanese Patent Publication No. 63-13226) [Patent Document 3]
JP-A-2002-505778 [0005]
The feature points and the relation will be described with reference to FIG. As shown in FIG. 6A, a swelling portion forming a fingerprint pattern is called a "ridge". The ridge has a cut portion and a branch portion. The cut portion is called an "end point", and the branch point is called a "branch point". The “end point” and the “branch point” are collectively called a “feature point”. In a normal fingerprint, the feature point at the center of the fingerprint is about 50. "Position" and "direction" obtained from this feature point are handled as basic information of the feature point.
[0006]
However, there is a possibility that coincidence will occur by information only on the position and direction of the feature point. Therefore, information called a relation is added. As shown in FIG. 6B, the “relation” is information on the number of “ridges” crossing between a feature point and another feature point. Compared with the case where only the information of the position and the direction is used, the fingerprint collation accuracy is remarkably improved.
[0007]
When this fingerprint input / collation device is mounted on a portable terminal or the like, it is desirable that the fingerprint input unit be as small as possible. However, a fingerprint input unit that is smaller than the size of the finger cannot acquire the fingerprint of the entire finger at once. Therefore, it is necessary to reconstruct partial fingerprint information obtained by moving a finger over an input portion into overall fingerprint information.
[0008]
With reference to FIG. 7, the operation of inputting a fingerprint, reconstructing fingerprint information, and verifying / authenticating according to the related art will be described.
[0009]
When a fingerprint is input to the input unit, one input fingerprint image is stored in the input image storage unit (step S11), and the position coordinates of the input image storage unit are calculated (step S12). Then, the fingerprint image in the input image storage is stored in the reconstructed image storage (step S13). The above steps are repeated until the input is completed (step S14).
[0010]
When the input is completed and the entire fingerprint image is stored in the reconstructed image storage unit, feature data such as feature points and relations is extracted from the reconstructed image. The extracted feature data is stored in the feature data storage unit (Step S15). After the extraction of the feature data is completed, the reconstructed image in the reconstructed image storage unit is discarded (step S16). Thereafter, the feature data stored in the feature data storage unit is passed to the matching / authentication device to perform a matching / authentication process (step S17).
[0011]
[Problems to be solved by the invention]
However, in the conventional technique, the whole image of the fingerprint is stored in the reconstructed image storage unit, and a capacity enough to store the image of the whole fingerprint is required. Increasing the capacity of the reconstructed image storage unit is not preferable because it increases the size, weight, and power consumption of the apparatus.
[0012]
Further, as an example of a small and inexpensive fingerprint input device, a method of measuring a fingerprint structure using a one-dimensional sensor array is disclosed (for example, see Patent Document 3).
[0013]
Accordingly, an object of the present invention is to provide a smaller and less expensive apparatus and method for inputting and matching biometric pattern information while having the same functions as those of the related art.
[0014]
[Means for Solving the Problems]
In order to solve the above-described problem, the present invention is configured such that an input unit having an area smaller than an input target, an input image storage unit that stores image information obtained from the input unit, and a plurality of input images. A reconstructed image storage unit that stores the obtained image information, a feature data storage unit that stores feature data obtained by analyzing the reconstructed image, and when a biological pattern is input to the input unit, a single input is performed. Storing a biological pattern image in the input image storage unit; comparing the biological pattern image stored in the input image storage unit with reconstructed image information stored in the reconstructed image storage unit; Calculating the position coordinates of the biological pattern image to be taken on the reconstructed image storage unit and, based on the calculated coordinates, storing the biometric pattern image for one input in the reconstructed image storage unit Enter When the reconstructed image reaches a predetermined size while repeating the elephant multiple times while being shifted, data processing for analyzing the reconstructed image to extract feature data and storing the feature data in the feature data storage unit Means and a matching / authentication unit for determining whether or not the stored feature data matches the registered biometric pattern information.
[0015]
Furthermore, the data processing means is characterized by discarding the reconstructed image for which the characteristic data extraction processing has been completed.
[0016]
With the above configuration, the storage capacity of the image storage unit can be reduced.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
[0018]
FIG. 1 shows a configuration of a biometric pattern information input / collation device according to the present invention. Reference numeral 1 denotes an input unit for reading a biological pattern such as a fingerprint. Reference numeral 2 denotes a storage device, reference numeral 3 denotes a data processing device, and reference numeral 4 denotes a verification / authentication device for determining whether or not the obtained characteristic data of the biological pattern matches the registered biological pattern information. The area of the biometric pattern reading portion of the input unit 1 is smaller than the input object (a human finger in the case of fingerprint input). The present invention is applicable not only to fingerprints but also to other biometric patterns such as palm prints. Here, a case where the present invention is applied to fingerprint input will be described as an example.
[0019]
FIG. 2 shows an example of the size of the fingerprint input unit according to the first embodiment. In the input unit 1 in FIG. 2, detection elements are arranged with sufficient fineness to acquire a fingerprint as an image, but the total area of the detection part is configured to be smaller than the area of the finger 5 which is an input target. ing.
[0020]
As a method of the detection element, one that optically acquires an image, one that detects a difference in capacitance generated between a ridgeline and a detection element, and a valley and a detection element, one that similarly detects a pressure difference, Although various methods are conceivable, any method can be used as long as a biological pattern can be input, and another method may be used.
[0021]
The storage device 2 includes an input image storage unit 21, a reconstructed image storage unit 22, and a feature data storage unit 23. The input image storage unit 21 stores image information obtained from the input unit 1. The reconstructed image storage unit 22 stores image information reconstructed from a plurality of input images. The feature data storage unit 23 stores feature data obtained by analyzing the reconstructed image.
[0022]
The data processing device 3 includes a coordinate calculation unit 31, a reconfiguration unit 32, and a feature data extraction unit 33. The coordinate calculation means 31 calculates the position coordinates that the image of the input image storage unit 21 should take on the reconstructed image storage unit 22. The reconstruction unit 32 stores the image information of the input image storage unit 21 in the reconstructed image storage unit 22 using the coordinate position calculated by the coordinate calculation unit 31. The characteristic data extracting unit 33 analyzes the image stored in the reconstructed image storage unit 22 to extract characteristic data, and stores the extracted characteristic data in the characteristic data storage unit 23.
[0023]
Next, the operation of the present embodiment will be described with reference to FIG. When a fingerprint is input to the input unit 1, a fingerprint image for one input is stored in the input image storage unit 21 (step S1).
[0024]
FIG. 4 shows an example of a fingerprint image obtained by one input. The solid line 51 represents the ridge line of the fingerprint. Since the input unit 1 has a smaller area than the finger 5 as shown in FIG. 2, the range of the image that can be acquired by one input is only a part of the whole. In FIG. 4, this range is indicated by squares 1a, 1b, and 1c. The shift of each position indicates that the relative position of the finger 5 and the input unit 1 shifts for each input.
[0025]
Next, the coordinate calculation unit 31 compares the fingerprint image stored in the input image storage unit 21 with the reconstructed image information stored in the reconstructed image storage unit 22, and obtains the fingerprint image in the input image storage unit 21. The position coordinates on the power reconstructed image storage unit 22 are calculated (step S2).
[0026]
The calculation of the position coordinates is performed by checking the degree of coincidence of the images. As an example, a case where the position coordinates of 1b in FIG. 4 are calculated will be described. It is assumed that 1a has been input in the past and has already been stored in the reconstructed image storage unit 22. Here, an overlapping region 1ab exists between 1a and 1b. That is, the fingerprint image of the area 1ab in 1b matches the fingerprint image of the area 1ab stored in the reconstructed image storage unit 22. Thus, the position coordinates of 1b on the reconstructed image storage unit 22 can be calculated.
[0027]
When the coordinates are calculated by the coordinates calculating means 31, the reconstructing means 32 stores one input fingerprint image in the reconstructed image storage unit 22 based on the coordinates (step S3).
[0028]
Here, when the reconstructed image has reached a predetermined size (step S4), the reconstructed image is analyzed to extract feature data, and stored in the feature data storage unit 23 (step S5). The predetermined size is determined in advance so as to be smaller than the entire fingerprint image.
[0029]
If the reconstructed image has not reached the predetermined size (step S4), it is necessary to acquire a fingerprint image, so the image is acquired again (step S1), and the above processing is repeated.
[0030]
The reconstructed image for which the characteristic data extraction processing has been completed is unnecessary and is discarded (step S6). That is, the reconstructed image storage unit 22 only needs to have a capacity of a predetermined size (smaller than the entire fingerprint). There is no need for the capacity to store an image of the entire fingerprint.
[0031]
Next, it is determined whether or not a fingerprint has been input to the input unit 1 (step S7). If it has been input, the process returns to the acquisition of the image (step S1), and the above is repeated. By repeatedly performing image acquisition and feature data extraction, it is possible to obtain feature data necessary for performing highly reliable matching.
[0032]
If the input has not been made, it is considered that the user has finished inputting the fingerprint. Therefore, the feature data stored in the feature data storage unit 23 is passed to the collation / authentication device 4, and the collation / registration with the registered fingerprint information is performed. An authentication process is performed (step S8).
[0033]
FIG. 5 shows the size of the fingerprint input unit according to the second embodiment. In the first embodiment, the input unit 1 has an elongated shape as shown in FIG. 2, but the input unit 1 having a non-elongated shape in the present embodiment shown in FIG. 5 may be used. However, it is configured to be smaller than the area of the finger 5. Other configurations and operations are the same as those of the first embodiment.
[0034]
As described above, the fingerprint is described as an example of the biometric pattern. However, in the case of a palm print or the like, a biometric pattern having a larger area must be input, and a palm print information input / collation device is mounted on a small device such as a portable terminal. In such a case, a greater effect can be obtained by applying the present invention.
[0035]
【The invention's effect】
As described above, according to the present invention, it is not necessary to store the entire image of the fingerprint in the reconstructed image storage unit, which has conventionally required the storage of the entire image of the fingerprint, and the capacity of the reconstructed image storage unit is reduced. Since it can be reduced as compared with the technique of the above, the storage device can be reduced in size and simplified. Therefore, it is possible to manufacture and supply a biometric pattern information input / collation device that is smaller and cheaper while having the same functions as the conventional one.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a biometric pattern information input / collation device according to the present invention.
FIG. 2 is a diagram illustrating the size of a fingerprint input unit according to the first embodiment.
FIG. 3 is a flowchart illustrating the operation of the present invention.
FIG. 4 is a diagram showing an example of a fingerprint image obtained by one input.
FIG. 5 is a diagram illustrating the size of a fingerprint input unit according to the second embodiment.
FIG. 6A is an explanatory diagram of a feature point, and FIG. 6B is an explanatory diagram of a feature point and a relation.
FIG. 7 is a flowchart illustrating the operation of the conventional technique.
[Explanation of symbols]
REFERENCE SIGNS LIST 1 input unit 2 storage device 21 input image storage unit 22 reconstructed image storage unit 23 feature data storage unit 3 data processing unit 31 coordinate calculation unit 32 reconfiguration unit 33 feature data extraction unit 4 collation / authentication device

Claims (6)

入力対象物よりも小さな面積の入力部と、
この入力部から得られた画像情報を記憶する入力画像記憶部と、
複数の入力画像から再構成された画像情報を記憶する再構成画像記憶部と、
再構成画像を解析して得られた特徴データを記憶する特徴データ記憶部と、
前記入力部に生体パターンが入力されると、入力一回分の生体パターン画像を前記入力画像記憶部に格納し、前記入力画像記憶部に格納された生体パターン画像を前記再構成画像記憶部に格納されている再構成画像情報と比較し、前記入力画像記憶部の生体パターン画像が取るべき前記再構成画像記憶部上の位置座標を算出し、この算出された座標を基に、入力一回分の生体パターン画像を前記再構成画像記憶部に格納するまでの動作を、入力対象物をずらされながら複数回繰り返し、再構成された画像が所定の大きさに達している場合は、再構成画像を解析して特徴データを抽出し、前記特徴データ記憶部に格納するデータ処理手段と、
この格納された特徴データを用いて登録された生体パターン情報と一致するかどうかを判定する照合・認証部とを備えることを特徴とする生体パターン情報の入力・照合装置。
An input section having an area smaller than the input object;
An input image storage unit for storing image information obtained from the input unit,
A reconstructed image storage unit for storing image information reconstructed from a plurality of input images,
A feature data storage unit that stores feature data obtained by analyzing the reconstructed image,
When a biometric pattern is input to the input unit, a biometric pattern image for one input is stored in the input image storage unit, and a biometric pattern image stored in the input image storage unit is stored in the reconstructed image storage unit. Compared with the reconstructed image information is calculated position coordinates on the reconstructed image storage unit to be taken by the biological pattern image of the input image storage unit, based on the calculated coordinates, for one input The operation until the biological pattern image is stored in the reconstructed image storage unit is repeated a plurality of times while shifting the input object, and when the reconstructed image reaches a predetermined size, the reconstructed image is Data processing means for analyzing and extracting feature data and storing the feature data in the feature data storage unit;
A biometric pattern information input / verification device, comprising: a verification / authentication unit that determines whether or not the biometric pattern information is registered using the stored feature data.
前記データ処理手段は、特徴データの抽出処理が終了した再構成画像を廃棄することを特徴とする請求項1記載の生体パターン情報の入力・照合装置。2. The biometric pattern information input / collation apparatus according to claim 1, wherein the data processing unit discards the reconstructed image for which the characteristic data extraction processing has been completed. 前記データ処理手段は、特徴データの抽出処理終了後、前記入力部に引き続き生体パターンが入力されているかどうか判定し、入力されている場合、画像の取得及び特徴データ抽出を繰り返すことを特徴とする請求項1又は2記載の生体パターン情報の入力・照合装置。The data processing means may determine whether or not a biological pattern has been input to the input unit after completion of the feature data extraction process, and if so, repeat image acquisition and feature data extraction. The biometric pattern information input / collation device according to claim 1 or 2. 入力対象物よりも小さな面積の入力部と、この入力部から得られた画像情報を記憶する入力画像記憶部と、複数の入力画像から再構成された画像情報を記憶する再構成画像記憶部と、再構成画像を解析して得られた特徴データを記憶する特徴データ記憶部とを備えた装置における生体パターン情報の入力・照合方法であって、
前記入力部に生体パターンが入力されると、入力一回分の生体パターン画像を前記入力画像記憶部に格納し、
前記入力画像記憶部に格納された生体パターン画像を前記再構成画像記憶部に格納されている再構成画像情報と比較し、前記入力画像記憶部の生体パターン画像が取るべき前記再構成画像記憶部上の位置座標を算出し、
この算出された座標を基に、入力一回分の生体パターン画像を前記再構成画像記憶部に格納するまでの動作を、入力対象物をずらしながら複数回繰り返し、
再構成された画像が所定の大きさに達している場合は、再構成画像を解析して特徴データを抽出し、前記特徴データ記憶部に格納し、
この格納された特徴データを用いて登録された生体パターン情報と一致するかどうかを判定することを特徴とする生体パターン情報の入力・照合方法。
An input unit having an area smaller than the input object, an input image storage unit that stores image information obtained from the input unit, and a reconstructed image storage unit that stores image information reconstructed from a plurality of input images. A feature data storage unit that stores feature data obtained by analyzing a reconstructed image, and a method of inputting and matching biometric pattern information in an apparatus including:
When a biological pattern is input to the input unit, a biological pattern image for one input is stored in the input image storage unit,
The biometric pattern image stored in the input image storage unit is compared with reconstructed image information stored in the reconstructed image storage unit, and the reconstructed image storage unit to be taken by the biometric pattern image in the input image storage unit Calculate the upper position coordinates,
Based on the calculated coordinates, the operation until storing the biometric pattern image for one input in the reconstructed image storage unit is repeated a plurality of times while shifting the input object,
If the reconstructed image has reached a predetermined size, analyze the reconstructed image to extract feature data, store it in the feature data storage unit,
A method for inputting and matching biometric pattern information, comprising determining whether or not the stored feature data matches registered biometric pattern information.
特徴データの抽出処理が終了した再構成画像を廃棄することを特徴とする請求項4記載の生体パターン情報の入力・照合方法。5. The method for inputting and matching biometric pattern information according to claim 4, wherein the reconstructed image for which the characteristic data extraction processing has been completed is discarded. 特徴データの抽出処理終了後、前記入力部に引き続き生体パターンが入力されているかどうか判定し、入力されている場合、画像の取得及び特徴データ抽出を繰り返すことを特徴とする請求項4又は5記載の生体パターン情報の入力・照合方法。6. After completion of the feature data extraction process, it is determined whether or not a biological pattern has been input to the input unit, and if so, image acquisition and feature data extraction are repeated. Input / collation method of biological pattern information.
JP2003075910A 2003-03-19 2003-03-19 Biological pattern information input / collation device and method Expired - Fee Related JP3866672B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003075910A JP3866672B2 (en) 2003-03-19 2003-03-19 Biological pattern information input / collation device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003075910A JP3866672B2 (en) 2003-03-19 2003-03-19 Biological pattern information input / collation device and method

Publications (2)

Publication Number Publication Date
JP2004287563A true JP2004287563A (en) 2004-10-14
JP3866672B2 JP3866672B2 (en) 2007-01-10

Family

ID=33291094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003075910A Expired - Fee Related JP3866672B2 (en) 2003-03-19 2003-03-19 Biological pattern information input / collation device and method

Country Status (1)

Country Link
JP (1) JP3866672B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006158851A (en) * 2004-12-10 2006-06-22 Hitachi Ltd Bioinformation feature transformation method and biometrics system
JP2006517311A (en) * 2003-06-30 2006-07-20 モビソル Pointing device having fingerprint authentication function, fingerprint authentication and pointing method thereof, and service providing method of portable terminal using the fingerprint authentication

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006517311A (en) * 2003-06-30 2006-07-20 モビソル Pointing device having fingerprint authentication function, fingerprint authentication and pointing method thereof, and service providing method of portable terminal using the fingerprint authentication
JP2006158851A (en) * 2004-12-10 2006-06-22 Hitachi Ltd Bioinformation feature transformation method and biometrics system
JP4564348B2 (en) * 2004-12-10 2010-10-20 株式会社日立製作所 Biometric information feature amount conversion method and biometric authentication system

Also Published As

Publication number Publication date
JP3866672B2 (en) 2007-01-10

Similar Documents

Publication Publication Date Title
KR101706290B1 (en) Biometric verification device and method
EP1183638B1 (en) Method and apparatus for creating a composite fingerprint image
EP1339008B1 (en) Authentication method, and program and apparatus therefor
CN100382093C (en) Registration method for biometrics authentication system, biometrics authentication system, and program for same
US7120280B2 (en) Fingerprint template generation, verification and identification system
US20030123714A1 (en) Method and system for capturing fingerprints from multiple swipe images
EP2143037A2 (en) Fast fingerprint identification and verification by minutiae pair indexing
US20080049987A1 (en) Fingerprint recognition system
US20040042645A1 (en) Fingerprint recognition method, and fingerprint control method and system
WO2013161077A1 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
US20090296994A1 (en) Method and system for identifying a person based on their tongue
Bong et al. Palm print verification system
JP2004118677A (en) Fingerprint authenticating method/program/device
JP4588577B2 (en) Palmprint authentication apparatus, palmprint authentication program, palmprint authentication method, palmprint image extraction method, and mobile phone terminal provided with palmprint authentication apparatus
JP2007200051A (en) Personal identification device
US6785408B1 (en) Fingerprint segment area processing method and associated apparatus
JP2004287563A (en) Device and method for inputting and collating biological pattern information
US20080240522A1 (en) Fingerprint Authentication Method Involving Movement of Control Points
US20060078178A1 (en) Swipe sensor
Doi et al. Personal authentication using feature points on finger and palmar creases
Patil et al. Fingerprint recognition for Library management
US20050152585A1 (en) Print analysis
JP6666610B2 (en) Vein authentication device
KR20060085871A (en) Fingerprint sensor for both sides at the same time, and method of maching fingerprint the same
US20060280345A1 (en) Large-Area Biometric Specimen Comparison With Small-Area Biometric Sample

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060516

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061005

R150 Certificate of patent or registration of utility model

Ref document number: 3866672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091013

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101013

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111013

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121013

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131013

Year of fee payment: 7

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees