JP2575676B2 - Automatic Matching Point Tracking Method for Fingerprint Matching - Google Patents

Automatic Matching Point Tracking Method for Fingerprint Matching

Info

Publication number
JP2575676B2
JP2575676B2 JP61306643A JP30664386A JP2575676B2 JP 2575676 B2 JP2575676 B2 JP 2575676B2 JP 61306643 A JP61306643 A JP 61306643A JP 30664386 A JP30664386 A JP 30664386A JP 2575676 B2 JP2575676 B2 JP 2575676B2
Authority
JP
Japan
Prior art keywords
point
area
inference
matching
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61306643A
Other languages
Japanese (ja)
Other versions
JPS63159990A (en
Inventor
弘己 入江
市雄 中畑
泰之 浅羽
道郎 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SAIBI EREKUTORONIKUSU KK
Original Assignee
SAIBI EREKUTORONIKUSU KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SAIBI EREKUTORONIKUSU KK filed Critical SAIBI EREKUTORONIKUSU KK
Priority to JP61306643A priority Critical patent/JP2575676B2/en
Publication of JPS63159990A publication Critical patent/JPS63159990A/en
Application granted granted Critical
Publication of JP2575676B2 publication Critical patent/JP2575676B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) この発明は本人識別用の指紋照合方法に関し、例えば
扉開閉用やICカード・キャッシュカード等に代わってフ
ィンガー・キー(指紋照合による鍵)として用いられる
ものである。
Description: TECHNICAL FIELD The present invention relates to a fingerprint collation method for personal identification, for example, as a finger key (key by fingerprint collation) instead of a door opening / closing or an IC card / cash card. What is used.

(発明の概要) この発明は撮像位置のずれている2つの指紋画像の同
一性を識別する方式において、両画像の照合開始基準点
(例えば、近似中心点)を定め、該基準点を中心とする
同心円状に3つ以上の探索範囲を設け、各範囲を4〜8
ブロックに分割する。
(Summary of the Invention) In the present invention, in a method for identifying the identity of two fingerprint images whose imaging positions are shifted, a collation start reference point (for example, an approximate center point) of both images is determined, and the reference point is set as a center. 3 or more search ranges are provided concentrically, and each range is 4 to 8
Divide into blocks.

1番内側の円内を規定領域とし、4つの扇形ブロック
に分割する。中間の円内を第1の推論領域とし、4〜8
つの扇形ブロックに分割する。一番外側の円内を8つの
扇形ブロックに分割し、第2の推論領域とする。照合一
致点探索は上記基準点から開始し、順次基準点を第1の
推論領域、第2の推論領域と移動して2つの画像を照合
し、本人であると判別できるまで続けられる。ただし、
規定領域及び第1の推論領域にいずれにも一定値以上の
照合率を示す点が存在しない時は2つの画像は別の指紋
であると判定されて探索は中止される。
The inside of the innermost circle is defined as a defined area and divided into four fan-shaped blocks. The middle circle is defined as the first inference region, and 4 to 8
Divide into two sector blocks. The inside of the outermost circle is divided into eight fan-shaped blocks, and is set as a second inference region. The matching point search is started from the above-mentioned reference point, and is successively moved until the reference point is moved to the first inference area and the second inference area, two images are compared, and it is determined that the user is identified. However,
If there is no point showing a matching rate equal to or more than a certain value in both the specified area and the first inference area, the two images are determined to be different fingerprints, and the search is stopped.

規定領域から第1の推論領域及び第1の推論領域から
第2の推論領域への探索範囲の移動は、前者は、予測係
数が高かったブロック順に、後者は移動前のブロックよ
り予測係数が増加した場合に、その外側のブロックへ行
なわれる。
The movement of the search range from the specified region to the first inference region and from the first inference region to the second inference region is as follows. In this case, the process is performed on the block outside the block.

第2の推論領域のさらに外側の照合一致点が存在する
と予測される場合は最高照合率点を新たに探索開始点と
して同様の探索を再スタートする。
If it is predicted that there is a matching point further outside the second inference area, a similar search is restarted using the highest matching rate point as a new search starting point.

(従来の技術) 従来、本人照合の手段として、暗証番号や印鑑が用い
られているが、前者は暗証番号が洩れてしまえば他人で
も使えるし、印鑑も他人が用いればそれまでである。ま
た、印鑑そのものも、印鑑から本物と殆ど見分けのつか
ない印像コピーを作り出すことが最近の印刷技術では可
能である。
(Prior Art) Conventionally, personal identification numbers and seals have been used as means for personal identification, but the former can be used by others if the personal identification number is leaked, and the seal is used by others. In addition, it is possible with a recent printing technique to create a seal image copy of a seal itself, which is almost indistinguishable from a genuine seal.

指紋は本人個有であり、印像コピーも作りにくい。ま
た、指紋の場合別出願でも述べる如く印像コピーと本物
とはある程度識別できる。本人識別手段としてこれほど
確実なものはない。
The fingerprint is unique to the individual, and it is difficult to make an image copy. Further, in the case of a fingerprint, as described in another application, the image copy can be distinguished from the real copy to some extent. There is no such means for identification.

既に、指紋識別装置としては犯罪捜査用のものがある
が、この装置は不特定多数の人間から特定者を割り出す
ものであって、その目的は第三者の選別にあり、画像認
識の方式は指紋の特徴点抽出とその照合を基本としてい
る(マニューシャ・ネットワーク法)。
There is already a fingerprint identification device for criminal investigation, but this device is for identifying a specific person from an unspecified number of people, the purpose of which is to select a third party, and the method of image recognition is It is based on fingerprint feature point extraction and matching (minutiae network method).

また、現場から採取した指紋は不完全なものが多く、
限られた指紋情報を細大もらさずピックアップするた
め、大型コンピュータによる大規模システムとなってい
る。
Also, fingerprints collected from the field are often incomplete,
In order to pick up limited fingerprint information without giving it a small size, it is a large-scale system using a large computer.

この発明の如く本人自身が指紋を鍵に用いようとする
時、採取される指紋情報はほぼ完全なものが得られる。
しかし、そのままの情報量を全面照合方法によって照合
一致点の探索を行うためには、例えば、小型CPUを用い
て分単位の時間を必要とし、未だ実用的でない。
When the user himself / herself tries to use a fingerprint as a key as in the present invention, almost complete fingerprint information is obtained.
However, in order to search for a matching coincidence point using the same amount of information by the full-scale matching method, for example, a minute unit time is required using a small CPU, which is not yet practical.

一方、全面照合でなく指紋の特徴点を抽出し、この特
徴点の位置関係のパターンから本人を識別しようとする
試みもなされているが、特徴点の再現性は、指および押
捺状態によって大きく左右されるので潜在的に未照合の
要因が多く、また特徴点抽出の処理が複雑で時間が長く
かかるため、価格的にも未だ実用化しえないのが現状で
ある。
On the other hand, attempts have been made to extract the characteristic points of the fingerprint instead of full-scale collation, and to try to identify the individual from the pattern of the positional relationship between the characteristic points.However, the reproducibility of the characteristic points largely depends on the finger and the state of the impression. Therefore, there are many factors that have not been collated yet, and the process of extracting feature points is complicated and takes a long time.

(発明が解決しようとする問題点) この発明は実用的な短い時間(2〜3秒以内)で、し
かも小型CPUで処理できる、安価で実用的な本人識別用
の指紋照合方法を提供することを目的としている。
(Problems to be Solved by the Invention) The present invention provides an inexpensive and practical fingerprint identification method for personal identification that can be processed in a practically short time (within 2 to 3 seconds) and with a small CPU. It is an object.

この発明は、さらに、指紋はその代表的紋様部分を有
効なサイズだけ切り出して比較すれば同一の指紋が殆ど
存在しない事実に注目して、切出し部分の全面照合によ
り処理時間の短縮化を図り、なおかつ、2つの指紋画像
の照合一致点を最も短い時間で、すなわち最少の処理回
数で見つけ出すための効率的な照合点自動追尾方法を提
供することを目的としている。
The present invention further focuses on the fact that the same fingerprint is scarcely present when the fingerprint is cut out from the representative pattern portion by an effective size and compared, and the processing time is shortened by performing full-scale matching of the cut portion. It is still another object of the present invention to provide an efficient method for automatically tracking a matching point for finding a matching point between two fingerprint images in the shortest time, that is, with the minimum number of processings.

(目的を解決するための手段) この発明に用いられる指紋画像は、約13mm×10mmの大
きさで光学的に撮像され、画像は固体撮像素子(CCD)
の2値化出力で記憶される。2値化出力は0.05mm/ビッ
トに相当する。実際に照合に用いられる画像は上記撮像
された中で、その指紋の代表的な紋様部分を表わす約5m
m2の照合用画像である。代表的部分の抽出は、別出願で
も述べる如く撮像画像の隆線密度(隆線本数/単位)を
読取り、該密度が一定値を越える領域の平均アドレスを
中心点として切り出すことにより行なわれる。
(Means for Solving the Object) The fingerprint image used in the present invention is optically imaged in a size of about 13 mm × 10 mm, and the image is a solid-state image sensor (CCD)
Are stored as binarized outputs. The binarized output is equivalent to 0.05 mm / bit. The image actually used for collation is about 5m representing the representative pattern part of the fingerprint in the image taken above.
a verification image of m 2. The extraction of the representative portion is performed by reading the ridge density (the number of ridges / unit) of the captured image as described in another application, and cutting out the average address of a region where the density exceeds a certain value as a center point.

あらかじめ登録されたマスター画像と新たに入力され
たサンプル画像について同一性を識別のため、上記照合
用画像が全面照合される。問題はこのマスター画像とサ
ンプル画像は通常位置がずれているので、その照合一致
点をいかに早く、効率的に最短距離で見つけ出すかとい
う点にある。
In order to identify the identity between the previously registered master image and the newly input sample image, the above-mentioned matching images are entirely matched. The problem is that since the master image and the sample image are usually misaligned, how to find the matching coincidence point quickly and efficiently at the shortest distance.

(実施例) 撮像された指紋画像(256×192ビット)は第1図に示
す如く、XY軸別に隆線本数/単位を読取り、その変化分
を解析して両軸別に密度分布が一定値を越える範囲の平
均アドレスを求め、これを近似中心点と定義する。この
近似中心点は撮像領域や画質変化(画像端の欠落)など
によって変動する近似値である。この近似中心点が、実
際に2つの指紋画像を照合する際の最初の位置合わせに
用いられる。マスター画像及びサンプル画像は、まずそ
の近似中心点を中心に切り出す両照合用画像(96×96ビ
ット)について全面照合される(画像の2値化出力の全
ての値について比較照合する)。幸運な場合はこの最初
の照合で本人と識別される。通常、近似中心点で満足な
照合率が得られず、その周辺に少しずつマスター画像の
位置合わせ基準点をずらせて照合を繰返し、照合一致点
を探索することになる。
(Example) As shown in FIG. 1, the number of ridges / unit is read for each of the XY axes and the change is analyzed to obtain a constant density distribution for each of the two axes of the captured fingerprint image (256 × 192 bits) as shown in FIG. The average address over the range is determined, and this is defined as the approximate center point. The approximate center point is an approximate value that fluctuates due to an imaging region, a change in image quality (missing of an image edge), or the like. This approximate center point is used for the first alignment when actually comparing two fingerprint images. The master image and the sample image are first fully matched with respect to both matching images (96 × 96 bits) cut out from the approximate center point (all values of the binary output of the image are compared and matched). If you are lucky, this first match will identify you. Normally, a satisfactory collation rate cannot be obtained at the approximate center point, and the collation is repeated by shifting the registration reference point of the master image little by little around the central point, and a collation coincidence point is searched for.

従来は、例えば、画像の端から1ビットずつずらせて
正解が得られるまで順次照合処理を行なっていたために
膨大な処理時間を要していたが、この発明の場合は、ほ
ぼ両画像のアドレスが一致している近似中心点から照合
探索が開始できるので、照合一致点に達するまでの時間
が短い。また、近似中心点からどの位の範囲内に照合一
致点があるか実験的に確かめられているので、ある範囲
内のみを探索するだけで別の指紋である旨の判定も簡単
に出せる効果がある。
Conventionally, for example, a huge amount of processing time was required because the matching process was sequentially performed until the correct answer was obtained by shifting one bit at a time from the end of the image. However, in the case of the present invention, the addresses of both images are almost the same. Since the matching search can be started from the matching approximate center point, the time until the matching matching point is reached is short. In addition, since it is experimentally confirmed in which range from the approximate center point the matching coincidence point is located, it is easy to judge that it is another fingerprint simply by searching only within a certain range. is there.

2つの画像を多数例照合した場合、照合率の分布は第
2図の如くなることが確かめられている。すなわち、本
人指紋の場合、照合率70〜96%の発生回数が全回数の95
%を占める。一方、他人指紋の場合では照合率が70%を
越える発生回数は全回数のわずか0.1%未満である。こ
の結果から、照合率80%を実用基準値(照合率80%以上
を本人と判定する基準)とすれば、他人指紋を誤認する
ことなく、十分本人であるとの判定がなされる。
It has been confirmed that when a large number of two images are collated, the distribution of the collation rate is as shown in FIG. That is, in the case of a personal fingerprint, the number of occurrences of the collation rate of 70-96% is 95
Account for%. On the other hand, in the case of other-person fingerprints, the number of occurrences in which the matching rate exceeds 70% is less than 0.1% of the total number. From this result, if the collation rate of 80% is used as a practical reference value (the criteria for judging the collation rate of 80% or more as a person), it is determined that the person is a sufficient person without misidentifying a fingerprint of another person.

前述の如く、この発明ではまず指紋画像は近似中心点
を相互基準として照合処理が開始される。通常は、近似
中心点と両画像の照合一致点とはずれている。
As described above, in the present invention, the fingerprint image is first subjected to the collation processing using the approximate center point as a cross reference. Normally, the approximate center point and the matching coincidence point of the two images deviate from each other.

従って、この近似中心点を中心とする一定範囲(半径
10ビットの円内)に上記マスター画像の照合基準点をず
らしながら、照合一致点の探索を行なう。第3図A1〜D1
に示される最も内側の探索領域を規定領域と定義し、半
径10ビットの円内の各点について規定の順位で照合用画
像の全面照合が継続される。この探索中に80%以上の照
合率を示す点が存在すれば本人であると判定されて照合
処理は終了する。
Therefore, a certain range (radius
A search for a matching point is performed while shifting the matching reference point of the master image to within a 10-bit circle). FIG. 3 A 1 to D 1
Is defined as a defined area, and the entire matching of the matching image is continued in a defined order for each point in a circle having a radius of 10 bits. If there is a point indicating a collation rate of 80% or more during this search, it is determined that the user is the principal and the collation processing ends.

規定領域内に80%以上の照合率を示す点が存在しない
時、規定領域を第3図に示す如く第1〜4象限の4ブロ
ック(図のA1〜D1)に分割し、ブロック別に照合率が一
定値を越える探索点(例えば、60%以上の点)の分布を
蓄積し、この探索点比率を予測係数と定義する。なお、
この予測係数の高かった領域のラジカル方向に両画像の
照合一致点が存在する確率が高いことは、実験的に確認
されている。従って、最高の予測係数を示すブロックの
外側の円内(第2図のA2〜D2のうち、例えば高予測係数
ブロックA1に対してはA2)が、次に照合一致点の探索を
行うのに最も有効な領域と予測できる。この2番目の探
索領域、半径19ビットの円内(第3図のA2〜D2)を第1
の推論領域と定義する。前と同様、この第1の推論領域
の探索ブロック(第3図A2)内に80%以上の照合率を示
す点が存在しない時には、このブロックを2つに分け
(第3図A21とA22)、この2つのブロックのうち予測係
数の高い方の外側へ探索を優先することになる。これが
第3図においてA31、A31…D31、D32に示す半径25ビット
の第2の推論領域である。
When there is no point showing a matching rate of 80% or more in the specified area, the specified area is divided into four blocks (A 1 to D 1 in the first to fourth quadrants) as shown in FIG. The distribution of search points (for example, points of 60% or more) where the matching ratio exceeds a certain value is accumulated, and this search point ratio is defined as a prediction coefficient. In addition,
It has been experimentally confirmed that there is a high probability that the matching point of the two images exists in the radical direction of the region where the prediction coefficient is high. Therefore, the outer circle of the block indicating the highest predictive coefficients (of A 2 to D 2 of FIG. 2, for example, for high prediction coefficient block A 1 A 2) is then searched for matching coincident point Can be predicted as the most effective area for performing In the second search area, a circle with a radius of 19 bits (A 2 to D 2 in FIG. 3)
Is defined as the inference area. As before, when there is no point showing a matching rate of 80% or more in the search block (A 2 in FIG. 3) of the first inference area, this block is divided into two (A 21 in FIG. 3 and A 2 in FIG. 3). A 22 ), the search is prioritized out of the two blocks with the higher prediction coefficient. This is a second inference area having a radius of 25 bits indicated by A 31 , A 31 ... D 31 and D 32 in FIG.

例えば、A1からA2に探索領域を進め、さらにA31に進
んだ時、A31領域での予測係数がA21領域の予測係数より
下がり、かつ、A22領域には予測係数が発生していない
場合がある。この経過の場合は、推論を規定領域内にも
どし、A1に次ぐ高い予測係数を持っていたブロック(こ
の場合はD1)の外側に位置する第1の推論領域(この場
合はD2)、さらに、第2の推論領域(この場合はD32
に探索領域を移行する。これは実験的にY軸上の左側近
辺(AとDの境界領域)に照合一致点が存在している場
合によくある自動追尾の経過である。
For example, it advances the search area from A 1 to A 2, further when proceeding to A 31, the prediction coefficients in the A 31 region is lowered than prediction coefficients A 21 regions, and the A 22 region prediction coefficient is generated May not. In this case, the inference is returned to the prescribed area, and the first inference area (in this case, D 2 ) located outside the block (in this case, D 1 ) having the next highest prediction coefficient after A 1 , And a second inference domain (D 32 in this case)
To the search area. This is the process of automatic tracking that often occurs when a matching match point exists near the left side (the boundary area between A and D) on the Y axis experimentally.

結果として、D32領域にも照合率80%以上の点は存在
しなかったが、予測係数がより高くなった場合、照合一
致点は更に外側のD4領域に存在することが予測される。
この場合はD4領域に探索領域を拡大するのではなく、最
後に探索した領域(この場合D32領域)内で最も照合率
の高かった点を新たな出発点として、これまでの探索と
同じことを改めて行なう。これを自動更新追尾という。
これはD4領域にまで探索領域を拡大するより、新たに探
索開始点を移動して再スタートした方が探索の効率がよ
いからである。
As a result, it did not exist matching ratio of 80% or more points D 32 region, when the prediction coefficients becomes higher, collation coincidence point is expected to further present outside the D 4 region.
This rather than expanding the search area in the D 4 region if, as the last in the search areas (in this case D 32 region) most matching a new starting point higher was the point of rate in the same as the search to this Do it again. This is called automatic update tracking.
This is more to expand the search area to the D 4 area, because there is better to re-start new move search start point is efficient search.

なお、規定領域に60%以上の照合率を示す点が存在し
ない時は第1の推論領域の全ブロックに照合基準点を移
して探索が行なわれる(この場合の第1推論領域は規定
領域の延長として取扱う)。この第1の推論領域にも60
%以上の照合率を示す点が存在しない時は探索は中止さ
れ、照合した両画像は別の指紋であると判定される。な
ぜなら、マスター画像とサンプル画像は近似中心点を最
初の相互基準点としているので、既に、両画像の位置は
ほぼ一致している。そのため本人指紋であれば規定領域
か第1の推論領域内には少なくとも予測係数が発生する
はずである。
When there is no point indicating the matching rate of 60% or more in the specified area, the search is performed by moving the matching reference point to all the blocks in the first inference area (the first inference area in this case is the specified area). Treated as an extension). This first inference area also has 60
When there is no point showing the matching rate of not less than%, the search is stopped, and both matched images are determined to be different fingerprints. Because the master image and the sample image use the approximate center point as the first mutual reference point, the positions of the two images already substantially match. Therefore, in the case of a personal fingerprint, at least a prediction coefficient should be generated in the specified area or the first inference area.

ただし、この発明による照合点自動追尾の全行程を終
了しても、最終的に80%以上の照合率を示す点が存在し
ない場合がある。この場合は本人である確率が第2図か
らみて高いが、指紋画像を撮像する時指の押し具合など
によって生じる画像の歪等によって画像が整合しない例
である。このときは別出願に述べる如く、画像歪を修正
して照合する補正照合が実施される。補正照合による第
2次判定を行なえば、本人であるか他人であるか判別で
きないケースは殆ど皆無に近いことが実験的にも確認さ
れている。
However, even when all the steps of the automatic matching point tracking according to the present invention have been completed, there is a case where there is no point showing a matching rate of 80% or more finally. In this case, the probability of identity is high as shown in FIG. 2, but this is an example in which images are not matched due to image distortion or the like caused by the degree of finger pressing when capturing a fingerprint image. In this case, as described in another application, correction and collation for correcting image distortion and performing collation are performed. It has been experimentally confirmed that if the secondary determination is performed by the correction collation, there is almost no case where it is impossible to determine whether the user is the person or the other person.

一方、照合一致点を探索する経過で、両画像が完全に
一致していなくても照合率が高い値を示す点がある。一
般に照合率は照合一致点に近づくにつれて高くなってい
く。両画面が完全に一致していなくても照合率が80%を
越えれば本人と判定しても何ら問題がない。当然のこと
ながら照合率が80%を越えた時点で照合処理は完了す
る。
On the other hand, in the process of searching for a matching match point, there is a point where the matching rate is high even if the two images do not completely match. Generally, the matching rate increases as the matching point is approached. Even if the two screens do not completely match, if the collation rate exceeds 80%, there is no problem in determining that the user is the person. Naturally, the matching process is completed when the matching rate exceeds 80%.

(発明の効果) この発明の照合点自動追尾(探索)方法は以下の利点
をもつ。
(Effect of the Invention) The automatic matching point tracking (searching) method of the present invention has the following advantages.

(1)この発明の場合の探索開始は、まず両面像の近似
中心点を合わせて照合用画像の全面照合を行なうことか
ら始まる。従って本人指紋の場合、両画像は照合開始時
点でかなり一致点に近い位置関係であり、画像端から順
次照合一致点を探索する従来の方法に比べ非常に探索効
率がよい。
(1) In the case of the present invention, the search is started by first performing the overall matching of the matching image by matching the approximate center points of the two-sided images. Therefore, in the case of a personal fingerprint, the two images have a positional relationship quite close to the matching point at the start of the matching, and the search efficiency is much higher than the conventional method of sequentially searching for the matching matching point from the end of the image.

(2)両画像の照合が近似中心点を探索の開始点とする
ことは、他人指紋の場合の判定も近似中心点近傍の一定
範囲内を探索するだけでできることになり、この判定時
間も非常に短くなる。
(2) When the comparison of both images is performed using the approximate center point as the search start point, the determination in the case of another person's fingerprint can be performed only by searching within a certain range near the approximate center point, and the determination time is very short. Becomes shorter.

(3)この発明の場合の照合点自動追尾方法は、順次、
領域内の照合一致点探索と平行して予測係数を求めてお
り、照合一致点の方向を直ちに予測して、最も確率の高
い次の探索領域を決めることができる。無指向性に探索
領域を拡大する方法に比較してはるかに探索効率がよ
い。
(3) The automatic matching point tracking method in the present invention
The prediction coefficient is calculated in parallel with the search for the matching point in the area, and the direction of the matching point can be immediately predicted to determine the next search area with the highest probability. The search efficiency is much better than the method of expanding the search area omnidirectionally.

(4)照合一致点が第2の推論領域外と予測された場
合、むやみに探索領域を拡大することなく、探索基準点
を自動更新して再スタートすることにより探索時間を短
くできる。
(4) When the matching point is predicted to be outside the second inference area, the search time can be shortened by automatically updating the search reference point and restarting the search without unnecessarily expanding the search area.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の近似中心点を求める実施例を示し、
第2図は照合率分布の実例を示す。第3図はこの発明に
用いる照合点追尾(探索)の領域を説明する図である。 C……近似中心点、A1〜D1……規定領域、A2〜D2……第
1の推論領域、A31、A32〜D31、D32……第2の推論領
域。
FIG. 1 shows an embodiment for obtaining an approximate center point according to the present invention,
FIG. 2 shows an example of the matching rate distribution. FIG. 3 is a diagram for explaining an area of matching point tracking (search) used in the present invention. C: approximate center point, A 1 to D 1 ... defined area, A 2 to D 2 ... first inference area, A 31 , A 32 to D 31 , D 32 ... second inference area.

フロントページの続き (72)発明者 入江 弘己 東京都東村山市諏訪町2丁目11番14号 (72)発明者 中畑 市雄 神奈川県伊勢原市高森5丁目7番504号 (72)発明者 浅羽 泰之 神奈川県相模原市清新1丁目6番20号 (72)発明者 佐々木 道郎 東京都町田市金森1736−3番地 審査官 千葉 輝久Continued on the front page (72) Inventor Hiromi Irie 2-11-14, Suwa-cho, Higashimurayama-shi, Tokyo (72) Inventor Ichio Nakahata 5-7504 Takamori, Isehara-shi, Kanagawa Prefecture (72) Inventor Yasuyuki Asaba Kanagawa (72) Michio Sasaki Inventor 1736-3 Kanamori, Machida-shi, Tokyo Examiner Teruhisa Chiba

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】マスター指紋画像とサンプル指紋画像を照
合してその同一性を識別する方法において、照合を開始
する基準点(例えば、近似中心点)を定め、該基準点を
中心に同心円状の探索範囲を少なくとも3つ設定し、該
基準点を中心とする中心点近傍の円内を4ブロックの扇
形領域(規定領域)に分割し、その外側の規定領域を除
く円内を4〜8ブロックの扇形領域(第1の推論領域)
に分割し、さらにその外側の規定領域及び第1の推論領
域を除く円内を8ブロックの扇形領域(第2の推論領
域)に分割し、規定領域、第1の推論領域、第2の推論
領域の順にマスター画像の照合基準点を移動して照合一
致点を予測しながら探索することを特長とする照合点自
動追尾方法。
In a method for comparing a master fingerprint image and a sample fingerprint image to identify their identity, a reference point (for example, an approximate center point) for starting the comparison is determined, and a concentric circle is formed around the reference point. At least three search ranges are set, a circle near the center point around the reference point is divided into four blocks of a fan-shaped area (defined area), and 4 to 8 blocks are formed in the circle excluding the defined area outside the circle. Fan-shaped area (first inference area)
And further divides the inside of the circle excluding the outside of the defined region and the first inference region into eight blocks of fan-shaped regions (second inference regions), and defines the defined region, the first inference region, and the second inference region. A matching point automatic tracking method characterized in that a matching reference point of a master image is moved in the order of regions and a search is performed while predicting a matching point.
【請求項2】規定領域で照合一致点が存在しなかった
時、最も予測係数の高かった規定領域の外側の第1の推
論領域を次に探索することを特長とする特許請求の範囲
第1項記載の照合点自動追尾方法。
2. The method according to claim 1, wherein when there is no matching coincidence point in the specified area, a first inference area outside the specified area having the highest prediction coefficient is searched next. Automatic tracking method of the collation point described in the item.
【請求項3】規定領域及び第1の推論領域のいずれにも
一定基準以上の照合率を示す点が存在しない時、両画像
は別のものであると判定することを特長とする特許請求
の範囲第1項記載の照合点自動追尾方法。
3. The method according to claim 1, wherein when there is no point indicating a matching rate equal to or higher than a predetermined reference in both the specified area and the first inference area, the two images are determined to be different. The method for automatically tracking a collation point according to claim 1.
【請求項4】第1の推論領域にも照合一致点は存在しな
かったが、予測係数が発生した時は、この予測係数と規
定領域内での予測係数を比較して、増加した時は優先的
にその外側の第2の推論領域を探索し、減少した時は規
定領域での予測順位に従って第1の推論領域の別ブロッ
クを次に探索することを特長とする特許請求の範囲第2
項記載の照合点自動追尾方法。
4. A collation coincidence point does not exist in the first inference region. However, when a prediction coefficient is generated, the prediction coefficient is compared with the prediction coefficient in the specified region. 2. The method according to claim 1, wherein the second inference area outside the first inference area is preferentially searched, and when the number decreases, another block in the first inference area is searched next according to the prediction order in the specified area.
Automatic tracking method of the collation point described in the item.
【請求項5】規定領域及び第1、第2の推論領域とも照
合一致点が存在せず、かつ予測係数が順次増加している
場合(第2の推論領域の外側に照合一致点が存在すると
予測される場合)、最終探索領域の最高照合率点を新た
な照合開始点として前記第1〜第4項の自動追尾を再ス
タートさせることを特長とする特許請求の範囲第4項記
載の照合点自動追尾方法
5. A case where no matching coincidence point exists in both the specified area and the first and second inference areas and the prediction coefficient is sequentially increased (when a matching coincidence point exists outside the second inference area). 5. The collation according to claim 4, wherein the automatic tracking of the first to fourth items is restarted using the highest collation rate point in the final search area as a new collation start point. Point automatic tracking method
JP61306643A 1986-12-24 1986-12-24 Automatic Matching Point Tracking Method for Fingerprint Matching Expired - Lifetime JP2575676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61306643A JP2575676B2 (en) 1986-12-24 1986-12-24 Automatic Matching Point Tracking Method for Fingerprint Matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61306643A JP2575676B2 (en) 1986-12-24 1986-12-24 Automatic Matching Point Tracking Method for Fingerprint Matching

Publications (2)

Publication Number Publication Date
JPS63159990A JPS63159990A (en) 1988-07-02
JP2575676B2 true JP2575676B2 (en) 1997-01-29

Family

ID=17959569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61306643A Expired - Lifetime JP2575676B2 (en) 1986-12-24 1986-12-24 Automatic Matching Point Tracking Method for Fingerprint Matching

Country Status (1)

Country Link
JP (1) JP2575676B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2680882B2 (en) * 1989-02-17 1997-11-19 富士通株式会社 Fingerprint collation device
JP4940925B2 (en) * 2006-12-13 2012-05-30 ヤマハ株式会社 Speaker device

Also Published As

Publication number Publication date
JPS63159990A (en) 1988-07-02

Similar Documents

Publication Publication Date Title
US7787667B2 (en) Spot-based finger biometric processing method and associated sensor
US6876757B2 (en) Fingerprint recognition system
JP2575676B2 (en) Automatic Matching Point Tracking Method for Fingerprint Matching
JP2877533B2 (en) Fingerprint collation device
EP1454286B1 (en) Method and device for matching fingerprints
JP2788527B2 (en) Fingerprint matching method
JP2549107B2 (en) Corrective matching and secondary rematching method in fingerprint matching
JP2730179B2 (en) Fingerprint matching method and device
JP2868909B2 (en) Fingerprint collation device
JP2795921B2 (en) Personal authentication device
JP2951472B2 (en) Fingerprint matching device and fingerprint matching method
JPH0433065A (en) Fingerprint collating device
JP2974857B2 (en) Fingerprint dictionary registration processing method
JPH09330408A (en) Fingerprint collating device
JP2788529B2 (en) Dictionary registration method for fingerprint matching device
JP2871157B2 (en) Fingerprint registration collation method
JPH1185994A (en) Method and device for fingerprint matching
JP2795922B2 (en) Fingerprint image thinning processing method
JP2698453B2 (en) Fingerprint matching method
JP2919653B2 (en) Fingerprint collation device
JP2880587B2 (en) Fingerprint collation device
JP2873647B2 (en) Feature point extraction method and feature point extraction device for fingerprint
JP2634666B2 (en) Personal verification device
JP2899159B2 (en) Fingerprint collation device
JP2864685B2 (en) Fingerprint data registration device