JPH0452974A - Fingerprint pattern sorting device - Google Patents

Fingerprint pattern sorting device

Info

Publication number
JPH0452974A
JPH0452974A JP2161774A JP16177490A JPH0452974A JP H0452974 A JPH0452974 A JP H0452974A JP 2161774 A JP2161774 A JP 2161774A JP 16177490 A JP16177490 A JP 16177490A JP H0452974 A JPH0452974 A JP H0452974A
Authority
JP
Japan
Prior art keywords
fingerprint
classification
ridge line
ridge
tendency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2161774A
Other languages
Japanese (ja)
Other versions
JP2613959B2 (en
Inventor
Tatsuro Shibuya
渋谷 達郎
Isamu Suzuki
勇 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI SECURITY SYST KK
Original Assignee
NIPPON DENKI SECURITY SYST KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI SECURITY SYST KK filed Critical NIPPON DENKI SECURITY SYST KK
Priority to JP2161774A priority Critical patent/JP2613959B2/en
Publication of JPH0452974A publication Critical patent/JPH0452974A/en
Application granted granted Critical
Publication of JP2613959B2 publication Critical patent/JP2613959B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To realize stable and correct pattern sorting by providing a sorting means to sort a fingerprint pattern into plural predetermined fingerprint assortments according to the shape of the ridge line and the tendency of the ridge line direction of a collected fingerprint picture. CONSTITUTION:The fingerprint picture is collected by a picture input part 10, and is photoelectric-converted, and is outputted as two-dimensional picture data by an A/D converting part 11. Then, in a sorting processing part 18, this two-dimensional picture is divided into plural grid-shaped areas, and the ridge line direction of the fingerprint in a corresponding area is detected for every area, and the center position of the finger print is detected from the ridge line direction, and the shape of the ridge line is discriminated from the ridge line direction and the center position, and the tendency of the ridge line is discriminated from the ridge line direction and the center position, and the fingerprint is sorted into plural predetermined fingerprint assortments according to these of the shape of the ridge line and the tendency of the ridge line direction. Thus, the stable and correct fingerprint sorting can be realized.

Description

【発明の詳細な説明】 従来分野 本発明は指紋紋様分類装置に関し、特に採取指紋の紋様
を自動分類する指紋紋様分類装置に関する。
DETAILED DESCRIPTION OF THE INVENTION BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fingerprint pattern classification device, and more particularly to a fingerprint pattern classification device for automatically classifying the patterns of collected fingerprints.

従来技術 従来の隆線方向から得られる特徴を用いた分類方式とし
ては、予め作成しておいた標準パターンとのマツチング
(後藤、中村、南、奥野; “方向分布パターンによる
指紋画像の分類”、信学技報vo1.81. no、2
10. IE81.−48)や、隆線をベクトル場とみ
なしてその回転の線積分や発散の面積分の値を用いて(
野田、火照、小林、加藤; “指紋バタ−ン分類機”、
電子通信学会、 I〕R1,73−97)分類の基準と
なる指紋の中心(以降、コアと称する)や隆線によ−フ
て、二角形状に形成される二角洲(以降、デルタと称す
る)の有無、個数および位置によ−資で分類する方式が
提案されている。
Prior Art Conventional classification methods using features obtained from ridge directions include matching with a standard pattern created in advance (Goto, Nakamura, Minami, Okuno; "Classification of fingerprint images based on directional distribution patterns"; IEICE Technical Report vol. 1.81. no. 2
10. IE81. -48), or by considering the ridge as a vector field and using the line integral of its rotation and area integral of its divergence (
Noda, Keteru, Kobayashi, Kato; “Fingerprint pattern classification machine”,
IEICE, I]R1, 73-97) A digonal shape formed in a diagonal shape (hereinafter referred to as a delta) is formed by the center (hereinafter referred to as the core) and ridges of the fingerprint, which is the standard for classification. A method has been proposed in which materials are classified based on the presence or absence, number, and location of materials.

」−述した従来の方式では、デルタの有無が分類処理上
、重要な役割を果たしているが、デルタは指紋−」−1
の存在位置によっては、採取することが困難であるとい
う欠点を持っている。特に遺留指紋を対象とする犯罪捜
査用指紋照合装置においては、デルタの欠落した指紋を
処理することか多く、デルタの分類への利用は通常不可
能である。
"-In the conventional method described above, the presence or absence of deltas plays an important role in the classification process, but deltas are fingerprints."-1
It has the disadvantage that it is difficult to collect depending on its location. In particular, in a fingerprint matching device for criminal investigation that targets latent fingerprints, fingerprints with missing deltas are often processed, and it is usually impossible to use deltas for classification.

また、標準パターンマツチングによるコアやデルタの抽
出は、予め作成しておく標準パターンに」−〕でその抽
出に大きな影響を及はすという問題点がある。
Furthermore, the extraction of cores and deltas by standard pattern matching has a problem in that the standard patterns prepared in advance have a large effect on the extraction.

発明の目的 そこで、本発明はかかる従来技術の欠点を解決すべくな
されたものであって、その1」的とするところは、イミ
安定なデルタによる分類によることtAく、安定かつ正
確な紋様分類を可能と[、た指紋紋様分類装置を提供す
ることにある。
OBJECT OF THE INVENTION Therefore, the present invention has been made to solve the drawbacks of the prior art, and its first objective is to achieve stable and accurate pattern classification using stable delta classification. An object of the present invention is to provide a fingerprint pattern classification device that enables the following.

発明の構成 本発明による指紋紋様分類装置は、指紋画像を採取して
2次元画像データとして出力する手段と、この2次元画
像を格子状に複数の領域に分割(2、これ等各領域毎に
前記指紋のその領域での隆線方向を検出する手段と、前
記領域の各隆線方向から前記指紋の中心位置を検出する
手段と、前記隆線方向及び前記中心位置から隆線の形状
を判定する手段と、同じく前記隆線方向及び前記中心位
置から隆線方向の傾向を判定する手段と、これら隆線の
形状及び前記隆線方向の傾向によって予め定められた複
数の指紋分類別の指紋紋様の分類をなす分類手段とを含
むことを特徴としている。
Structure of the Invention The fingerprint pattern classification device according to the present invention includes means for collecting a fingerprint image and outputting it as two-dimensional image data, and dividing the two-dimensional image into a plurality of regions in a grid pattern (2). means for detecting a ridge direction in that area of the fingerprint; means for detecting a center position of the fingerprint from each ridge direction in the area; and determining a ridge shape from the ridge direction and the center position. a means for determining the ridge direction and a tendency in the ridge direction from the center position; and a fingerprint pattern for each of a plurality of fingerprint classifications predetermined based on the shape of the ridges and the tendency in the ridge direction. It is characterized in that it includes a classification means for classifying.

実施例 以下、本発明の実施例について図面を参照して説明する
Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings.

第1図は本発明の一実施例を示すブロック図である。本
実施例では、透明体上に載置された指紋画像もしくは、
押捺原紙士に押捺された指紋画像を抹取]−1光電変換
する画像入力部]0と、光電変換信号を2次元量子化画
像データに変換するA、D変換部11と、指紋画像の入
力制御を行・う画像人力制御部12と、2次元t’F化
画像データを記憶する画像記憶部]3と、分類対象とな
る指紋画像に関する情報を入力する人力部1く)と、分
類結果および各種メツセージを出力する出ツノ部2()
と19画像記憶部13から画像データを入力するこ4と
により分類を行う分類処理部18とを含む。
FIG. 1 is a block diagram showing one embodiment of the present invention. In this example, a fingerprint image placed on a transparent body or
An image input unit for photoelectric conversion]0, A and D conversion units 11 for converting photoelectric conversion signals into two-dimensional quantized image data, and input of a fingerprint image. An image control section 12 that performs control, an image storage section that stores two-dimensional t'F image data]3, a human control section 1 that inputs information regarding fingerprint images to be classified, and a classification result. and output section 2 () that outputs various messages.
and a classification processing unit 18 that performs classification by inputting image data from the image storage unit 13.

分類処理部18は、画像記憶部1゛3からの画像デ タ
と人力部19からの分類対象となる指紋画像に関する情
報とを人力とLかっ出力部20にt(Jカオる外部イン
タフj−−−−ス14と、作業メモリ17と、ブIJグ
ラノ・か格納されているプロゲラl、メモリ16と、ブ
ログラノ・により制御される中央処理部15とにより構
成されている。
The classification processing unit 18 inputs the image data from the image storage unit 1-3 and the information regarding the fingerprint image to be classified from the human power unit 19 to the output unit 20 via an external interface. --- It is composed of a computer programmer 14, a work memory 17, a memory 16 in which a computer is stored, and a central processing unit 15 that is controlled by the computer.

指紋入力部1〔〕については特開開54−49300号
公報および特開昭54−85600号公報に記載されて
いる、透明体上に載置された指に対して光源から光にょ
る光学的境界条件を利用【、i’:’、  I TV 
(tndustrial television)等の
撮像装置により指紋紋様パターンの充電変換像を人力す
る装置や、特開昭55−138174号公報に記載され
ている、押捺原紙1−の指紋画像を入力する装置があり
利用され得る。
Regarding the fingerprint input unit 1 [], an optical method using light emitted from a light source against a finger placed on a transparent body is described in Japanese Patent Laid-Open No. 54-49300 and Japanese Patent Laid-Open No. 54-85600. Using boundary conditions [,i':', I TV
There is a device that manually captures a charging conversion image of a fingerprint pattern using an image pickup device such as (tndustrial television), and a device that inputs a fingerprint image of stamped paper 1, which is described in Japanese Patent Application Laid-open No. 55-138174. can be done.

本発明では、第2図に示されるような上段の紋様に対し
て、隆線の形状(第2図中段)を検出し、隆線り向の傾
向(第2図ト′段)を決定することにより紋様分類を行
う。尚、第2図上段の紋様中の破線は、コアか存在する
列を示す。
In the present invention, the shape of the ridges (middle row in FIG. 2) is detected for the pattern in the upper row as shown in FIG. This allows for pattern classification. Incidentally, the broken lines in the pattern in the upper part of FIG. 2 indicate the rows where cores are present.

第′3図は本発明の一実施例の動作を示すフローチャー
トである。先ず、ステップ310においては、画像記憶
5部1.3から外部インタフェイス14を通して指紋画
像が入力される。ステップ31.、 Iにおいては、隆
線方向から特徴が抽出され、ステップ312においては
、コアを含む領域が抽出れさる。
FIG. '3 is a flowchart showing the operation of one embodiment of the present invention. First, in step 310, a fingerprint image is input from the image storage 5 section 1.3 through the external interface 14. Step 31. , I, features are extracted from the ridge direction, and in step 312, the region containing the core is extracted.

第4図は本実施例における採取指紋画像の処理方法を示
す図であり、採取された2次元画像40を略格子状に、
複数の領域(以下ゾーンと称す)に分割17、各ゾーン
毎に、隆線り向を検出してゾ−ンデータ42として処理
されるようになっている。
FIG. 4 is a diagram showing a method of processing collected fingerprint images in this embodiment, in which the collected two-dimensional image 40 is arranged in a substantially grid pattern,
It is divided into a plurality of regions (hereinafter referred to as zones) 17, and the ridge direction is detected for each zone and processed as zone data 42.

各ゾーン毎の隆線方向を、第5図に示す如く、例えば3
60度を16等分して16方向の1つにラベル化(0〜
15)して得られた特徴であるゾーンデータを用いる。
For example, the ridge direction for each zone is 3 as shown in FIG.
Divide 60 degrees into 16 equal parts and label in one of 16 directions (0 to
15) Use the zone data that is the characteristic obtained.

尚、8等分、32等分、64等分なども考えられる。Note that 8 equal parts, 32 equal parts, 64 equal parts, etc. can also be considered.

第4図において、ゾーン41はコアを含む領域であり、
ゾーン42は方向確定領域であり、ゾーン43は、隆線
が存在するがその方向が確定できない不確定領域であり
、ゾーン44は隆線が存在しないノンデータ領域を表わ
している。
In FIG. 4, zone 41 is a region containing the core,
Zone 42 is a direction-determined region, zone 43 is an uncertain region where ridges exist but whose direction cannot be determined, and zone 44 represents a non-data region where ridges do not exist.

上記ステップ311における隆線方向からの特徴(ゾー
ンデータ)の抽出処理では、第4図に示したゾーンデー
タを抽出する必要があり、またステップ312ではコア
を含むゾーン41の抽出処理が必要であるが、これ等処
理は特開昭55−138174号公報及び本願出願人に
よる特願昭63−099334号、特願昭63−099
385号、特願昭63−099336号の各明細書に詳
記されているので、ここでは省略する。
In the process of extracting features (zone data) from the ridge direction in step 311, it is necessary to extract the zone data shown in FIG. 4, and in step 312, it is necessary to extract the zone 41 including the core. However, these processes are disclosed in Japanese Patent Application Laid-Open No. 138174/1982 and Japanese Patent Application No. 63-099334 and Japanese Patent Application No. 63-099 filed by the applicant.
No. 385 and Japanese Patent Application No. 63-099336, the detailed description is omitted here.

次のステップ313では、ステップ311,312から
得られたゾーンデータ及びコアを含むゾーンから隆線の
形状の検出判定がなされる。その方法を第6図を用いて
説明する。
In the next step 313, the shape of the ridge is detected and determined from the zone data obtained from steps 311 and 312 and the zone including the core. The method will be explained using FIG.

コアを含むゾーン41を起点として、枠52内で、y軸
(指の関節に垂直な方向軸)の負から正の方向を主走査
方向とし、コアを含むゾーン4〕を中心としたX軸(指
の関節に平行な方向軸)の正及び負の双方向に副走査し
て、方向確定ゾーン42についてのみ、第5図に示した
方向ラベルの有無及び種別が調べられる。これにより、
y軸方向主走査線上の隆線の形状が検出されることにな
る。
Starting from the zone 41 containing the core, within the frame 52, the negative to positive direction of the y-axis (direction axis perpendicular to the finger joints) is the main scanning direction, and the X-axis is centered on the zone 4 containing the core. By sub-scanning in both the positive and negative directions (direction axis parallel to the finger joints), the presence or absence and type of the direction label shown in FIG. 5 is checked only for the direction determination zone 42. This results in
The shape of the ridge on the main scanning line in the y-axis direction is detected.

例えば、第6図の例では、第2図中段に示す右流蹄状紋
(No、2)に対応する隆線の形状が検出されることに
なる。
For example, in the example shown in FIG. 6, the shape of the ridge corresponding to the right flow hoof pattern (No. 2) shown in the middle row of FIG. 2 is detected.

第6図における枠52の決定方法は、以下の如くである
。枠52の上限はコアを含むゾーン41を含む行であり
、この行を起点としてX軸の負から正の方向を主走査方
向とし、y軸の負から正の方向へ副走査し、走査上の方
向確定ゾーン42の各方向ラベルの数を計算し、下式に
より水平傾向Hを算出する。
The method for determining the frame 52 in FIG. 6 is as follows. The upper limit of the frame 52 is the line that includes the zone 41 including the core, and from this line as the starting point, the main scanning direction is from the negative to the positive direction of the X axis, and the sub scanning is from the negative to the positive direction of the y axis. The number of labels in each direction of the direction determination zone 42 is calculated, and the horizontal tendency H is calculated using the following formula.

H−[1,QOx a (0) +0.05x (a 
(1) + a (7) )+0.05x (a(2)
 +a(8) l ] / [1,00x (a(0)
 +a(4) ) +0.05x (a(1) +a(
3) +a(5)+a(7) ) +2XO,05X 
(a(2) 十a(6) ) ]但し、a(n)は走査
上に存在するラベルnの方向確定ゾーン数である。
H-[1, QOx a (0) +0.05x (a
(1) + a (7) )+0.05x (a(2)
+a(8) l ] / [1,00x (a(0)
+a(4) ) +0.05x (a(1) +a(
3) +a(5)+a(7) ) +2XO,05X
(a(2) 10a(6) )] where a(n) is the number of direction-determined zones of label n existing on the scan.

そして、各走査について上記により算出された値Hと予
め定めた閾値Slとを比較し、H<SLの条件を満足す
る最初の走査となる行を、枠52の下限とするのである
Then, the value H calculated above for each scan is compared with a predetermined threshold value Sl, and the row that is the first scan that satisfies the condition H<SL is set as the lower limit of the frame 52.

尚、副走査数が奇数のときには、更にy軸の負正方向へ
1行下を下限とする。
Note that when the number of sub-scans is an odd number, the lower limit is one line further down in the negative and positive directions of the y-axis.

枠52の左右限は第6図の如く2次元画像データ40の
左右限とするが、左右2〜3列は不鮮明であり、ゾーン
データとなり得ないことが多いので、これ等2〜3列を
除いても良い。
The left and right limits of the frame 52 are the left and right limits of the two-dimensional image data 40 as shown in FIG. You can exclude it.

ステップ314における隆線方向の傾向を決定する方法
を第7.8図にもとづい述べる。まず、第7図に示すよ
うな長方形枠61を設け、この枠内に存在する方向確定
ゾーン42のみを対象とし、方向確定ゾーン42の各方
向ラベルの数を計算し、その値を基に隆線方向の傾向を
算出する。
The method for determining the tendency of the ridge direction in step 314 will be described based on FIG. 7.8. First, a rectangular frame 61 as shown in FIG. 7 is provided, and only the direction determination zone 42 that exists within this frame is targeted.The number of direction labels in each direction determination zone 42 is calculated, and based on that value, the direction Calculate the trend in the linear direction.

例えば、枠61内における左下から右上への方向の傾向
りは、下式を用いて算出される。
For example, the tendency in the direction from the lower left to the upper right within the frame 61 is calculated using the following formula.

L−[1,00x a (2) +〇、05x  (a
 (]、) + a (3) )+0.05x fa(
0) +a(4) l ] / [1,OOx (a(
2) +a(8) ) +0.50X fa(1) +
a(3) +a(5)+a(7) ) +0.05x 
(a(0) +a(4) l  X2]この様にして算
出された値りと予め定められた閾値とを比較することに
より、隆線方向の傾向が決定される。
L-[1,00x a (2) +〇,05x (a
(],) + a (3) )+0.05x fa(
0) +a(4) l ] / [1,OOx (a(
2) +a(8) ) +0.50X fa(1) +
a(3) +a(5)+a(7) ) +0.05x
(a(0) +a(4) l X2) By comparing the value calculated in this manner with a predetermined threshold value, the tendency of the ridge direction is determined.

尚、枠61の上限、下限は枠52の上限、下限と同一で
あり、左限はコアを含むゾーン41を含む列、右限はこ
の列に対してX軸の正方向の次の列である。
The upper and lower limits of the frame 61 are the same as those of the frame 52, and the left limit is the column containing the zone 41 including the core, and the right limit is the column next to this column in the positive direction of the X axis. be.

次に、第8図に示す様な2つの長方形の枠62゜63を
設け、上記と同様な計算を夫々行って各々の()シ内の
隆線ノJ向の傾向を決定する。本例では、第′:2図1
・段に;J−ず右流蹄状紋(No、2)に相当する隆線
方向の傾向が決定される。
Next, two rectangular frames 62 and 63 as shown in FIG. 8 are provided, and calculations similar to those described above are performed for each frame to determine the tendency of the ridges in each parentheses in the J direction. In this example,
- Step; The tendency of the ridge direction corresponding to the J-zu right flow hoof pattern (No. 2) is determined.

尚、第8図の枠62.67.3の決定は以上の如くt″
ある。枠02の左限、枠63の左限は、第()図の枠シ
:)2の上限から1限までの幅を2等分し一ζ決定され
る。枠62の1−限は枠52の1限であり、枠0゛3の
下限は枠52のT;眼である。
The frames 62, 67, and 3 in Figure 8 are determined as described above.
be. The left limit of the frame 02 and the left limit of the frame 63 are determined by dividing the width from the upper limit of the frame 2 in FIG. The 1-limit of the frame 62 is the 1-limit of the frame 52, and the lower limit of the frame 0゛3 is the T; eye of the frame 52.

そ1−ζ、y軸の負から正方向を主走査と1.て、7ア
を工むゾーン711を中心としたX軸の止及び負の双方
向に副走査(、走査土の方向確定ゾーン42の各方向ラ
ベルの数を討算し、下式により垂直傾向■を決定する。
1-ζ, the main scan from the negative to the positive direction of the y-axis and 1. Then, perform sub-scanning in both the negative and negative directions of the X-axis centering on the zone 711 where 7A is created. ■Determine.

V  =   [1,00x  a  (4)   →
−0,50X   f  a  (3)   + a 
 (5)  )+−0,05x (a(2> +a(f
i) ) ] / [1,,00x  ta(0)  
→−a(4)  l   +0.50x   fa(1
)  +a(3)   +a(5)+a(7) ) 4
−2X0.05x (a(2) +a(B) ) ]6
名5Lについて、上式により算出された値Vと予め定め
られた閾値S2とを比較し、V<52の条件を満足する
最初の走眉となる列を、枠6263の左限、右限とする
の”Cある。
V = [1,00x a (4) →
-0,50X f a (3) + a
(5) )+-0,05x (a(2>+a(f
i) ) ] / [1,,00x ta(0)
→-a(4) l +0.50x fa(1
) +a(3) +a(5)+a(7) ) 4
-2X0.05x (a(2) +a(B) ) ]6
For the name 5L, the value V calculated by the above formula is compared with the predetermined threshold S2, and the column that will be the first eyebrow that satisfies the condition of V<52 is determined as the left limit and right limit of the frame 6263. There is a “C” to do.

この様に、ステップ314においご第7図尺び第8図の
工法を用いて2段階に分け(隆線プノ向の傾向を判定1
3.ている理由は以上の如くである。
In this way, in step 314, the construction method shown in Figure 7 and Figure 8 is used to divide the construction into two stages (the tendency of the ridge toward the
3. The reason for this is as above.

すなわち、先ず、枠62,6うを用いこ求めた隆線方向
の傾向か第2図−ト段に示4″普通弓状紋(No、5)
に対応するか盃かを決定し7、女・j応1゜なければ、
枠61を用いて求めた隆線り同傾向か第2図F段のNo
、l〜N0.4のい1れに属するか決定して、最終的な
隆線方向の傾向を判定するよう(Jし゛でいるのである
That is, first, the tendency of the ridge direction determined using the frames 62 and 6 is the 4" normal arcuate pattern (No. 5) shown in FIG.
Decide whether it corresponds to 7, and if it is not 1゜,
Does the ridge obtained using frame 61 have the same tendency?
, l to N0.4, and determine the final tendency of the ridge direction (J).

ステップ315においでは、ステップ313で検出され
た隆線の形状とステップ314て決定された隆線方向の
傾向とを、第2図に幻応させることによっ“C分類を行
う。
In step 315, "C classification" is performed by comparing the shape of the ridge detected in step 313 and the tendency of the ridge direction determined in step 314 to that shown in FIG.

ステップ316においては、入力指紋画像が低品質であ
るか否かを不確定ゾーン43を用いて判定する。この判
定方法を第6図にもとづいて述べる。
In step 316, the uncertainty zone 43 is used to determine whether the input fingerprint image is of low quality. This determination method will be described based on FIG.

まず、ステップ315における分類で普通弓状紋(No
、5)以外に分類された入力指紋画像については、第6
図に示すような枠52を設け、その枠内てステップ31
3の隆線形状の検出と同様に、コアを含むゾーン41を
起点と(2、Y軸の負から+1(の方向に走査する。
First, in the classification in step 315, the normal arcuate pattern (No.
, 5) For input fingerprint images classified other than 5), the 6th
A frame 52 as shown in the figure is provided, and step 31 is performed within the frame.
Similarly to the detection of the ridge shape in step 3, the zone 41 including the core is scanned from the starting point (2, in the direction of +1 (from the negative side of the Y axis).

こごては、不確定シー=ン43のみを対象とするものと
し、ステップ3I(〕で右流蹄状紋(NO,2)と分類
された人力指紋画像についてはコアを含むシン4]を中
ノしiとしてX座標のIFの方向を副走査とし、ステッ
プ315”c左流蹄状紋(No、3)と分類された人力
指紋画像につい°Cはコアを工むゾ、−ン4]を中心と
し、てX座標の負の方向を副走査とし、ステップ3コ−
5で突起弓状紋(No、4)と分類された人力指紋画像
につい°Cはコノ′を八むゾーン41を中心としζX座
標の正と負の双方向を副走査として、各y軸方向主走査
に合作する不確定ゾーン43の存在する割合を計算し、
〜・定の割合以上不確定ゾーン43か存在する主走査数
(以降、不良列と称する)を基に入力指紋画像が低品質
であるか否かを判定する。
The target is only the uncertain scene 43, and for the human fingerprint image classified as the right loop pattern (NO, 2) in step 3I (), the scene 4 including the core is selected. The direction of the IF of the X coordinate is used as the sub-scan as the center point i, and in step 315, the core is created for the human fingerprint image classified as the left loop pattern (No. 3). ], and set the negative direction of the X coordinate as the sub-scan, and perform step 3 code.
Regarding the human fingerprint image classified as a protrusion arcuate pattern (No, 4) in 5, °C is centered on the zone 41 surrounding Kono', and the positive and negative directions of the ζX coordinate are used as sub-scans, and each y-axis direction is Calculate the proportion of the uncertainty zone 43 that cooperates with main scanning,
. . . Determine whether or not the input fingerprint image is of low quality based on the number of main scans in which the uncertainty zone 43 exists at a certain rate or more (hereinafter referred to as a defective column).

また、ステップ315において普通弓状紋(No、5)
と分類された入力指紋画像については、第8図に示す2
つの長方形の枠62.6−3において、各枠内に存在す
る不確定ゾーン43の割合によって低品質であるか否を
かを判定する。
Also, in step 315, a normal arcuate pattern (No, 5) is selected.
For the input fingerprint image classified as 2 as shown in FIG.
In the two rectangular frames 62.6-3, it is determined whether the quality is low or not based on the proportion of the uncertain zone 43 that exists within each frame.

ステップ317においては、ステップ31.8で判定さ
れた低品質の人力指紋画像について分類拒絶(以降、リ
ジェクトと称する)の対ψであるか、再分類の対象であ
るかを判定する。その方法はステップ316で用いた不
良列の数によって判定をするものであるが、ステップ3
1.6で低品質と判定された入力指紋画像と判定された
普通弓状紋に−)いてはりジJクトの対象とする。本ス
テップ317においてリジェクトの対象と判定された人
力指紋画像については、ステップ31.8において外部
インタフェース14を通して出力部20により本ステッ
プ31.7の結果が出力される。
In step 317, it is determined whether the low-quality human fingerprint image determined in step 31.8 is a pair ψ of classification rejection (hereinafter referred to as "reject") or a target of reclassification. In this method, the determination is made based on the number of defective columns used in step 316, but in step 3
In step 1.6, the input fingerprint image determined to be of low quality and the normal arcuate pattern determined to be of low quality are used as the target of the image. For the human fingerprint image determined to be rejected in this step 317, the result of this step 31.7 is outputted by the output unit 20 through the external interface 14 in step 31.8.

ステップ319においては、ステップ316で再分類の
対象であると判定された人力指紋画像を補正する。その
方法は公知する手法である確立的弛緩法を用いて行い、
補正後再びステップ312以降を適応して行う。尚、こ
の確立的弛緩法については、”Ra5enfeld:I
TERTIVE METHODS IN IMAGE 
ANALYSIs” 、 Proc、IEEE Con
f、P、R& 1.Pl、4/1.8(1977)に開
示されている。
In step 319, the human fingerprint image determined to be a target for reclassification in step 316 is corrected. The method is carried out using the established relaxation method, which is a known method.
After the correction, steps 312 and subsequent steps are performed again. Regarding this established relaxation method, please refer to "Ra5enfeld: I
TERTIVE METHODS IN IMAGE
ANALYSIs”, Proc, IEEE Con
f, P, R&1. Pl, 4/1.8 (1977).

ステップ320においては、ステップ313で検出され
た隆線の形状とその位置、そしてステップ3I4で決定
された隆線方向の傾向を第9図と対応させることにより
、分類処理対象となる入力指紋画像が第2分類候補を持
つか否かを判定する。
In step 320, the shape and position of the ridge detected in step 313, and the tendency of the ridge direction determined in step 3I4 are correlated with those in FIG. 9, so that the input fingerprint image to be classified is It is determined whether there is a second classification candidate.

本ステップ320において分類処理対象となる入力指紋
画像が第2分類候補を持たないと判定された場合、ステ
ップ318において外部インタフェース4を通して出力
部20よりステップ315の分類結果が出力される。
If it is determined in this step 320 that the input fingerprint image to be classified does not have a second classification candidate, the classification result of step 315 is output from the output unit 20 through the external interface 4 in step 318.

ステップ321においては、第2分類候補を持つと判定
された分類処理対象となる入力指紋画像の第2分類候補
を決定する。その方法は、分類処理対象となる入力指紋
画像のステップ315の分類結果(第9図1段目)、ス
テップ313て検出された隆線形状とその位置(第9図
3段目)そしてステップ314て決定された隆線方向の
傾向(第9図4段目)を、第9図2段目と対応させるこ
とにより第2分類候補を決定する。尚、第9図3段目中
の矢印は、検出された隆線の形状とコアを含む列との距
離を示すものである。
In step 321, a second classification candidate is determined for the input fingerprint image to be classified that is determined to have a second classification candidate. This method consists of the classification result of the input fingerprint image to be classified in step 315 (first row in FIG. 9), the ridge shape and its position detected in step 313 (third row in FIG. 9), and step 314. A second classification candidate is determined by associating the determined ridge direction tendency (fourth row in FIG. 9) with the second row in FIG. Note that the arrow in the third row of FIG. 9 indicates the distance between the shape of the detected ridge and the row containing the core.

ステップ320において、分類処理対象となる入力指紋
画像か第2分類候補を持つと判定された場合は、ステッ
プ318において外部インタフェース14を通して出力
部20よりステップ31.5の分類結果とステップ32
1で決定された第2分類候補が出力される。
If it is determined in step 320 that the input fingerprint image to be classified has a second classification candidate, in step 318 the output unit 20 outputs the classification results of step 31.5 and step 32 through the external interface 14.
The second classification candidates determined in step 1 are output.

以上のようにして本実施例は、ゾーンデータのコアの位
置から分類を行うものである。
As described above, in this embodiment, classification is performed based on the position of the core of zone data.

発明の詳細 な説明したように、本発明によれば、既存の自動指紋照
合システムにおいて用いられているゾーンデータにより
、隆線の形状の検出および隆線方向の傾向の決定によっ
て分類を行うため、安定した指紋紋様分類が可能となる
という効果がある。
DETAILED DESCRIPTION OF THE INVENTION As described in detail, according to the present invention, classification is performed by detecting the shape of ridges and determining the tendency of the ridge direction using zone data used in existing automatic fingerprint verification systems. This has the effect of enabling stable fingerprint pattern classification.

さらには、デルタの存在が保障されない遺留指紋の分類
についても分類効果が得られるものである。
Furthermore, the classification effect can also be obtained for classification of latent fingerprints in which the existence of deltas is not guaranteed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例のシステムブロック図、第2図
は本実施例に用いる紋様分類方法の概念を示す図、第3
図は本発明の実施例の動作を示すフローチャート、第4
図は採取指紋画像のゾーンデータの例を示す図、第5図
は各ゾーンにおける隆線の方向ラベルを示す図、第6図
は隆線の形状の検出を説明する図、第7図及び第8図は
隆線方向の傾向の算出を説明する図、第9図は第2分類
候補の概念を示す図である。 主要部分の符号の説明 10・・・・・・指紋画像入力部 13・・・・・・画像記憶部 40・・・・・・2次元
画像データ15・・・・・・中央処理部 41・・・・
・・コアを含むゾーン17・・・・・・作業メモリ 4
2・・・・・・方向確定ゾーン18・・・・・・分類処
理部 43・・・・・・不確定ゾーン44・・・・・・
ノンデータゾーン
Figure 1 is a system block diagram of an embodiment of the present invention, Figure 2 is a diagram showing the concept of the pattern classification method used in this embodiment, and Figure 3 is a diagram showing the concept of the pattern classification method used in this embodiment.
FIG. 4 is a flowchart showing the operation of the embodiment of the present invention.
The figure shows an example of the zone data of the collected fingerprint image, FIG. 5 shows the ridge direction label in each zone, FIG. 6 shows the detection of the shape of the ridge, and FIGS. FIG. 8 is a diagram explaining the calculation of the tendency of the ridge direction, and FIG. 9 is a diagram showing the concept of the second classification candidate. Explanation of symbols of main parts 10... Fingerprint image input unit 13... Image storage unit 40... Two-dimensional image data 15... Central processing unit 41. ...
...Zone 17 containing the core...Working memory 4
2... Direction confirmed zone 18... Classification processing section 43... Uncertain zone 44...
Non-data zone

Claims (3)

【特許請求の範囲】[Claims] (1)指紋画像を採取して2次元画像データとして出力
する手段と、この2次元画像を格子状に複数の領域に分
割し、これ等各領域毎に前記指紋のその領域での隆線方
向を検出する手段と、前記領域の各隆線方向から前記指
紋の中心位置を検出する手段と、前記隆線方向及び前記
中心位置から隆線の形状を判定する手段と、同じく前記
隆線方向及び前記中心位置から隆線方向の傾向を判定す
る手段と、これら隆線の形状及び前記隆線方向の傾向に
よって予め定められた複数の指紋分類別に指紋紋様の分
類をなす分類手段とを含むことを特徴とする指紋紋様分
類装置。
(1) A means for collecting a fingerprint image and outputting it as two-dimensional image data, dividing this two-dimensional image into a plurality of regions in a grid pattern, and determining the ridge direction of the fingerprint in each region for each region. means for detecting the center position of the fingerprint from each ridge direction of the region; means for determining the shape of the ridge from the ridge direction and the center position; The method includes means for determining a tendency in the ridge direction from the center position, and a classification means for classifying the fingerprint pattern into a plurality of fingerprint classifications predetermined based on the shape of the ridges and the tendency in the ridge direction. Characteristic fingerprint pattern classification device.
(2)前記隆線方向が検出判定できた領域の数に応じて
前記指紋画像の品質を判定する手段と、低品質と判定さ
れたとき所定方式により前記画像を補正する手段とを含
み、この補正後の画像により再度指紋分類をなすように
したことを特徴とする請求項1記載の指紋紋様分類装置
(2) comprising means for determining the quality of the fingerprint image according to the number of regions in which the ridge direction has been detected and determined; and means for correcting the image according to a predetermined method when the quality is determined to be low; 2. The fingerprint pattern classification device according to claim 1, wherein the fingerprint classification is performed again using the corrected image.
(3)前記分類手段による分類時に、類似度が高くて複
数の指紋分類に類似する場合、第2候補までの分類を行
う手段を有することを特徴とする請求項1または2記載
の指紋紋様分類装置。
(3) Fingerprint pattern classification according to claim 1 or 2, further comprising means for classifying up to a second candidate when the degree of similarity is high and the fingerprint classification is similar to a plurality of fingerprint classifications during classification by the classification means. Device.
JP2161774A 1990-06-20 1990-06-20 Fingerprint pattern classification device Expired - Fee Related JP2613959B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2161774A JP2613959B2 (en) 1990-06-20 1990-06-20 Fingerprint pattern classification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161774A JP2613959B2 (en) 1990-06-20 1990-06-20 Fingerprint pattern classification device

Publications (2)

Publication Number Publication Date
JPH0452974A true JPH0452974A (en) 1992-02-20
JP2613959B2 JP2613959B2 (en) 1997-05-28

Family

ID=15741651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161774A Expired - Fee Related JP2613959B2 (en) 1990-06-20 1990-06-20 Fingerprint pattern classification device

Country Status (1)

Country Link
JP (1) JP2613959B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337369A (en) * 1992-09-09 1994-08-09 Nec Corporation Equipment for fingerprint pattern classification
JPH09114981A (en) * 1995-10-16 1997-05-02 Nec Corp Device for selecting fingerprint card and device for narrow-down processing fingerprint card
US5974163A (en) * 1995-12-13 1999-10-26 Nec Corporation Fingerprint classification system
KR100465136B1 (en) * 2002-03-12 2005-01-13 테스텍 주식회사 Method for Processing Image of Finger Print
US9129145B2 (en) 2010-03-19 2015-09-08 Fujitsu Limited Identification apparatus, identification method, and program
EP3057037A1 (en) 2015-02-16 2016-08-17 Fujitsu Limited Biometric information registration apparatus and biometric information registration method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5373936A (en) * 1976-09-10 1978-06-30 Rockwell International Corp System for automatically identifying pattern
JPS62187374U (en) * 1986-05-20 1987-11-28

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5373936A (en) * 1976-09-10 1978-06-30 Rockwell International Corp System for automatically identifying pattern
JPS62187374U (en) * 1986-05-20 1987-11-28

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5337369A (en) * 1992-09-09 1994-08-09 Nec Corporation Equipment for fingerprint pattern classification
JPH09114981A (en) * 1995-10-16 1997-05-02 Nec Corp Device for selecting fingerprint card and device for narrow-down processing fingerprint card
US5974163A (en) * 1995-12-13 1999-10-26 Nec Corporation Fingerprint classification system
KR100465136B1 (en) * 2002-03-12 2005-01-13 테스텍 주식회사 Method for Processing Image of Finger Print
US9129145B2 (en) 2010-03-19 2015-09-08 Fujitsu Limited Identification apparatus, identification method, and program
EP3057037A1 (en) 2015-02-16 2016-08-17 Fujitsu Limited Biometric information registration apparatus and biometric information registration method
US9792484B2 (en) 2015-02-16 2017-10-17 Fujitsu Limited Biometric information registration apparatus and biometric information registration method

Also Published As

Publication number Publication date
JP2613959B2 (en) 1997-05-28

Similar Documents

Publication Publication Date Title
JP5591578B2 (en) Character string recognition apparatus and character string recognition method
US6151423A (en) Character recognition with document orientation determination
US7499588B2 (en) Low resolution OCR for camera acquired documents
EP0965943A2 (en) Optical character reading method and system for a document with ruled lines and their application
CN100465985C (en) Human ege detecting method, apparatus, system and storage medium
JP4008282B2 (en) Pupil / iris circle detector
CN101339609B (en) Image processing apparatus and image processing method
EP1675066A1 (en) Face image candidate area search method, face image candidate area search system, and face image candidate area search program
KR100920764B1 (en) Apparatus and process for two-stage decoding of high-density optical symbols
CN109389105B (en) Multitask-based iris detection and visual angle classification method
US20120020535A1 (en) Unique, repeatable, and compact biometric identifier
EP1679655A1 (en) Face image candidate area search method, face image candidate area search system, and face image candidate area search program
JPH0452974A (en) Fingerprint pattern sorting device
JPH02306386A (en) Character recognizing device
EP0717365B1 (en) Linear line detection apparatus using projection image of character string including linear line
JPH0452975A (en) Fingerprint pattern sorting device
JP3494388B2 (en) Fingerprint matching method and fingerprint matching device
CN110807453A (en) OCR-based product character online detection method, device and system
CN112085747A (en) Image segmentation method based on local relation guidance
JPH06139338A (en) Fingerprint pattern classifying device
JP3074691B2 (en) Character recognition device
KR102571269B1 (en) Method, system and non-transitory computer-readable recording medium for object detection
JPH04195262A (en) Fingerprint collator
JP4711045B2 (en) Authentication device
CN116912912A (en) Artificial intelligence face recognition system and method

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees