JPH0452975A - Fingerprint pattern sorting device - Google Patents

Fingerprint pattern sorting device

Info

Publication number
JPH0452975A
JPH0452975A JP2161775A JP16177590A JPH0452975A JP H0452975 A JPH0452975 A JP H0452975A JP 2161775 A JP2161775 A JP 2161775A JP 16177590 A JP16177590 A JP 16177590A JP H0452975 A JPH0452975 A JP H0452975A
Authority
JP
Japan
Prior art keywords
fingerprint
ridge
ridge line
classification
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2161775A
Other languages
Japanese (ja)
Inventor
Tatsuro Shibuya
渋谷 達郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI SECURITY SYST KK
Original Assignee
NIPPON DENKI SECURITY SYST KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI SECURITY SYST KK filed Critical NIPPON DENKI SECURITY SYST KK
Priority to JP2161775A priority Critical patent/JPH0452975A/en
Publication of JPH0452975A publication Critical patent/JPH0452975A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PURPOSE:To realize the stable and correct sorting of a pattern by providing a sorting means to sort the pattern into plural predetermined fingerprint assortments according to the shape of a ridge line and the tendency of a ridge line direction in a main scanning and a subscanning direction of a collected fingerprint. CONSTITUTION:A fingerprint picture is collected and photoelectric-converted by a picture input part 10, and is outputted as two-dimensional picture data by an A/D converting part 11. Then, in a sorting processing part 18, a two-dimensional picture is divided into plural grid-shaped areas, and the inside of a prescribed frame including the central position of the fingerprint is scanned by making a vertical direction in the direction of the joint of a finger a main scanning direction and making an orthogonal direction a subscanning direction, and the shape of the ridge line is discriminated from each ridge line direction on main scanning, and the shape of the ridge line is discriminated by referring to the adjacent ridge line direction in the direction outside the frame if the ridge line direction of an adjacent area in the main scanning deviates by more than a prescribed angle, and the tendency of the ridge line direction is discriminated from the ridge line direction and the central position, and the fingerprint pattern is sorted into plural predetermined fingerprint assortments according to the shape of the ridge line and the tendency of the ridge line direction. Thus, the stable and correct fingerprint pattern sorting can be realized.

Description

【発明の詳細な説明】 従来分野 本発明は指紋紋様分類装置に関し、特に採取指紋の紋様
を自動分類する指紋紋様分類装置に関する。
DETAILED DESCRIPTION OF THE INVENTION BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a fingerprint pattern classification device, and more particularly to a fingerprint pattern classification device for automatically classifying the patterns of collected fingerprints.

従来技術 従来の隆線方向から得られる特徴を用いた分類方式とし
ては、予め作成し、ておいた標準パターンとのマツチン
グ(後藤、中村1南、奥野、“方向分布パターンによる
指紋画像の分類”、信学技報vo1.81.. n、o
、210. IE81−88)や、隆線をベクトル場と
みなし5てその回転の線積分や発散の面積分の値を用い
て(野田、火照、小林、加藤; ″指紋バタン分類機“
、電子通信学会、 PRL73−97)分類の基準とな
る指紋の中心(以降、コアと称する)や隆線によって、
三角形状に形成される::−角洲(以降、デルタと称す
る)の有無、個数および位置によって分類する方式が提
案されている。
Prior Art Conventional classification methods using features obtained from the ridge direction include matching with a standard pattern created in advance (Goto, Ichinami Nakamura, Okuno, "Classification of fingerprint images based on directional distribution pattern"). , IEICE Technical Report vol. 1.81.. n, o
, 210. IE81-88), and by considering the ridge as a vector field5 and using the values of the line integral of its rotation and the area integral of its divergence (Noda, Hateru, Kobayashi, Kato; ``Fingerprint slam classifier''
, Institute of Electronics and Communication Engineers, PRL73-97) The center (hereinafter referred to as the core) and ridges of the fingerprint serve as the basis for classification.
A method has been proposed in which classification is performed based on the presence, number, and position of triangle-shaped ::-angles (hereinafter referred to as deltas).

1−1述し、た従来の方式では、デルタの有無が分類処
理」二、重要な役割を果たしているか、デルタは指紋上
の存在位置によっては、採取することが困難であるとい
う欠点を持っている。特に遺留指紋を対象とする犯罪捜
査用指紋照合装置においては、デルタの欠落した指紋を
処理することか多く、デルタの分類への利用は通常不可
能である。
In the conventional method described in 1-1, the presence or absence of deltas plays an important role in the classification process, and the drawback is that deltas are difficult to collect depending on their location on the fingerprint. There is. In particular, in a fingerprint matching device for criminal investigation that targets latent fingerprints, fingerprints with missing deltas are often processed, and it is usually impossible to use deltas for classification.

また、標準パターンマツチングによるコアやデルタの抽
出は、予め作成しておく標準パターンによってその抽出
に大きな影響を及はずという問題点がある。
Furthermore, the extraction of cores and deltas by standard pattern matching has a problem in that the extraction is likely to be greatly influenced by the standard patterns created in advance.

発明の目的 そこで、本発明はかかる従来技術の欠点を解決すべくな
されたものてあ−フて、その目的とするところは、不安
定なデルタによる分類によることなく、安定かつ正確な
紋様分類を可能と【、た指紋紋様分類装置を提供するこ
とにある。
OBJECT OF THE INVENTION Therefore, the present invention was made to solve the drawbacks of the prior art, and its purpose is to perform stable and accurate pattern classification without relying on unstable delta classification. The object of the present invention is to provide a fingerprint pattern classification device that is possible.

発明の構成 本発明による指紋紋様分類装置は、指紋画像を採取して
2次元画像データとして出力する手段と、この2次元画
像を格子状に複数の領域に分割し、これ等各領域毎に前
記指紋のその領域での隆線方向を検出する手段と、前記
領域の各隆線方向から前記指紋の中心位置を検出する手
段と、前記中心位置を含む規定枠内で、指の関節方向に
垂直な方向を主走査方向とし、それに直交する方向を副
走査方向とし、これ等走査を行いつつ、前記主走査上の
各隆線方向から隆線の形状を判定する手段と、更に前記
主走査上において隣接する領域の隆線方向が規定角以上
離れているとき、この主走査に隣接する枠外方向の主走
査上の隆線方向を参照して隆線の形状を判定する手段と
、前記隆線方向及び前記中心位置から隆線方向の傾向を
判定する手段と、これら隆線の形状及び前記隆線方向の
傾向によって予め定められた複数の指紋分類別に指紋紋
様の分類をなす分類手段とを含むことを特徴とする指紋
紋様分類装置を特徴としている。
Structure of the Invention The fingerprint pattern classification device according to the present invention includes means for collecting a fingerprint image and outputting it as two-dimensional image data, and dividing the two-dimensional image into a plurality of regions in a grid pattern, and dividing the two-dimensional image into a plurality of regions in a grid pattern, and dividing the two-dimensional image into a plurality of regions in a grid pattern. means for detecting a ridge direction in that area of a fingerprint; means for detecting a center position of the fingerprint from each ridge direction in the area; and a means for detecting a center position of the fingerprint from the direction of each ridge in the area; a direction perpendicular to the main scanning direction and a sub-scanning direction perpendicular to the main scanning direction; means for determining the shape of a ridge by referring to a ridge direction on a main scan in an out-of-frame direction adjacent to this main scan when the ridge directions of adjacent regions are separated by a predetermined angle or more; a means for determining a tendency of the ridge direction from the direction and the center position, and a classifying means for classifying the fingerprint pattern according to a plurality of fingerprint classifications predetermined based on the shape of the ridges and the tendency of the ridge direction. The fingerprint pattern classification device is characterized by:

実施例 以下、本発明の実施例について図面を参照して説明する
Embodiments Hereinafter, embodiments of the present invention will be described with reference to the drawings.

第1図は本発明の一実施例を示すブロック図である。本
実施例では、透明体上に載置された指紋画像もしくは、
押捺原紙上に押捺された指紋画像を採取し5、光電変換
する画像人力部10と、光電変換信号を2次元量子化画
像データに変換するA/D変換部11と、指紋画像の入
力制御を行う画像人力制御部12と、2次元量子化画像
データを記憶する画像記憶部]3と、分類対象となる指
紋画像に関する情報を人力する入力部19と、分類結果
および各種メツセージを出力する出力部20と、画像記
憶部13から画像データを入力することにより分類を行
う分類処理部18とを含む。
FIG. 1 is a block diagram showing one embodiment of the present invention. In this example, a fingerprint image placed on a transparent body or
An image human power section 10 that collects a fingerprint image stamped on a stamping base paper 5 and performs photoelectric conversion, an A/D conversion section 11 that converts the photoelectric conversion signal into two-dimensional quantized image data, and an input control of the fingerprint image. an image storage unit 12 that stores two-dimensional quantized image data; an input unit 19 that manually inputs information regarding fingerprint images to be classified; and an output unit that outputs classification results and various messages. 20, and a classification processing unit 18 that performs classification by inputting image data from the image storage unit 13.

分類処理部18は、画像記憶部]3からの画像データと
入力部19からの分類対象となる指紋画像に関する情報
とを入力としかつ出力部20に出力する外部インタフェ
ース14と、作業メモリ17と、プログラムか格納され
ているプログラムメモリ〕6と、プログラムにより制御
される中央処理部15とにより構成されている。
The classification processing unit 18 includes an external interface 14 that inputs the image data from the image storage unit 3 and information regarding the fingerprint image to be classified from the input unit 19 and outputs it to the output unit 20, and a working memory 17. It is composed of a program memory] 6 in which programs are stored, and a central processing unit 15 that is controlled by the programs.

指紋入力部10については特開昭54−[19300号
公報および特開昭54−85800号公報に記載されて
いる、透明体上に載置された指に対して光源から光によ
る光学的境界条件を利用して、I T V (1ndu
strial televiSion)等の撮像装置に
より指紋紋様パターンの光電変換像を入力する装置や、
特開昭55−1381、74号公報に記載されている、
押捺原紙上の指紋画像を入力する装置があり利用され得
る。
Regarding the fingerprint input unit 10, the optical boundary conditions due to light from a light source for a finger placed on a transparent body are described in Japanese Patent Laid-Open No. 54-19300 and Japanese Patent Laid-Open No. 54-85800. I T V (1ndu
A device that inputs a photoelectrically converted image of a fingerprint pattern using an imaging device such as a digital camera,
As described in Japanese Patent Application Laid-Open No. 1381/1981, No. 74,
There is a device that inputs a fingerprint image on a stamped paper and can be used.

本発明では、第2図に示されるような上段の紋様に対し
て、隆線の形状(第2図中段)を検出し、隆線方向の傾
向(第2図下段)を決定することにより紋様分類を行う
。尚、第2図上段の紋様中の破線は、コアが存在する列
を示す。
In the present invention, for the upper pattern shown in FIG. 2, the shape of the ridge is detected (the middle part of FIG. 2), and the tendency of the ridge direction (the lower part of FIG. 2) is determined. Perform classification. Incidentally, the broken lines in the pattern in the upper row of FIG. 2 indicate the rows in which the cores are present.

第3図は本発明の一実施例の動作を示すフローチャート
である。先ず、ステップ310においては、画像記憶部
13から外部インタフェイス14を通して指紋画像が入
力される。ステップ311においては、隆線方向から特
徴が抽出され、ステップ312においては、コアを含む
領域が抽出れさる。
FIG. 3 is a flowchart showing the operation of one embodiment of the present invention. First, in step 310, a fingerprint image is input from the image storage unit 13 through the external interface 14. In step 311, features are extracted from the ridge direction, and in step 312, a region including the core is extracted.

第4図は本実施例における採取指紋画像の処理方法を示
す図であり、採取された2次元画像40を略格子状に、
複数の領域(以下ゾーンと称す)に分割し、各ゾーン毎
に、隆線方向を検出してゾーンデータ42として処理さ
れるようになっている。
FIG. 4 is a diagram showing a method of processing collected fingerprint images in this embodiment, in which the collected two-dimensional image 40 is arranged in a substantially grid pattern,
It is divided into a plurality of regions (hereinafter referred to as zones), and the ridge direction is detected for each zone and processed as zone data 42.

各ゾーン毎の隆線方向を、第5図に示す如く、例えば3
60度を16等分して16方向の1つにラベル化(0〜
15)して得られた特徴であるゾーンデータを用いる。
For example, the ridge direction for each zone is 3 as shown in FIG.
Divide 60 degrees into 16 equal parts and label in one of 16 directions (0 to
15) Use the zone data that is the characteristic obtained.

尚、8等分、32等分、64等分なども考えられる。Note that 8 equal parts, 32 equal parts, 64 equal parts, etc. can also be considered.

第4図において、ゾーン41はコアを含む領域であり、
ゾーン42は方向確定領域であり、ゾーン43は、隆線
が存在するがその方向が確定できない不確定領域であり
、ゾーン44は隆線が存在しないノンデータ領域を表わ
している。
In FIG. 4, zone 41 is a region containing the core,
Zone 42 is a direction-determined region, zone 43 is an uncertain region where ridges exist but whose direction cannot be determined, and zone 44 represents a non-data region where ridges do not exist.

上記ステップ311における隆線方向からの特徴(ゾー
ンデータ)の抽出処理では、第4図に示したゾーンデー
タを抽出する必要があり、またステップ312ではコア
を含むゾーン41の抽出処理が必要であるが、これ等処
理は特開昭55−138174号公報及び本願出願人に
よる特願昭63−099334号、特願昭63−099
335号、特願昭83−099136号の各明細書に詳
記されているので、ここでは省略する。
In the process of extracting features (zone data) from the ridge direction in step 311, it is necessary to extract the zone data shown in FIG. 4, and in step 312, it is necessary to extract the zone 41 including the core. However, these processes are disclosed in Japanese Patent Application Laid-Open No. 138174/1982 and Japanese Patent Application No. 63-099334 and Japanese Patent Application No. 63-099 filed by the applicant.
No. 335 and Japanese Patent Application No. 83-099136, the detailed description is omitted here.

次のステップ313では、ステップ311,312から
得られたゾーンデータ及びコアを含むゾーンから隆線の
形状の検出判定がなされる。その方法を第6図を用いて
説明する。
In the next step 313, the shape of the ridge is detected and determined from the zone data obtained from steps 311 and 312 and the zone including the core. The method will be explained using FIG.

先ず、第6図Aに示す如く、コアを含むゾーン41を起
点として、枠52内で、y軸(指の関節に垂直な方向軸
)の負から正の方向を主走査方向とし、コアを含むゾー
ン41を中心としたX軸(指の関節に平行な方向軸)の
正及び負の双方向に副走査して、方向確定ゾーン42に
ついてのみ、第5図に示した方向ラベルの有無及び種別
が調べられる。これにより、y軸方向主走査線上の隆線
の形状が検出されることになる。
First, as shown in FIG. 6A, starting from the zone 41 containing the core, the core is scanned within the frame 52, with the negative to positive direction of the y-axis (direction axis perpendicular to the finger joints) being the main scanning direction. By sub-scanning in both positive and negative directions of the X-axis (direction axis parallel to the finger joints) centering on the zone 41 containing the zone 41, only the direction determination zone 42 is checked for the presence or absence of the direction label shown in FIG. You can check the type. As a result, the shape of the ridge on the main scanning line in the y-axis direction is detected.

例えば、第6図Aの例では、第2図中段に示す右流蹄状
紋(No、2)に対応する隆線の形状が検出されること
になる。
For example, in the example shown in FIG. 6A, the shape of the ridge corresponding to the right flow hoof pattern (No. 2) shown in the middle row of FIG. 2 is detected.

第6図Aにおける枠52の決定方法は、以下の如くであ
る。枠52の上限はコアを含むゾーン41を含む行であ
り、この行を起点としてX軸の負から正の方向を主走査
方向とし、y軸の負から正の方向へ副走査し、走査上の
方向確定ゾーン42の各方向ラベルの数を計算し、下式
により水平傾向Hを算出する。
The method for determining the frame 52 in FIG. 6A is as follows. The upper limit of the frame 52 is the line that includes the zone 41 including the core, and from this line as the starting point, the main scanning direction is from the negative to the positive direction of the X axis, and the sub scanning is from the negative to the positive direction of the y axis. The number of labels in each direction of the direction determination zone 42 is calculated, and the horizontal tendency H is calculated using the following formula.

H−[L、OOX a (0) +0.05X (a 
(L) + a (7) )+0,05X fa(2)
 +a(8) l ] / [1,OOx (a(0)
 +a(4) l +0.05X fa(1) +a(
8) +a(5)→−a  (7)  )  +  2
  X O,口5X  (a(2)  +a(6)  
)  ]但し、a(n)は走査上に存在するラベルnの
方向確定ゾーン数である。
H-[L, OOX a (0) +0.05X (a
(L) + a (7) )+0,05X fa(2)
+a(8) l ] / [1,OOx (a(0)
+a(4) l +0.05X fa(1) +a(
8) +a (5) → -a (7) ) + 2
X O, mouth 5X (a(2) +a(6)
)] where a(n) is the number of direction-determined zones of label n existing on the scan.

そして、各走査について上記により算出された値Hと予
め定めた閾値Stとを比較し、H<81の条件を満足す
る最初の走査となる行を、枠52の下限とするのである
Then, the value H calculated above for each scan is compared with a predetermined threshold value St, and the row that is the first scan that satisfies the condition H<81 is set as the lower limit of the frame 52.

尚、副走査数が奇数のときには、更にy軸の負正方向へ
1行下を下限とする。
Note that when the number of sub-scans is an odd number, the lower limit is one line further down in the negative and positive directions of the y-axis.

枠52の左右限は第6図Aの如く2次元画像データ40
の左右限とするが、左右2〜3列は不鮮明であり、ゾー
ンデータとなり得ないことが多いので、これ等2〜3列
を除いても良い。
The left and right limits of the frame 52 are two-dimensional image data 40 as shown in FIG. 6A.
However, since the left and right 2 to 3 columns are often unclear and cannot serve as zone data, these 2 to 3 columns may be excluded.

尚、第6図Bに示す様な画像データ(本例では、第2図
のNo、1に示す渦状紋の二次元画像データである)の
場合、部分54ではy方向(主走査方向)上での各ゾー
ンデータであるラベル値(第5図参照)が隣接部分で大
きく相違している。
In the case of the image data as shown in FIG. 6B (in this example, the two-dimensional image data of the spiral pattern shown in No. 1 in FIG. 2), the portion 54 is The label values (see FIG. 5), which are each zone data, are significantly different in adjacent parts.

例えば、ラベル値の差が、第5図で表現したとき、「4
」となり、略90度の方向差がある。この様な場合には
、この部分の主走査上での各ゾ−ンデータたけでは、隆
線方向の形状をiLL <把握できないことになる。
For example, when the difference in label values is expressed in Figure 5, "4
”, and there is a direction difference of approximately 90 degrees. In such a case, it is not possible to grasp the shape in the ridge direction using only the data of each zone on the main scan of this part.

そこで、この様な場合には、第6図Cに示ケ如く、ある
主走査上での隣接ゾーンの方向ラベル差が著しい部分5
5か検出されると、副走査り向(X方向)に隣接する外
側(左側)の主走査線56」二の方向ラベルを調べて、
隆線方向を検出するようにする。この様に、外側のゾー
ンデータをも考慮して判定すれば、より正確な隆線方向
の検出が61能となるのである。
Therefore, in such a case, as shown in FIG.
5 is detected, the direction label of the outer (left side) main scanning line 56'' adjacent to the sub-scanning direction (X direction) is checked, and
Detect the ridge direction. In this way, if the outside zone data is also taken into account when making a determination, it becomes possible to detect the ridge direction more accurately.

第6図Cの例では、第2図中段に示す渦状紋(No、1
.)に対応する隆線の形状が検出される。
In the example of FIG. 6C, the spiral pattern (No. 1
.. ) is detected.

ステップ314における隆線方向の傾向を決定する方法
を第7,8図にもとづい述べる。まず、第7図に示すよ
うな長方形枠6]を設け、この枠内に存在する方向確定
ゾーン42のみを対象と15、方向確定ゾーン42の各
方向ラベルの数を計pし、その値を基に隆線方向の傾向
を算出する。
The method for determining the tendency of the ridge direction in step 314 will be described based on FIGS. 7 and 8. First, a rectangular frame 6 as shown in FIG. Based on this, the tendency of the ridge direction is calculated.

例えば、枠6]内における左下から右上への方向の傾向
りは、下式を用いて算出される。
For example, the tendency in the direction from the lower left to the upper right in frame 6] is calculated using the following formula.

I、−[1,00x a (2)  +0.05X  
Ia (1)  + a (3))→ 0.05x  
 ia  (0)  +  a  (4)  l  ]
  /  [1旧IXfa(2)ia(6) )  +
0.50X  (a(1) +a(3) −+a(5)
+a(7))  +0.05X  fa(11)+a(
4)l  X2.1この様にして算出された(1^Lと
予め定められた閾値とを比較するこt”、 I=より、
隆線方向の傾向が決定される。
I, -[1,00x a (2) +0.05X
Ia (1) + a (3)) → 0.05x
ia (0) + a (4) l ]
/ [1 old IXfa (2) ia (6) ) +
0.50X (a(1) +a(3) -+a(5)
+a(7)) +0.05X fa(11)+a(
4) From l
A ridge direction trend is determined.

尚、枠61の上限、ド限は枠1〕2の」−限、下限と同
一てあり、左限は−jアを含むゾーン/↓1を八む列、
右限はこの列に対し′c−X軸の正方向の次の列である
The upper limit and C limit of frame 61 are the same as the - limit and lower limit of frame 1]2, and the left limit is the zone containing -j A/↓1,
The right limit is the next column in the positive direction of the 'c-X axis with respect to this column.

次に、第8図に示す様な2つの長方形の枠6263を設
け、上記と同様な計算を夫々行7て各々の枠内の隆線方
向の傾向を決定づる。本例では、第2図下段に示す右流
蹄状紋(No、2)に相当イる隆線方向の傾向か決定さ
tする。
Next, two rectangular frames 6263 as shown in FIG. 8 are provided, and the same calculation as above is performed for each frame to determine the tendency of the ridge direction within each frame. In this example, the tendency of the ridge direction corresponding to the right flow hoof pattern (No. 2) shown in the lower part of FIG. 2 is determined.

尚、第8図の枠62.63の決定は以下の如くである。Note that the frames 62 and 63 in FIG. 8 are determined as follows.

枠62の下限、枠63の上限は、第6図の枠52の上限
から下限までの幅を2等分し゛C決定される。枠62の
上限は枠52の上限であり、枠63の1限は枠52の下
限である。
The lower limit of the frame 62 and the upper limit of the frame 63 are determined by dividing the width from the upper limit to the lower limit of the frame 52 in FIG. 6 into two equal parts. The upper limit of the frame 62 is the upper limit of the frame 52, and the first limit of the frame 63 is the lower limit of the frame 52.

そして、y軸の負から正方向を主走査と(、て、コアを
含むゾーン41を中心としたy軸のiY、及び負の双方
向に副走査し、走査上の方向確定ゾーン42の各方向ラ
ベルの数を計算し、下式により垂直傾向■を決定する。
Then, main scanning is performed from the negative to positive direction of the y-axis (iY of the y-axis centered on the zone 41 including the core, and sub-scanning is performed in both directions in the negative direction, and each direction determination zone 42 on the scan is Calculate the number of direction labels and determine the vertical trend ■ using the formula below.

V −[1,00x a、 (4)→−0,50x (
a (3)ia(5)+0.05x (a(2) +a
、(6) l ] / [1,,00x fa(0)i
a (4) l +0.50X (a (L) + a
 (3)千a(5)+a(7)  )   +2x0.
05x   (a(2)  十 a(6)  l  ]
各走査について、上式により算出された値■と予め定め
られた閾値S2とを比較し、V<32の条件を満足する
鰻初の走査となる列を、枠6263の左限、右限とする
のである。
V −[1,00x a, (4) → −0,50x (
a (3) ia (5) + 0.05x (a (2) + a
, (6) l ] / [1,,00x fa(0)i
a (4) l +0.50X (a (L) + a
(3) 1,000 a(5)+a(7) ) +2x0.
05x (a(2) ten a(6) l ]
For each scan, the value ■ calculated by the above formula is compared with a predetermined threshold value S2, and the column that is the first scan of the eel that satisfies the condition of V<32 is determined as the left limit and right limit of the frame 6263. That's what I do.

この様に、ステップ31.4において第7図及び第8図
の手法を用いて2段階に分けて隆線方向の傾向を判定し
ている理由は以下の如くである。
The reason why the tendency of the ridge direction is determined in two stages using the method shown in FIGS. 7 and 8 in step 31.4 is as follows.

すなわち、先ず、枠62.63を用いて求めた隆線方向
の傾向が第2図下段に示す普通弓状紋(No、5)に対
応するか否かを決定し、対応し。
That is, first, it is determined whether or not the tendency of the ridge direction obtained using frames 62 and 63 corresponds to the normal arcuate pattern (No. 5) shown in the lower part of FIG.

なければ、枠61を用いて求めた隆線方向傾向が第2図
下段のNo、1−No、4のいずれに属するが決定して
、最終的な隆線方向の傾向を判定するようにしているの
である。
If not, it is determined whether the ridge direction tendency obtained using the frame 61 belongs to No., 1-No., or 4 in the lower row of FIG. 2, and the final ridge direction tendency is determined. There is.

ステップ315においては、ステップ313で検出され
た隆線の形状とステップ314て決定された隆線方向の
傾向とを、第2図に対応させることにJっで分類を行う
In step 315, the shape of the ridge detected in step 313 and the tendency of the ridge direction determined in step 314 are classified by matching them to those shown in FIG.

ステップ316においては、入力指紋画像が低品質であ
るか否かを不確定ゾーン43を用いで判定する。この判
定方法を第6図にもとづいて述べる。
In step 316, the uncertainty zone 43 is used to determine whether the input fingerprint image is of low quality. This determination method will be described based on FIG.

まず、ステップ315における分類で普通弓状紋(No
、5)以外に分類された人力指紋画像1.ニー、y、i
いCは、第6図に示すような枠52を設け、その枠内で
ステップ313の隆線形状の検出と同杆に、二Jアを含
むゾーン41−を起点と12、y軸の負から正の方向に
走査する。
First, in the classification in step 315, the normal arcuate pattern (No.
, 5) Human fingerprint images classified other than 1. Knee, y, i
6C is provided with a frame 52 as shown in FIG. Scan in the positive direction from .

ここでは、不確定ゾーン43のみを対象とするものとし
、ステップ315で右流蹄状紋(No、2)と分類され
た人力指紋画像についてはコアを含むゾ−ン41を中心
としてX座標の正の方向を副走査とし、ステップ315
で左流蹄状紋(No、3)と分類された人力指紋画像に
ついてはコアを含むゾーン41を中心としてX座標の負
の方向を副走査とし、ステップ315で突起弓状紋(N
o、4)と分類された入力指紋画像についてはコアを含
むゾーン41を中心としてX座標の正と負の双方向を副
走査として、各y軸方向主走査に存在する不確定ゾーン
43の存在する割合を計算し、一定の割合以上不確定ゾ
ーン43が存在する主走査数(以降、不良列と称する)
を基に人力指紋画像が低品質であるか否かを判定する。
Here, only the uncertain zone 43 is targeted, and for the human fingerprint image classified as a right flow hoof pattern (No. 2) in step 315, the X coordinate is centered around the zone 41 including the core. Set the positive direction as sub-scanning and step 315
For the human fingerprint image classified as the left arch-shaped pattern (No. 3) in step 315, the sub-scanning is performed in the negative direction of the
Regarding the input fingerprint image classified as o, 4), there is an uncertain zone 43 that exists in each main scan in the y-axis direction, with the zone 41 containing the core as the center and the positive and negative X coordinates as sub-scans. The number of main scans in which uncertain zones 43 exist at a certain percentage or more (hereinafter referred to as defective rows) is calculated.
Based on this, it is determined whether the human fingerprint image is of low quality.

また、ステップ315において普通弓状紋(No、5)
と分類された入力指紋画像については、第8図に示す2
つの長方形の枠62.63において、各枠内に存在する
不確定ゾーン43の割合によって低品質であるか否をか
を判定する。
Also, in step 315, a normal arcuate pattern (No, 5) is selected.
For the input fingerprint image classified as 2 as shown in FIG.
In the two rectangular frames 62 and 63, whether or not the quality is low is determined based on the proportion of the uncertain zone 43 that exists within each frame.

ステップ317においては、ステップ316で判定され
た低品質の人力指紋画像について分類拒絶(以降、リジ
ェクトと称する)の対象であるか、再分類の対象である
かを判定する。その方法はステップ316で用いた不良
列の数によって判定をするものであるが、ステップ31
6て低品質と判定された入力指紋画像と判定された普通
弓状紋についてはりジェツトの対象とする。本ステップ
317においてリジェクトの対象と判定された入力指紋
画像については、ステップ318において外部インタフ
ェース14を通して出力部20により本ステップ317
の結果か出力される。
In step 317, it is determined whether the low-quality human fingerprint image determined in step 316 is subject to classification rejection (hereinafter referred to as "reject") or reclassification. In this method, the determination is made based on the number of defective columns used in step 316, but in step 31
6, the input fingerprint image determined to be of low quality and the normal arcuate pattern determined to be of low quality are targeted for beam jetting. For the input fingerprint image determined to be rejected in this step 317, the input fingerprint image determined to be rejected in this step 317 is outputted by the output unit 20 through the external interface 14 in step 318.
The result will be output.

ステップ319においては、ステップ316で再分類の
対象であると判定された入力指紋画像を補正する。その
方法は公知する手法である確立的弛緩法を用いて行い、
補正後再びステップ812以降を適応じて行う。尚、こ
の確立的弛緩法については、“Ra5enraid:I
TERTIVE METHODS IN IMAGE 
ANALYSIs”  Proc、1EEE Conf
、P、R& 1.P14/18(1977)に開示され
ている。
In step 319, the input fingerprint image determined to be a target for reclassification in step 316 is corrected. The method is carried out using the established relaxation method, which is a known method.
After the correction, step 812 and subsequent steps are performed again as appropriate. Regarding this established relaxation method, please refer to “Ra5enraid:I
TERTIVE METHODS IN IMAGE
ANALYSIs” Proc, 1EEE Conf
, P, R & 1. P14/18 (1977).

ステップ320においては、ステップ313で検出され
た隆線の形状とその位置、そしてステップ314で決定
された隆線方向の傾向を第9図と対応させることにより
、分類処理対象となる入力指紋画像が第2分類候補を持
つか否かを判定する。
In step 320, the shape and position of the ridge detected in step 313, and the tendency of the ridge direction determined in step 314 are correlated with those in FIG. 9, so that the input fingerprint image to be classified is determined. It is determined whether there is a second classification candidate.

本ステップ320において分類処理対象となる入力指紋
画像が第2分類候補を持たないと判定された場合、ステ
ップ318において外部インタフェース4を通して出力
部20よりステップ315の分類結果か出力される。
If it is determined in step 320 that the input fingerprint image to be classified does not have a second classification candidate, the classification result in step 315 is output from the output section 20 through the external interface 4 in step 318.

ステップ321においては、第2分類候補を持つと判定
された分類処理対象となる入力指紋画像の第2分類候補
を決定する。その方法は、分類処理対象となる入力指紋
画像のステップ315の分類結果(第9図1段目)、ス
テップ313で検出された隆線形状とその位置(第9図
3段目)そしてステップ314で決定された隆線方向の
傾向(第9図4段目)を、第9図2段目と対応させるこ
とにより第2分類候補を決定する。尚、第9図3段目中
の矢印は、検出された隆線の形状とコアを含む列との距
離を示すものである。
In step 321, a second classification candidate is determined for the input fingerprint image to be classified that is determined to have a second classification candidate. This method consists of the classification result in step 315 of the input fingerprint image to be classified (first row in FIG. 9), the ridge shape and its position detected in step 313 (third row in FIG. 9), and step 314. A second classification candidate is determined by associating the tendency of the ridge direction determined in (fourth row of FIG. 9) with the second row of FIG. 9. Note that the arrow in the third row of FIG. 9 indicates the distance between the shape of the detected ridge and the row containing the core.

ステップ320において、分類処理対象となる人力指紋
画像が第2分類候補を持つと判定された場合は、ステッ
プ318において外部インタフェース14を通して出力
部20よりステップ315の分類結果とステップ321
で決定された第2分類候補が出力される。
If it is determined in step 320 that the human fingerprint image to be classified has a second classification candidate, the classification results in step 315 and step 321 are output from the output unit 20 through the external interface 14 in step 318.
The second classification candidates determined in are output.

以上のようにして本実施例は、ゾーンデータのコアの位
置から分類を行うものである。
As described above, in this embodiment, classification is performed based on the position of the core of zone data.

発明の詳細 な説明したように、本発明によれば、既存の自動指紋照
合システムにおいて用いられているゾーンデータにより
、隆線の形状の検出および隆線方向の傾向の決定によっ
て分類を行うため、安定した指紋紋様分類が可能となる
という効果がある。
DETAILED DESCRIPTION OF THE INVENTION As described in detail, according to the present invention, classification is performed by detecting the shape of ridges and determining the tendency of the ridge direction using zone data used in existing automatic fingerprint verification systems. This has the effect of enabling stable fingerprint pattern classification.

さらには、デルタの存在が保障されない遺留指紋の分類
についても分類効果が得られるものである。
Furthermore, the classification effect can also be obtained for classification of latent fingerprints in which the existence of deltas is not guaranteed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施例のシステムブロック図、第2図
は本実施例に用いる紋様分類方法の概念を示す図、第3
図は本発明の実施例の動作を示すフローチャート、第4
図は採取指紋画像のゾーンデータの例を示す図、第5図
は各ゾーンにおける隆線の方向ラベルを示す図、第6図
は隆線の形状の検出を説明する図、第7図及び第8図は
隆線方向の傾向の算出を説明する図、第9図は第2分類
候補の概念を示す図である。 主要部分の符号の説明 10・・・・・・指紋画像入力部 13・・・・・・画像記憶部 15・・・・・・中央処理部 17・・・・・・作業メモリ 18・・・・・・分類処理部 4〔〕・・・・・・2次元画像データ 4]・・・・・・コアを含むゾーン 42・・・・・方向確定ゾーン 43・・・・・・不確定ゾーン 44・・・・・・ノンデータゾーン
Figure 1 is a system block diagram of an embodiment of the present invention, Figure 2 is a diagram showing the concept of the pattern classification method used in this embodiment, and Figure 3 is a diagram showing the concept of the pattern classification method used in this embodiment.
FIG. 4 is a flowchart showing the operation of the embodiment of the present invention.
The figure shows an example of the zone data of the collected fingerprint image, FIG. 5 shows the ridge direction label in each zone, FIG. 6 shows the detection of the shape of the ridge, and FIGS. FIG. 8 is a diagram explaining the calculation of the tendency of the ridge direction, and FIG. 9 is a diagram showing the concept of the second classification candidate. Explanation of symbols of main parts 10... Fingerprint image input unit 13... Image storage unit 15... Central processing unit 17... Work memory 18... ... Classification processing unit 4 [] ... Two-dimensional image data 4] ... Zone containing the core 42 ... Direction definite zone 43 ... Undetermined zone 44...Non-data zone

Claims (3)

【特許請求の範囲】[Claims] (1)指紋画像を採取して2次元画像データとして出力
する手段と、この2次元画像を格子状に複数の領域に分
割し、これ等各領域毎に前記指紋のその領域での隆線方
向を検出する手段と、前記領域の各隆線方向から前記指
紋の中心位置を検出する手段と、前記中心位置を含む規
定枠内で、指の関節方向に垂直な方向を主走査方向とし
、それに直交する方向を副走査方向とし、これ等走査を
行いつつ、前記主走査上の各隆線方向から隆線の形状を
判定する手段と、更に前記主走査上において隣接する領
域の隆線方向が規定角以上離れているとき、この主走査
に隣接する枠外方向の主走査上の隆線方向を参照して隆
線の形状を判定する手段と、前記隆線方向及び前記中心
位置から隆線方向の傾向を判定する手段と、これら隆線
の形状及び前記隆線方向の傾向によって予め定められた
複数の指紋分類別に指紋紋様の分類をなす分類手段とを
含むことを特徴とする指紋紋様分類装置。
(1) A means for collecting a fingerprint image and outputting it as two-dimensional image data, dividing this two-dimensional image into a plurality of regions in a grid pattern, and determining the ridge direction of the fingerprint in each region for each region. means for detecting the center position of the fingerprint from the direction of each ridge in the area; within a prescribed frame including the center position, a direction perpendicular to the direction of the finger joint is a main scanning direction; means for determining the shape of a ridge from each ridge direction on the main scan while performing these scans, with the orthogonal direction being a sub-scan direction; means for determining the shape of the ridge by referring to the ridge direction on the main scan in the direction outside the frame adjacent to the main scan when the distance is more than a predetermined angle; and a classification means for classifying fingerprint patterns according to a plurality of fingerprint classifications predetermined based on the shape of these ridges and the tendency of the ridge direction. .
(2)前記隆線方向が検出判定できた領域の数に応じて
前記指紋画像の品質を判定する手段と、低品質と判定さ
れたとき所定方式により前記画像を補正する手段とを含
み、この補正後の画像により再度指紋分類をなすように
したことを特徴とする請求項1記載の指紋紋様分類装置
(2) comprising means for determining the quality of the fingerprint image according to the number of regions in which the ridge direction has been detected and determined; and means for correcting the image according to a predetermined method when the quality is determined to be low; 2. The fingerprint pattern classification device according to claim 1, wherein the fingerprint classification is performed again using the corrected image.
(3)前記分類手段による分類時に、類似度が高くて複
数の指紋分類に類似する場合、第2候補までの分類を行
う手段を有することを特徴とする請求項1または2記載
の指紋紋様分類装置。
(3) Fingerprint pattern classification according to claim 1 or 2, further comprising means for classifying up to a second candidate when the degree of similarity is high and the fingerprint classification is similar to a plurality of fingerprint classifications during classification by the classification means. Device.
JP2161775A 1990-06-20 1990-06-20 Fingerprint pattern sorting device Pending JPH0452975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2161775A JPH0452975A (en) 1990-06-20 1990-06-20 Fingerprint pattern sorting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2161775A JPH0452975A (en) 1990-06-20 1990-06-20 Fingerprint pattern sorting device

Publications (1)

Publication Number Publication Date
JPH0452975A true JPH0452975A (en) 1992-02-20

Family

ID=15741672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2161775A Pending JPH0452975A (en) 1990-06-20 1990-06-20 Fingerprint pattern sorting device

Country Status (1)

Country Link
JP (1) JPH0452975A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974163A (en) * 1995-12-13 1999-10-26 Nec Corporation Fingerprint classification system
JP2001144748A (en) * 1999-11-11 2001-05-25 Sony Corp Device and method for generating cryptographic key, device and method for enciphering and deciphering, and program providing medium
JP2008037192A (en) * 2006-08-03 2008-02-21 Hitachi Ltd Power steering device
WO2011108061A1 (en) * 2010-03-01 2011-09-09 富士通株式会社 Biological information management device and method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974163A (en) * 1995-12-13 1999-10-26 Nec Corporation Fingerprint classification system
JP2001144748A (en) * 1999-11-11 2001-05-25 Sony Corp Device and method for generating cryptographic key, device and method for enciphering and deciphering, and program providing medium
JP2008037192A (en) * 2006-08-03 2008-02-21 Hitachi Ltd Power steering device
WO2011108061A1 (en) * 2010-03-01 2011-09-09 富士通株式会社 Biological information management device and method
US8736421B2 (en) 2010-03-01 2014-05-27 Fujitsu Limited Biometric information processing apparatus and biometric information processing method

Similar Documents

Publication Publication Date Title
US6636631B2 (en) Optical character reading method and system for a document with ruled lines and its application
JP5574515B2 (en) Biometric device and method
JP2012523598A (en) Two-dimensional symbol code and method for reading the symbol code
US5841905A (en) Business form image identification using projected profiles of graphical lines and text string lines
US20120020535A1 (en) Unique, repeatable, and compact biometric identifier
US20050271260A1 (en) Device, method and program for removing pores
JPH02306386A (en) Character recognizing device
JP2613959B2 (en) Fingerprint pattern classification device
JPH0452975A (en) Fingerprint pattern sorting device
Feng et al. Clock drawing test evaluation via object detection for automatic cognitive impairment diagnosis
CN109034235A (en) A kind of integrated SVM noise detection method based on multiple features
JPH08287259A (en) Fingerprint identifying method
JP2005250786A (en) Image recognition method
JPH06139338A (en) Fingerprint pattern classifying device
JP3074691B2 (en) Character recognition device
JPS63132386A (en) Fingerprint collating method
JP3936039B2 (en) Screened area extraction device
JP2949628B2 (en) Image area separation method
JP2871233B2 (en) Binary image correction method
JPH0433175A (en) Fingerprint collation device
JPH04195262A (en) Fingerprint collator
CN118379765A (en) Network verification method and system based on fingerprint identification
JPH0353384A (en) Feature extracting device
JPS6068485A (en) Character sorting system
JPH01201786A (en) Character reader