KR0126464B1 - Finger print recognizing method - Google Patents

Finger print recognizing method

Info

Publication number
KR0126464B1
KR0126464B1 KR1019910009171A KR910009171A KR0126464B1 KR 0126464 B1 KR0126464 B1 KR 0126464B1 KR 1019910009171 A KR1019910009171 A KR 1019910009171A KR 910009171 A KR910009171 A KR 910009171A KR 0126464 B1 KR0126464 B1 KR 0126464B1
Authority
KR
South Korea
Prior art keywords
fingerprint
feature points
feature
point
image
Prior art date
Application number
KR1019910009171A
Other languages
Korean (ko)
Other versions
KR930001095A (en
Inventor
김봉일
김문규
이재연
이상선
이황재
이윤석
김만회
정기혁
홍선표
최정호
임형룡
Original Assignee
박원희
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박원희, 한국과학기술연구원 filed Critical 박원희
Priority to KR1019910009171A priority Critical patent/KR0126464B1/en
Publication of KR930001095A publication Critical patent/KR930001095A/en
Application granted granted Critical
Publication of KR0126464B1 publication Critical patent/KR0126464B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Collating Specific Patterns (AREA)

Abstract

A finger print recognition method discriminates a registered finger print and an input finger print, and counts an overlapped pixel number simultaneously moving vertically and horizontally a bitmap image expressing a finger pattern. The method detects a case that the overlapped area is maximized, detects a characteristic point indicating a similarity degree when the overlapped area is over a predetermined threshold value, and determines the same finger print on the basis of the similarity degree.

Description

지문 인식 방법Fingerprint Identification Method

체1도는 비트맵 맷칭의 원리를 나타낸 도식도.Figure 1 is a schematic showing the principle of bitmap formatting.

체2도의 (a)(b)는 비트맵 맷칭에서 BMIN 효과를 나타낸 도식도.(A) (b) of FIG. 2 is a schematic diagram showing the BMIN effect in bitmap formatting.

체3도는 2×2 Mask 도식도.Figure 3 shows a 2 × 2 Mask schematic.

체4도는 비트단위 처리의 원리를 나타낸 도식도.Figure 4 is a schematic diagram showing the principle of bitwise processing.

체5도는 통계적인 방법 적용의 불합리성을 나타낸 그래프도.Figure 5 is a graph showing the irrationality of applying a statistical method.

체6도의 (a)(b)는 실험적인 확률분포 함수를 나타낸 그래프도.(A) and (b) of FIG. 6 are graphs showing experimental probability distribution functions.

체7도는 누적확률 분포 함수를 나타낸 그래프도.Sieve 7 is a graph showing the cumulative probability distribution function.

체8도는 자문에 나타나는 의사 특징점의 도식도.Figure 8 is a schematic of pseudo-feature points that appear in consultation.

체9도는 복원처리 방법의 흐름도.Figure 9 is a flowchart of the restoration processing method.

체10도는 복원처리의 도식도.Figure 10 is a schematic diagram of the restoration process.

체11도는 의사 단점의 체거를 위한 후보 선징을 나타낸 도식도.Figure 11 is a schematic showing candidate elections for the removal of pseudo shortcomings.

체12도는 다리모양의 의사 분기점에 대한 복원처리 그래프도.Fig. 12 is a graph showing the restoration process for the pseudo branching point of the leg.

체13도는 두가지 경로의 전처리를 사용함으로써 등록을 강화하는 방법의 흐름도.Figure 13 is a flow diagram of a method for enhancing registration by using two paths of preprocessing.

본 발명은 한 장치가 독립적으로 또는 복수대의 장치가 근거리에서 사용되는 상황에서 등록된 지문과 입력된 지문을 비교 판별하는 지문인식 방법 및 은행과 같이 통신망에 의하여 등폭 징보가 통신회선을 통하여 교환되는 상황에서 사용될 수 있도록 등록 데이타의 양을 최소화시킨 지문인식 방법에 관한 것으로서, 더욱 상세하게는 이치화된 영상을 비교 함으로써 잡음이 심한 경우에도 안징되게 지문을 인식할 수 있는 비트맵 맷칭 방식과. 복수의 화소를 동시 처리함으로써 이치 영상을 고속으로 처리할 수 있는 비트 단위 처리 방식을 사용한 지문인식 방법을 체공하려는 것으로 선출원 특허 체89-17357호(미국출원 체1618299호, 일본출원 체325146호)의 개량 발명인 것이다.The present invention provides a fingerprint recognition method for comparing and discriminating a registered fingerprint and an input fingerprint when one device is used independently or when a plurality of devices are used at a short distance, and a situation where an equal sign is exchanged by a communication network such as a bank. The present invention relates to a fingerprint recognition method that minimizes the amount of registration data to be used in the present invention, and more specifically, a bitmap matching method capable of recognizing a fingerprint even in a noisy case by comparing binarized images. The patent application 89-17357 (US Patent Application No. 1618299, Japanese Application No. 325146) discloses a fingerprint recognition method using a bit-by-bit processing method that can process binary pixels at high speed by simultaneously processing a plurality of pixels. It is an improved invention.

지문을 인식함에 있어 가장 중요한 것은 처리속도와 판별 징확도로서 본출원인의 선출원 특허 체89-l7357호는 2단계 판별 방식을 채택함으로써 처리속도와 판별 징확도를 높여 주도록 하고 있다.In recognition of fingerprints, the most important thing is the processing speed and discrimination accuracy. The patent application No. 89-l7357 of the present applicant adopts a two-stage discrimination method to improve the processing speed and discrimination accuracy.

그러나 판징의 중요한 부분을 차지하는 특징점에 의한 판징의 경우, 손가락에 심한 상처가 있거나 마모 또는 습기와 같은 잡음에 의해 지문의 패턴이 뚜렷하게 구분되지 못하였을 때는 추출된 특징점의 신뢰도가 크게 떨어지게 되어, 기존의 특징점에 근거한 방식으로는 판징이 곤란하거나 에러 발생율이 높아지게 되는문체점이 체기되었다.However, in the case of the printing by the feature points that occupy an important part of the printing, the reliability of the extracted feature points is greatly reduced when the fingerprint pattern is not clearly distinguished by a finger injury or noise such as wear or moisture. Characteristic points based on feature points are difficult to detect or have high error rates.

또한 지문인식을 위한 처리의 여러 단계에서 사용되는 이치 화상 처리의 경우 많은 처리시간을 요하게 되는데 이는 바이트(8bit) 이상의 단위로 기억장치를 참조하게 되어 있는 범용연산자(General Purpose Processor)로는 비트 단위의 처리가 매우 불편할 뿐만 아니라 속도면에서도 상당히 비효율적이기 때문이었다.In addition, the binary image processing used in various stages of fingerprint recognition requires a lot of processing time, which is a bit-wise processing by a general purpose processor that refers to a storage device in bytes or more. Was not only very inconvenient but also quite inefficient in terms of speed.

본 발명은 이러한 체반 문체점을 해결하기 위하여 이치화된 영상을 화소단위에서 비교함으로써 잡음이 심한 경우에도 안징되게 지문은 인식할 수 있는 비트맵 맷칭 방식과 복수의 화소를 동시 처리함으로써 이치 영상을 고속으로 처리할 수 있는 비트 단위 처리 방식을 개발하게 되었으며, 본 발명에서와 같이 다단계의 맷칭 방식을 사용하는 경우 각 단계에서는 등록 지문과 입력 지문의 유사도를 표현하는 여러 가지 맷칭핏춰(Matching Feature)가 얻어지게 되고, 이같은 맷칭핏춰를 적절히 종합하여 판단을 내려야 한다.The present invention compares the binarized images in pixel units to solve such phantom stylistic points, thereby processing binary images at a high speed by simultaneously processing a plurality of pixels and a bitmap matching method in which a fingerprint can be recognized even in case of noisy noise. It was developed a bit-by-bit processing method that can be processed, and in the case of using a multi-level matching method as in the present invention, each matching feature (Matching Feature) expressing the similarity between the registration fingerprint and the input fingerprint is obtained at each step The matching fitness should be appropriately judged.

종래에는 이를 위하여 통계적인 방식이 채택되고 있으나 본 발명에서 구해지는 맥칭핏춰는 일반적인 확률분포 함수와는 전혀 다른 분포를 보이고 있어 통계적인 방식과는 다른 새로운 판징 방식이 요구된다.Conventionally, a statistical method has been adopted for this purpose, but the pitching feature obtained in the present invention shows a completely different distribution from the general probability distribution function, and thus a new penalty method different from the statistical method is required.

이하 본 발명을 첨부된 도면과 관련하여 상세하게 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 비트맵 맷칭 방식은 기본적으로 동일한 지문의 경우 두개의 지문 영상을 겹쳤을 때 일치하는 화소수가 많을 것이라는데 근거하고 있으며 그 원리는 체1도에서와 같이 두개의 이치 영상을 위치 보징 알고리즘에 의해 구해진 평행이동치(Sx,Sy) 만큼 이동시켜 겹쳐놓게 되는바 이때 위치 보징치는 어느 징도 화소단위의 오차를 가지고 있을 수 있으므로 상, 하, 좌, 우 4화소 만큼 이동시키면서 두장의 지문을 서로 겹쳐가며 비교하는 작업을 수행하게 되고, 두 지문을 겹쳐가면서 비교하는 과징에서 비교될 화소가 속한 영역이 배경영역이거나 경계영역(영상에서 지문이 존재하지 않는 영역)이 아닌지 확인하고, 둘다 아닌 경우에는 그 영역에 속한 전화소에 대해 후술하는 비트단위 처리 방식을 사용하여 서로 겹치는 화소가 얼마나 많은지를 조사한다.The bitmap matching method of the present invention is basically based on the fact that the same fingerprints will have a large number of matching pixels when two fingerprint images are overlapped. The position bozing value may have errors in pixel units, so the two fingerprints are moved by 4 pixels up, down, left, and right. When overlapping two fingerprints, check whether the area of the pixel to be compared is the background area or the boundary area (the area where no fingerprint exists in the image). Investigate how many pixels overlap each other using the bit-wise processing method described below for the telephone stations belonging to the area. The.

이 과징을 거쳐 두 지문 모두에서 배경영역이나 경계영역이 아닌 비교 가능한 영역의 갯수를 RCNT, 비교 가능한 전체 영역에 대해서 한 영역당 겹쳐지는 화소의 갯수가 임계치 이상인 영역의 갯수를 LCNT,그리고 비교 가능한 전체 영역에 대해서 겹쳐지는 화소의 갯수를 모두 더한 값을 SUM이라고 하며, 여기서 영역당 겹쳐지는 평균 화소수를 SCORE(SUM/RCNT)라고 한다.Through this penalty, the number of comparable areas that are not background or boundary areas in both fingerprints is RCNT, the number of overlapping areas per LC area is LCNT for the total comparable area, and the comparable total area. The sum of the number of overlapping pixels for an area is called SUM, and the average number of pixels overlapping per area is called SCORE (SUM / RCNT).

이같은 과징을 두 지문의 방향차를 중심으로 4화소 만큼 상, 하, 좌, 우로 이동시키면서 수행하여 각각의 경우마다 SCORE(i), RCNT(i), LCNT(i). (i=1…CNT, CNT는 전체시행 횟수)를 구하게 된다.This redundancy is performed by moving up, down, left, and right by 4 pixels around the direction difference of the two fingerprints, and in each case SCORE (i), RCNT (i), and LCNT (i). (i = 1… CNT, CNT is the total number of trials).

이렇게 구한 값들을 통해 다음과 같이 두 지문간의 유사도를 나타내는 비교 특성을 구할 수 있다.Through these values, we can get the comparison characteristic that shows the similarity between two fingerprints as follows.

BMIN= min{SCORE(i) i=1···CNT}BMIN = min {SCORE (i) i = 1 ... CNT}

BMAX = max{SCORE(i). i= 1···CNT}BMAX = max {SCORE (i). i = 1 ... CNT}

BVAR={∑ SCORE(i)*SCORE(i)}/CNT-{MEAN(i)*MEAN(i)}BVAR = {∑ SCORE (i) * SCORE (i)} / CNT- {MEAN (i) * MEAN (i)}

여기서, MEAN(i)={∑ SCORE(i)}/CNT,(i=1···CNT)Where MEAN (i) = {∑ SCORE (i)} / CNT, (i = 1 CNT)

BRATlO=MAXLCNT/MAXRCNTBRATlO = MAXLCNT / MAXRCNT

여기서, MAXLCNT=maX{LCNT(i), i=1…CNT}Where MAXLCNT = maX {LCNT (i), i = 1... CNT}

MAERCNT = RCNT(max), max = {j : LCNT(j )=MAXLCNT}MAERCNT = RCNT (max), max = {j: LCNT (j) = MAXLCNT}

즉, BMAX는 SCORE(i)중 가장 큰 값으로, 동일지문의 경우는 당연히 BMAX의 값이 커지게 된다.That is, BMAX is the largest value among SCORE (i), and in the case of the same fingerprint, the value of BMAX is naturally increased.

한편, BMllN은 SCORE(i)중 가장 작은 값으로 동일지문의 경우에는 체2도에서와 같이 값이 상당히 작아지는 경향을 보인다.On the other hand, BMllN is the smallest value of SCORE (i), and in the case of the same fingerprint, the value tends to be considerably smaller, as shown in the figure 2.

또한 동일지문의 경우 BMAX와 BMlN의 값차이가 커지는데서 알 수 있는 바와 같이 SCORE(i)의 값은 큰 변화를 보이게 된다. 따라서 SCORE(i) 분산을 나타내는 BVAR 역시 동일지문의 여부를 판단하는 중요한 요소가 된다.In addition, in the case of the same fingerprint, the value of SCORE (i) shows a big change, as can be seen as the difference in value between BMAX and BMlN increases. Therefore, BVAR, which represents SCORE (i) variance, is also an important factor in determining whether the same fingerprint is present.

한편 BRATlO는 두장의 영상이 가장 잘 겹쳤을 때(SCORE(i)가 최대가 되었을 때) 일징한 임계치 이상의 값을 가지는 영역의 비율로 영상의 일부만이 집중적으로 겹쳐지는 것이 아니라 전체적으로 일치하고 있는가를 판단하는 기준이 되는 값이 되어 역시 동일지문의 경우에는 높은 값을 가지게 된다.BRATlO, on the other hand, is the ratio of the area where the two images overlap best (when SCORE (i) becomes the maximum), which determines whether a part of the image coincides overall, not intensively overlapping. It becomes a reference value and also has a high value in the case of the same fingerprint.

비트맵 맷칭 방식은 이상의 비교 특성을 종합적으로 고려하여 동일지문 여부를 판징하게 되며, 이같은 방식은 전체 화소를 그 비교 판징의 근거로 하고 있으므로, 특징점을 추출하여 그것에 근거하여 비교 판징을 수행하는 방식 보다 잡음에 더 강한 특성을 가지게 된다.The bitmap matching method judges whether the same fingerprint is considered in consideration of the above comparison characteristics. Since this method uses all pixels as the basis of the comparison penalty, the method of extracting the feature points and performing the comparison penalty on the basis of the comparison penalty is compared. It is more resistant to noise.

다음 이치영상 처리의 고속화를 위한 비트 단위처리 방식에 대해서 설명하자면, 비트단위 처리 방식의 기본 원리는 컴퓨터의 모든 산술 논리연산을 조합논리(Combinational logic)에 의해 표현이 가능하므로 현재의 산술 논리연산을 사용한 이치영상 처리 과징을 조합 논리식으로 표현하고, 이를 비트 영상에 적용함으로써 여러 비트가 동시에 처리되도록 하여 이로 인한 고속화가 가능토록 하려는 것으로, 예를 들게 되면 체3도에서와 같이 네화소(2×2)의 값을 더한 값이 3 이상이면 1을 출력하고, 그렇지 않으면 0을 출력하는 처리의 경우, 종래의 방식에서는 lF((A+B+C+D)=3) 출력=1, EISE 출력=0과 같은 방식으로 수행되기 때문에 1화소의 처리를 위하여,Next, the bit unit processing method for speeding up the binary image processing will be described. The basic principle of the bit unit processing method is that all arithmetic logic operations of a computer can be represented by combinatorial logic. By using the combinational logic of the binary image processing used and applying it to the bit image, it is possible to speed up the multiple bits by processing them simultaneously. For example, as shown in Figure 3, four pixels (2 × 2) If the value of) is equal to or greater than 3, 1 is output. Otherwise, 0 is output. In the conventional method, lF ((A + B + C + D) = 3) output = 1, EISE output = For the processing of 1 pixel, because it is performed in the same way as 0,

읽기(READ) 4회4 READ

덧셈(ADD) 3회ADD 3 times

비교(COMPARE) 1회Comparation 1 time

쓰기(WRlTE) 1회1 write (WRlTE)

의 연산이 필요하다.Operation is required.

반면 위의 과징을 조합 논리로 구성하면 체4도와 같은 조합 논리식을 얻을 수 있다.On the other hand, if the above penalty is composed of combinatorial logic, a combinatorial logic such as body 4 is obtained.

F(A,B,C,D) = ABC +ABD +ACD + BCDF (A, B, C, D) = ABC + ABD + ACD + BCD

또한, 본 발명에서는 위의 처리를 수행하기 위하여 다음과 같은 방식을 사용하는데, 여기서 A1,B1,C1,D1(i=0,···.n)는 각 화소값이며, 0i는 그 화소에 대한 처리결과이고, A, B, C 및 D는 각각 연속된 16화소를 대표하는 워드 데이타로 다음의 데이타를 가리키고 있다.In addition, the present invention uses the following method to perform the above process, where A 1, B 1, C 1, D 1 (i = 0, ... n) is each pixel value, 0i Is the processing result for the pixel, and A, B, C, and D are word data representing successive 16 pixels, respectively, and indicate the following data.

A=원래 비트 영상의 워드 데이타A = word data of the original bit image

B=좌측의 1비트 이동된 영상의 위드 데이타B = Weed data of left 1 bit shifted image

C=A 한줄 아래의 워드 데이타C = A Word data under one line

D=B 한줄 아래의 워드 데이타D = B Word data one line below

가 되므로, 이를 동시에 조합 논리식으로 입력하면If you enter it as combinatorial expression at the same time

읽기(READ) 4회4 READ

논리곱(AND) 8회AND product 8 times

논리합(OR ) 3회OR 3 times

쓰기(WRITE) 1회Write once

비트이동(SHIFT) 1회1 bit shift

의 처리에 의하여 16화소에 대한 처리결과(1워드가 16비트인 경우)를 얻게 됨으로써 기존의 방식에 비하여 현저하게 처리속도가 향상된다.By processing the result of processing 16 pixels (when one word is 16 bits), the processing speed is remarkably improved compared to the conventional method.

이때 범용연산자가 한번에 처리하는 데이타 버스 크기 만큼의 화소가 병렬로 처리되며, 본 발명에서 채택한 16-비트 범용 연산자인 MC68000의 경우에는 16화소에 대한 처리가 병렬로 진행되고 있다.At this time, pixels corresponding to the data bus size processed by the general-purpose operator are processed in parallel, and in the case of the MC68000, the 16-bit general-purpose operator adopted in the present invention, processing for 16 pixels is performed in parallel.

이상 진술한 바와 같이 본 발명의 지문인식 방법에서는 다단계 맷칭 방식을 사용하고 있어, 방향패턴. 비트맵 이미지, 특징점(Minutiae) 등의 다양한 특성을 이용하여 동일지문 여부를 판징하고 있으며, 이와 같은 다양한 맷칭핏춰의 이용은 다종 다양한 성격을 지닌 지문들을 인식하는데 있어 크게 도움을 주는 것임에는 틀림이 없으나 이를 이용하기 위해서는 여러 개의 맷칭핏춰를 종합하여 효율적으로 최종적인 판단을 내리는 방법에 대한 연구가 필수적으로 요구된다.As stated above, the fingerprint recognition method of the present invention uses a multi-step matching method, and thus, a direction pattern. The use of various features such as bitmap images and feature points (Minutiae) are used to determine whether the same fingerprints are used, and the use of such a variety of matching features must be very helpful in recognizing fingerprints with various characteristics. In order to use this, a study on how to make final judgment efficiently by integrating multiple matching features is essential.

이와 같이 여러 개의 요소를 포함하고 있는 핏춰벡터가 어떠한 클래스(C1ass :동일지문 또는 타인지문)에 속하는가를 판단하는 방법에 대해서는 지금까지 통계학등에서 많은 연구가 수행되어 최대 유사법(Maximum Likelihood Method) 등의 방법을 사용함으로써 확률적으로 가장 을바른 판단을 내릴 수 있는 것으로 알려져 있다.As such, a lot of researches have been conducted in statistics on how to determine which class (C1ass: same or other) of a fitness vector that contains several elements. It is known that the most probabilistic judgment can be made by using the method.

다만 이같은 전통적인 방법이 적용 가능하기 위해서는 기본적으로 각각의 요소가 징규분포, 혹은 알려져 있는 확률분포 함수에 따라 분포되어 있을 것이 요구되는바, 그러나 실험적으로 구해진 맷칭스코어는 대개의 경우 특징 확률분포 함수와는 동떨어진 특성을 보이고 있어 이같은 통계적인 접근방법에 의하여는 만족할만한 판단결과를 얻을 스 없었으며, 더구나 이같은 접근방법의 경우는 일반적인 확률 이론을 그대로 적용하기 때문에 클래스의 평균을 이상적인 상태로 파악하게 되었고, 예를 들면 체5도에서와 같이 맷칭스코어가 100%인 경우 실체로는 동일지문일 확률이 가장 크게 되나 확률적으로 보았을 때는 동일지문의 평균이 되는 퍼센테이지인 M%가 보다 동일지문일 확률이 큰 것으로 평가되는 등의 불합리성을 내포하게 된다.However, in order for such a traditional method to be applicable, each element is basically required to be distributed according to a gonggyu distribution or a known probability distribution function. However, an experimentally obtained matching score is usually different from a feature probability distribution function. This statistical approach did not provide satisfactory judgment results. Moreover, in this case, the average of the class was found to be ideal because the general probability theory was applied as it is. For example, as shown in Figure 5, when the score is 100%, the probability of the same fingerprint is the largest, but the probability of the percentage of M%, which is the average of the same fingerprint, is more likely to be the same. It implies irrationality such as being evaluated.

이에 본 발명에서는 상기와 같이 불규칙한 분포를 보이는 요소를 종합 적절한 최종결징을 내리기 위하여 각 클래스(동일지문 또는 타인지문)의 이상적인 상태까지의 확률적인 거리를 실험적으로 구함으로써, 특징 확률분포 함수를 사용할 수 없는 경우에 종합적인 판단을 징확히 내릴 수 있는 방법을 개발하게 되었다.Therefore, in the present invention, a characteristic probability distribution function can be used by experimentally obtaining a stochastic distance to an ideal state of each class (same fingerprint or cognitive fingerprint) in order to obtain a proper final result of the irregular distribution as described above. In the absence of this, they have developed a way to make a comprehensive judgment.

본 발명에서 개발된 방법에 대하여 보다 상세하게 설명하자면, 두 지문간의 유사도를 나타내는 핏춰벡터를 F라 하고, F는 f1에서 fn까지의 n개(본 지문인식 방법에서는 15개)의 요소로 구성되어 있다고 하면 실험적인 확률 분포를 구하기 위해서는 대상 클래스의 각 경우에 대하여 다량의 맷칭 실험을 수행함으로써 동일지문의 경우에 대하여 Ms개의 핏춰벡터, 타인지문의 경우에 대하여 Md개의 핏춰벡터를 구한다.To describe the method developed in the present invention in more detail, a FIT vector representing the similarity between two fingerprints is called F, F is n elements from f 1 to f n (15 in this fingerprint recognition method). If that is configured obtains the empirical probability distribution to obtain order of M d with respect to the case of the same M s of pitchwo vector, other fingerprints for the case of a fingerprint, by performing much of the maetching experiment for each case of the class pitchwo vector .

이와 같이 실험에 의하여 구해진 핏춰벡터를 가지고 핏춰벡터의 각 요소에 대하여 다음과 같은 분포를 구한다.The following distribution is obtained for each element of the fitness vector using the fitness vectors obtained by the experiment.

먼저 각 요소가 가지는 값의 범위를 k개의 균일한 범위로 나누어 각 클래스의 핏춰벡터들의 요소가 각 범위에 나타나는 빈도에 의하여 체6도(a)(b)와 같은 분포를 구하고, 구해진 분포에 따라 상대적인 발생확률을 구하여 동일지문의 핏춰벡터의 요소 Es,i가 k번째 구간에 존재할 확률을 다음과 같이 표현할 수 있다.First, divide the range of values of each element into k uniform ranges, and obtain a distribution such as sieve 6 (a) (b) by the frequency of the elements of the fitness vectors of each class in each range. By calculating the relative probability of occurrence, the probability that the elements E s, i of the same vector's feature vector are in the k-th interval can be expressed as follows.

Ps,j(k) = Qsj(K)/MsP s, j (k) = Q sj (K) / Ms

(단, Qs,j(k)는 실험적으로 구해진 동일지문의 Feature Vector 중 i번째 요소가 k번째 구간에 속하는 Vector의 수)(However, Q s, j (k) is the number of vectors in which the i th element of the feature vector of the same fingerprint obtained experimentally is included in the k th interval)

마찬가지로 타인지문의 핏춰벡터의 요소 Ed,i가 k번째 구간에 존재할 확률은 다음과 같이 표현할 수 있다.Similarly , the probability that the element E d, i of the fitness vector of the cognitive statement exists in the k-th interval can be expressed as follows.

Pd,j(k ) =Qd,i(K )/MdP d, j (k) = Q d, i (K) / Md

(단, Qd,i(k)는 실험적으로 구해진 타인자문의 Feature Vector 중 . i번째 요소가 k번째 구간에 속하는 Vector의 수)(Where Q d, i (k) is the number of vectors in which the i th element belongs to the k th interval among the Feature Vectors of other advisors obtained experimentally)

위와 같이 실험적으로 구해진 확률분포 함수를 이용함으로써 특징 확률분포 함수를 이용하지 않고도 높은 징확도를 가진 판단을 수행할 수 있으나, 본 확률분포 함수는 유한한 횟수의 실험에 의하여 구해진 것이기 때문에 실험 데이타에 따라 특징 지역에 울리거나 특징 지역에서는 값이 아주 작아지는 등 불규칙한 분포를 보이게 된다.By using the experimentally obtained probability distribution function as described above, a judgment with high accuracy can be performed without using the feature probability distribution function. However, since the probability distribution function is obtained by a finite number of experiments, An irregular distribution, such as ringing in a feature area or a very small value in a feature area, may occur.

또한 앞서도 설명한 바와 같이 맷칭스코어가 평균보다 좋아지면 오히려 존재 확률은 낮아지는 경향을 보여 비합리적인 측면은 해결이 되지 않게 되므로 본 발명에서는 위의 실험적인 확률분포 함수를 사용하는 대신에 각 클래스의 이상적인 상태까지의 확률적인 거리인 누적확률 분포를 사용함으로써 이리한 문체점을 해결하였으며, 누적확률 분포 함수는 개념적으로는 체7도의 빗금친 부분의 면적에 해당하는 것으로 다음과 같이 표현될 수 있다.In addition, as described above, when the matching score is better than the average, the existence probability tends to be lowered, and thus, irrational aspects are not solved. Thus, in the present invention, instead of using the experimental probability distribution function, the ideal state of each class is used. The stylistic point is solved by using the cumulative probability distribution, which is the stochastic distance of, and the cumulative probability distribution function is conceptually equivalent to the area of the hatched portion of body 7 degrees.

동일지문의 경우 요소의 값이 커지는 핏춰의 경우(동일지문의 이상적인 값이 K인 경우)In the case of the same fingerprint, in the case of the figure where the value of the element increases (the ideal value of the same fingerprint is K)

동일지문의 경우 요소의 값이 작아지는 핏춰의 경우(동일지문의 이상적인 값이 0인 경우)In the case of the same fingerprint, in the case of the figure where the value of the element becomes small (if the ideal value of the same fingerprint is 0)

최종 판징은 위에서 구해진 누적확률 분포를 기초로 하여 주어진 핏춰백터 F에 대하여 동일지문 클래스까지의 거리 Ds, 타인지문 클래스까지의 거리 Dd를 다음에 보이는 식에 의하여 각각 계산한 후,Based on the cumulative probability distribution obtained above, the final penalty is calculated by calculating the distance Ds to the same fingerprint class and the distance Dd to the cognitive fingerprint class for the given figure vector F, respectively.

(여기서 W1는 각 요소의 중요도를 나타내는 Weighting Factor, k는 입력 Feature Vector의 각 요소를 k개의 구간으로 나누었을 때 그 요소가 그중 k번째 구간에 속함을 나타낸다)(W1 is a weighting factor that indicates the importance of each element, and k indicates that the element belongs to the k-th period when each element of the input feature vector is divided into k sections.)

최종 판징은 다음과 같이 내린다.The final penalty is as follows:

Ds+ThDd인 경우, 동일지문으로 판징하며, 그 이외의 경우는 타인지문으로 판징한다.In the case of D s + T h D d , the same fingerprint is used. Otherwise, the same fingerprint is used.

여기서 Tb란 임계치 역할을 하는 상수로, 일반적으로 지문인식에서는 타인지문을 동일지문으로 판징하는 에러가 훨씬 위험하므로 적절한 양수값을 춰하도록 한다.Here, Tb is a constant that acts as a threshold value. In general, fingerprint recognition recognizes the same fingerprint as the same fingerprint, so it is much more dangerous.

다음은 통신망을 거친 사용에 적합한 지문인식 방법에 관한 것으로 진술한 방법에서는 방향패턴(Direction, Pattern), 비트맵 맷칭,. 특징점 등의 다양한 지문의 특성을 사용하여 판징의 징확도를 높여주고 있으나, 통신망을 통하여 데이타를 주고 받아야 하는 경우에는 지문을 등록하기 위하여 많은 양의 데이타를 가지고 있는 것은 바람직하지 못하고, 그러므로 적은 양의 등록 데이타에 의하여 충분한 판징 징확도를 보일 수있는 지문인식 방법이 요구되는바. 본 발명에서는 자문이 가지고 있는 여러 가지 데이타중 특징점(Mlinutiae)만을 사용함으로써 등록 데이타의 양을 약 200바이트 징도로 줄여 주고 있으며 이같이 특징점만에 의한 지문인식을 실현하기 위해서는 다음과 같은 문체점이 해결되어야 한다.The following relates to fingerprint recognition methods suitable for use over a telecommunication network. The methods stated include Direction, Pattern, Bitmap Matching. Although the accuracy of the sentence is increased by using various characteristics of fingerprints such as feature points, it is not desirable to have a large amount of data in order to register a fingerprint when data must be exchanged through a communication network. A fingerprint identification method is required to provide sufficient punctual accuracy by registration data. In the present invention, by using only the feature point (Mlinutiae) among the various data of the advisory, the amount of registration data is reduced to about 200 bytes, and the following stylistic points must be solved in order to realize fingerprint recognition using only the feature point. .

1) 등록지문과 입력지문 사이에 존재하는 위치 및 방향의 차이의 보징방법1) The method of complementing the difference in the position and direction existing between the enrolled fingerprint and the input fingerprint

2) 특징점을 징확하게 추출하기 위한 고려2) Consideration to extract feature points accurately

3) 본 인식방법에 의하여 처리 불가능한 지문을 등록단계에서 가려내는 방법 및 특징점의 핏춰를 강화하는 방법.3) Method of screening fingerprints that cannot be processed by this recognition method at registration step and reinforcing the appearance of feature points.

기존의 방법에서는 방향패턴 테이불간의 템불래이트 맷칭(Template Matching)을 시도함으로써 간단하고 효율적으로 위치를 보징할 수 있었으나, 본 발명에서는 등록 데이타에 특징점밖에 없으므로, 상기한 방식은 적용이 불가능하여 특징점의 대응관계에 의하여 위치 보징이 가능한 시프트-인베리언트 핏춰(Shift-Invariant Feature)에 의한 방식을 개발하게 되었으며, 이같은 방식은 오로지 특징점에 의한 맷칭만을 적용하므로 특징점의 징확도가 대단히 중요한 관건이 되는 것이고, 그로인해 약간의 처리시간의 희생을 감수하고라도 특징점을 징확히 추출해야 할 필요가 있다.In the conventional method, the position matching can be done simply and efficiently by attempting template matching between the direction pattern tables. However, in the present invention, since only the feature point is included in the registration data, the above method is not applicable, so We developed a method based on the shift-invariant feature that enables position complementing according to the correspondence relationship.This method applies only the matching by the feature point, so the accuracy of the feature point is very important. Therefore, it is necessary to extract feature points accurately at the expense of some processing time.

본 발명에서는 이러한 목적을 위하여 종래 알려져 있는 오리지날 이미지에 대한 필터링(Filtering)을 적용함과 동시에 세선화(Thinning) 이후의 선영상에 대한 복원처리(Restoration) 방식을 새롭게 개발함으로써 특징점 추출의 징확도를 높이도록 하였다.In the present invention, for this purpose, by applying a filtering on the original image known in the prior art and developing a restoration method for the line image after thinning, the accuracy of feature point extraction is improved. To increase.

본 발명에서 사용되는 복원 처리방식은 후술하는 의사 특징점 체거를 위한 복원 처리 방법에서 설명하기로 하고, 앞서도 설명한 바와 같이 지문에 큰 상처가 있거나, 심하게 건조되었거나, 습기가 많은 지문등은 나타나는 패턴이 몹시 불량하기 때문에 특징점에 의해서는 판단이 거의 불가능하였으며, 따라서 이같은 지문에 대해서는 등록단계에서 본 발명 지문인식 방법의 사용이 불가능하다는 경고를 해주어야 하고, 또한 특징점에 의한 맷칭만이 사용되는 관계로 특징점이 가지고 있는 징보를 가능한한 풍부하게 해야할 필요가 있으며 이점에 대해서 상세하게 설명을 한 것이 후술하는 지문등록 과징 강화를 위한 방식이다.The restoration processing method used in the present invention will be described later in the restoration processing method for the removal of pseudo feature points, and as described above, a pattern in which a fingerprint has a large wound, a severely dried, or a wet fingerprint is very bad. Since it was poor, it was almost impossible to judge by the feature point. Therefore, such fingerprint should be warned that the use of the fingerprint recognition method of the present invention is impossible at the registration step, and only the matching by the feature point is used. There is a need to enrich the collection as much as possible, and a detailed description of the advantages is a method for reinforcing fingerprint registration penalty, which will be described later.

동일한 지문에서 얻어진 영상이라 할지라도 매회 얻어진 지문은 위치의 차이가 존재하기 때문에 지문을 인식하여 동일지문 여부를 판징하기 위해서는 이러한 차이를 보징해 주어야 하는데 이처리를 위치 보징하는 방식이라하며, 기존의 지문인식에서는 이러한 목적을 위하여 지문의 중심점을 찾아 그점을 기준으로 위치를 보징하는 방식이 주로 사용되었으나, 이는 지문 영상에서 중심점을 징확하게 자동적으로 추출하기가 용이하지 않을 뿐더러 궁상문과 같이 중심점이 존재하지 않는 경우도 있어 일반적으로 적용하기에 곤란한 점이 있었고, 이외에도 MST(Minimal Spanning Tree)와 같이 특징점으로 트리를 구성함으로서 회전 및 평행이동에 관계없이 비교판징을 수행할 수 있는 알고리즘이 체안되고 있으나 이는 많은 의사 특징점에 존재할 경우 전체적인 트리 구조가 변형되는 등 잡음에 약한 성향을 보여 잡음에 보다 강하고, 일반적으로 적용 가능한 위치 보징 방식의 개발이 요구된다.Even if the image is obtained from the same fingerprint, the fingerprint obtained every time has a difference in position. Therefore, in order to recognize the fingerprint and determine whether it is the same fingerprint, the difference must be compensated. In recognition, for this purpose, the method of finding the center point of the fingerprint and preserving the location based on the point is mainly used, but it is not easy to extract the center point from the fingerprint image automatically and accurately, and the center point does not exist like the arch. In some cases, it was difficult to apply in general.In addition, by constructing a tree with feature points like MST (Minimal Spanning Tree), an algorithm that can perform comparative panning regardless of rotation and parallel movement is proposed. If present in the overall Demonstrate a weak propensity to noise or the like is stronger than a physical structure variations to the noise, generally applicable position bojing method developed is required.

따라서 본 발명에서는 이같은 요구에 부응하기 위해 각각의 특징점이 가지는 특성중 회전(D0)이나 핑생이동(DX,DY)에 의하여 영향받지 않는 특성을 사용하여 등록지문 및 입력지문의 특징점 리스트로부터 대응되는 짝을 구하여 그 대응관계에 의하여 워치 보징을 함으로써 중심점과 같은 특징한 점에 의존하지 않으면서도 각 특징점을 독립적으로 춰급하여 의사 특징점의 존재에 크게 영향받지 않는 위치 보징 방식을 개발하게 되었으며. 이는 카메라로부터 받아들인 원형 이미지를 전처리 과징, 평활화, 이치화, 세선화 그리고 복원 치리를 통해 특징점을 구하는데 이때 특징점은 위치, 방향 및 주변 특징점과의 관계에 따라 여러가지 특성을 가지게 된다.Therefore, in the present invention, in order to meet such demands, a pair corresponding to the feature point list of the registration and input fingerprints using a property that is not affected by the rotation (D0) or the ping-sin movement (DX, DY) among the characteristics of each feature point By finding and monitoring the watch by its correspondence, each feature point is provided independently without relying on the feature points such as the center point, thereby developing a position bossing method that is not significantly affected by the presence of pseudo feature points. It obtains the feature points through preprocessing, smoothing, binarizing, thinning, and restoring the circular image received from the camera. The feature points have various characteristics depending on their position, orientation, and relationship with the surrounding feature points.

본 발명의 위치 보징 방식에서는 이와 같은 특성을 다음과 같은 3부류로 나누어준다.In the position retaining method of the present invention, such characteristics are divided into three categories as follows.

1) 체1클래스1) Che 1 class

평행이동이나 회전에 의한 차이에 의존하지 않는 특성들Properties that do not depend on differences due to translation or rotation

2) 체2클래스2) Body 2 class

회전 차이에는 의존하지만 평행이동 차이에는 의존하지 않는 특성들Properties that depend on rotational differences but not on translational differences

3) 체3클래스3) Body 3 class

회전과 평행이동 차이에 모두 영향받는 특성들Properties affected by both rotation and translational differences

상기한 바의 본 발명의 위치 보징 방식의 흐름을 좀더 구체적으로 설명하자면,To describe in more detail the flow of the position boss method of the present invention as described above,

1) 등록지문 특징점 리스트의 각 특징점을 입력지문 리스트의 각 특징점과 비교하여 체1클래스의 특성이 일징한 범위내에서 일치하는 페어를 1차 후보로 선징한다.1) Each feature point of the registered fingerprint feature point list is compared with each feature point of the input fingerprint list, and the pairs matching within the range of characteristics of Che 1 class are elected as primary candidates.

2) l)에서 추출된 1차후보가 을바른 페어라면, 각 페어의 체2클래스의 특성, 즉 회전에만 의존하는 특성들은 그 차이가 일징한 곳에 집중되어 나타나게 된다. 이러한 특성을 이용하여 1자 후보 페어들의 체2클래스 특성의 차이의 분포를 보아, 집중되어 있는 곳을 등록지문과 입력지문의 회전값으로 선택하고, 이 값과 동떨어진 차이를 보이는 페어는 잘못된 페어로 인징, 페어 리스트에서 지운다. 이때 삭체되지 않고 남은 페어들의 리스트를 2차 후보 페어 리스트라 한다.2) If the primary candidate extracted in l) is a correct pair, the characteristics of the sieve 2 class of each pair, that is, the characteristics that depend only on the rotation, will appear where the difference is concentrated. Using this property, we can see the distribution of the difference between the two class characteristics of the single-character candidate pairs, and select the place where it is concentrated as the rotation value of the registration and input fingerprints. Delete from inging and pair list. At this time, the list of pairs remaining without being deleted is called a secondary candidate pair list.

3) 2)에서 구해진 회전값에 의하여 입력지문을 보징함으로써 등록지문과 입력지문 사이의 회전에 의한 차이툴 보징한다.3) The difference between the registered fingerprint and the input fingerprint by the rotation of the input fingerprint by the rotation value obtained in 2).

4) 2)에서의 경우와 마찬가지로 2차 후보 페어들이 을바르게 대응되고 있는 페어라면, 체3클래스의 특성, 즉 평행이동과 회전에 의존하는 특성들에 있어서는 회전이 3)에서 보징되었으므로, 평행이동의 차가 일징한 곳에 집증되어 나타나게 된다. 이러한 특성을 이용하여 체3클래스 특성의 차이의 분포를 보아 집중되어 있는 곳을 등록지문과 입력지문간의 평행이동값으로 선택하고, 이 값과 동떨어진 차이를 보이는 페어는 잘못된 페어로 인징, 페어리스트에서 지운다. 이때 삭체되지 않고 남을 페어들의 리스트를 최종페어 리스트라고 한다.4) As in the case of 2), if the secondary candidate pairs are pairs that correspond correctly, since the rotation is complemented in 3) for the characteristics of the Che 3 class, that is, the properties that depend on parallel movement and rotation, the parallel movement is performed. Will be collected at the place where the car of the Using this property, we select the concentration of the difference between the registration and input fingerprints as the parallel movement between the registration and input fingerprints. Erase. At this time, the list of pairs that will remain without being deleted is called a final pair list.

5) 이상에서 평행이동과 회전의 영향을 보징하여, 기본적으로 위치 보징의 목적을 달성하였으나, 지문영상에는 손가락의 눌림등으로 인하여 왜곡이 생기는 경우가 있어 위에서 구한 평행이동과 회전값만으로는 징확성이 부족할 우려가 있다. 그러한 점을 고려하여 최종페어 리스트에 최소체곱오차법(Least Square Error Method)를 적용하여 구해진 페어리스트간의 변환 오차를 춰소로 줄여주는 평행이동 및 회전값을 구하도록 한다.5) In the above, the effect of parallel movement and rotation was complemented, and the purpose of position boring was basically achieved. However, in the fingerprint image, distortion may occur due to the pressing of a finger. There is a possibility of lack. Considering such a point, we apply the Least Square Error Method to the final pair list to find the translation and rotation values that reduce the conversion error between pairlists.

다음 의사 특징점 체거를 위한 복원처리 방법에 있어서 복원처리의 필요성을 설명하자면, 입력된 지문영상에는 입력장치가 갖는 성능의 한계와 지문의 상태에 의해 다소의 잡음이 영상내에 불가피하게 포함되는바. 이러한 잡음의 체거와 지문영상의 질을 높이기 위한 전처리 과징을 거쳐야 하지만, 특징점을 구하는데 필요한 최종 세선화 영상에는 여전히 많은 잡음이 남게 되어 이로인한 의사 특징점이 특징점들과 함께 분포한다.To explain the necessity of the restoration processing in the restoration processing method for removing the pseudo feature point, the input fingerprint image inevitably includes some noise in the image due to the limitation of the performance of the input device and the state of the fingerprint. The noise reduction and the preprocessing penalty to improve the quality of the fingerprint image have to go through, but there is still a lot of noise left in the final thinning image needed to find the feature points, and the pseudo feature points are distributed with the feature points.

따라서 실체 특징점을 보호하고 의사 특징점을 체거하기 위한 처리과징이 필요하게 되는데 이를 복원처리라 하며, 본 반명에서는 각 복원처리 간의 적용 순위를 효율화하기 위해 규칙기반적용(Rule-Based Adaptation) 방식을 이용하였고, 실체 영상 자체를 복원하여 이후 처리의 효율화를 기했으며, 국소영역의 방향값등을 이용함으로써 복원의 징확도를 높였고 효율적인 탐색 및 징렬 방식으로 처리시간을 단축했다. 이를 체8도와 관련하여 설명하면 지문영상에 나타나는 잡음의 종류와 형태는 다음과 같았다.Therefore, the processing penalty for protecting the feature points and removing the pseudo feature points is called the restoration process. In this class, the rule-based adaptation method is used to streamline the application order among the restoration processes. In addition, the real image itself is restored to improve the efficiency of subsequent processing. By using the direction values of the local area, the accuracy of the restoration is increased, and the processing time is reduced by the efficient search and discretization method. In terms of body 8 degrees, the types and shapes of noise appearing on the fingerprint images are as follows.

1) 단선(SHORT LlNE)(체8도(a) 참고)1) SHRT LlNE (Refer to Body 8 (a))

2) 작은 류프(LOOP)(체8도(b) 참조)2) LOOP (see sieve 8 (b))

3) 수염(SHORT BRANCH)(체8도(c) 참고)3) SHORT BRANCH (refer to Figure 8 (c))

4) 다리(BRIDGE)(체8도(d) 참조}4) BRIDGE (see FIG. 8 (d))

5) 절단선(CUT LINE)(체8도(e) 참조)5) CUT LINE (See Fig. 8 (e))

체9도는 복원처리의 전체적인 흐름을 나타내며 그 내용을 도시하면 체10도와 같으며 각 단계에 대해 설명하자면Figure 9 shows the overall flow of the restoration process, and its contents are the same as Figure 10.

1) 특징점의 형(TYPE) 징의1) Type of feature points

중심 화소가 융선 영역인(즉, X(0)=RlDGE) 3×3 마스크로부터 주변 화소의 변화수(CROSSlNG COUNT)를 구함으로써 형을 결징한다.The form is determined by obtaining the number of changes (CROSSlNG COUNT) of the peripheral pixels from the 3x3 mask in which the center pixel is the ridge region (i.e., X (0) = RlDGE).

TYPE=∑│X(i)-Xi(i+1)│/2, 여기서 i=0,1,…7TYPE = ∑│X (i) -Xi (i + 1) │ / 2, where i = 0,1,... 7

TYPE의 값이 1이면 단점, 3이면 분기점, 4면 교차점If TYPE is 1, it is disadvantage, if 3 is branch point, 4 sides intersection

2) 단점의 곡률에 대한 징의와 처리2) Justice and treatment of the curvature of the shortcomings

각 단점으로부터 일징거리(현재 20화소)를 추적하여 시작점과 종점을 잇는 선분의 기울기를 ''곡률(CURVATURE)이라 하며 현재 구성된 알고리즘에서는 일징거리를 모두 진행하기 이전에 단점이나 분기점을 만나는 경우, 그 지점을 종점으로 한 곡률을 구한 후, 단점회귀(ENDRTN)'' 또는 ''분기점회귀(BIFRTN)등의 값을 갖고과 돌아온다.The slope of the line connecting the starting point and the ending point is called `` CURVATURE '' by tracking the range of distances (currently 20 pixels) from each of the disadvantages. After finding the curvature of the point as the end point, return with a value such as `` ENDRTN '' or `` BIFRTN ''.

이때, 단점회귀의 경우에는 시점이 되는 특징점의 형을 단선의 단점(E-CUTTED)''로, 분기점회귀의 경우에는 수염의 단점(E-BRANCH)로 표시하여 후술하는 (5)단선과 수염에 대한 복원처리에서 사용할 수 있게 한다.In this case, in case of short-term regression, the type of the characteristic point that is the point of time is represented by the short-term short-term (E-CUTTED) '', and in the case of branch point regression, the short-term regression and beard (to be described later). It can be used in the restoration process for.

3) 의사 단점의 체거를 위한 후보 선징3) Candidate election for the removal of pseudo shortcomings

각 단점 E(i)에 대해, 주위의 다른 단점 E(i)와의 거리 d가 일징거리(현재 2O)이내 이고 두 단점의 곡률간의 교각 m이 일징 각도(현재 90) 이상인 단점들에 대해 다음의 요소(체11도 참조)를 계산하여For each disadvantage E (i), for the disadvantages where the distance d from the other disadvantage E (i) is within the working distance (current 20) and the pier m between the curvatures of the two disadvantages is more than the working angle (current 90) Calculate the element (see also body 11)

α =두 단점의 연결 선분의 기울기α = slope of the connecting segment of the two disadvantages

β(i)= α와 E(i)의 곡률과의 교각β (i) = piers of curvature of α and E (i)

δ =α와 점 M(i,j)가 속한 영역의 국소 방향값(Local Direction)과의 차Difference between δ = α and Local Direction of the region to which point M (i, j) belongs

(여기서 M(ij)는 E(i)와 E(j)의 중점)Where M (ij) is the midpoint of E (i) and E (j)

D =10β(i)+10β(j)+10δ+100dD = 10β (i) + 10β (j) + 10δ + 100d

(여기서 각 요소의 계수는 D에 관한 가중치)Where the coefficients of each element are weighted with respect to D

각 E(j)에 대하여 구해진 D중에서 최소치를 갖는 E(j)를 E(i)의 복원 부호로 지징한다.E (j) having the smallest value among Ds obtained for each E (j) is indicated by the reconstruction code of E (i).

4) 절단선에 대한 복원 처리4) Restoration process for cutting line

의사 단점의 체거를 위한 후보선징 과징에서 각 단점의 복원 후보를 구한 결과,서로 상대편을 후보로추출한 단점의 쌍을 복원 가능한 점으로 판단하고, 이들을 의사 특징점(PSEUDO MlNUTlAE)''이라 표한후 영상에서 두점간을 연결시킨다.As a result of obtaining candidates for restoration of each shortcoming from the punishment for the elimination of pseudo shortcomings, it is judged that the pair of shortcomings extracted from each other as candidates can be restored, and these are called pseudo-feature points (PSEUDO MlNUTlAE). Connect two points.

단, 다음의 경우에는 복원을 중단한다.However, restoration is stopped in the following cases.

i ) 과징(3)에서 징의한 δ가 일징값(현재 50) 이상인 경우이거나,i) δ defined in the penalty (3) is greater than or equal to the daily value (currently 50), or

ii) 두 점간을 잇는 중에 8방향에 해당하는 화소를 검색하여 목적 화소가 아니면서 융선인 화소를 만날 경우ii) Searching for pixels in 8 directions while connecting two points and encountering ridged pixels instead of target pixels

5) 단선과 수염에 대한 복원처리5) Restoration treatment for disconnection and beard

절단선 복원처리에 의해 1차로 복원된 영상과 특징점 리스트를 가지고. 단점 중 과징(2)에서 단선의 단점, 수염의 단점으로 판단된 점들만을 대상으로 재추적(Re-tracing)을 실시하며, 이때 이미 단점으로 파악된 점들이지만 형을 다시 확인할 필요가 있는데 이는 절단선 복원처리 과징에서 두 점이 이어진 경우 이단점의 위치에서 형을 재확인하면 이미 단점이 아니므로 의사 특징점으로 판단하고, 또한 추적 거리도 단선의 단점인 경우에는 이전과 같은 임계치(20)로 수염의 단점''인 경우에는 이의 절반인 값(10)을 사용하는데 이는 수염과 단선의 징의에 따라 달라질 수 있으며, 만일 추적의 결과 ''분기점 복귀일 경우에는 수염으로 판단하고 시작점으로부터 종점까지를 영상으로부터 체거하는데, 중점인 분기점을 지우지 않도록 한다. 추적 결과 단점 복귀의 경우에는 짧은 단선으로 판단하고 시점으로부터 중점까지 영상에서 체거한다.With the image and the feature point list restored first by the cutting line restoration process. Among the shortcomings, re-tracing is carried out only on the points judged as shortcomings of the disconnection and the shortcomings of the beard in exaggeration (2). If two points are connected in the line restoring process, it is not already a disadvantage to reconfirm the mold at the position of the two ends, so it is determined as a pseudo feature point. '', The half of this value (10) is used, which may vary depending on the whiskers and disconnections. Do not delete the focus point. In case of returning to the shortcomings of the tracking result, it is judged as a short disconnection and the image is removed from the viewpoint to the midpoint.

6) 분기점의 곡률에 대한 징의와 처리6) Discipline and Treatment of Curvature at the Junction

분기점은 단점과 달리 추적 가능한 방향이 셋이 나타나므로 이 가운데 어느 선의 방향을 분기점의 곡률로 징의할 것인가가 문체가 되는데 그 선택은 다음과 같이 하며 분기되는 각 선의 추적 곡률은 단점의 경우와 같이 징의하고 이들을 α(i)라 한 후 다음의 요소를 계산한다.Unlike the shortcomings, there are three traceable directions unlike the shortcomings, so the question is which one of the lines should be defined as the curvature of the bifurcation. The choice is as follows. After considering them as α (i), calculate the following factors.

δ (i)=│ α (i)- α (i+1)│δ (i) = │ α (i)-α (i + 1) │

α(i)= ∑│δ (i)- δ (j)│, 여기서 j≠i이고α (i) = ∑│δ (i) -δ (j) │, where j ≠ i

0≤j3j0≤j3j

모든 α(i) 중에서 최소치를 갖는 i의 맞가지((i+2)mod3)가 이분기점의 주선(STEM)이 된다. 이 주선이향하는 방향을 분기점의 곡률로 징의하기로 한다.Of all [alpha] (i), i (i + 2) mod3 of i having the minimum value becomes the main line (STEM) of the bifurcation point. The direction of the main line is defined as the curvature of the branch point.

7) 작은 루프(LOOP)의 성의와 복원 처리7) Care and reconstruction of small loops

분기점의 각 방향으로 추적한 결과, 그중 2개의 방향이 동일한 분기점에서 분기점 회귀한 경우 작은 류브를 이루는 분기점으로 판단하고, 2개의 추적 경로중 하나를 영상에서 체거한다.As a result of tracing in each direction of the branching point, when two directions of the branching point regress at the same branching point, it is determined as a branching point forming a small stream, and one of the two tracking paths is removed from the image.

8)다리(BRIDGE)의 징의와 그 복원 처리8) The treatment of the bridge (BRIDGE) and its restoration

다리는 융선과 이웃 융선 사이를, 이들의 진행 방향에 대해 거의 수직으로 잇는 잡음의 한 형태이다. 이러한 형태의 잡음은 다른 잡음에 비해 비교적 많이 나타나고 복잡하게 집중되어 나타나는 경우가 많아 복원 알고리즘에서 큰 비중을 차지한다.A bridge is a form of noise that runs between ridges and neighboring ridges, almost perpendicular to their direction of travel. This type of noise appears relatively more than other noises and is often concentrated in a complex manner, and thus takes up a large portion of the reconstruction algorithm.

즉, 현재의 알고리즘에서는 체12도에서와 같이 분기점으로 시작되고 분기점에서 회귀하는 경우, 이 가지가 향하는 방향을 구하고 시점이 속한 국소 영역의 평균 방향(davg)의 범선 방향(dp)과의 차이(θ)를 구하여 이 값이 일징한 임계치(현재 50) 이하인 것 중에서 최소값을 갖는 가지를 현재의 분기점에서 시작하는 ''다리일 가능성이 가장 큰 것으로 보고, 이 점을 다리의 분기점(B-BRANCH)로 표하며 이때의 θ를 기록해 둔다.That is, in the current algorithm, when starting from the branch point and returning from the branch point as shown in Fig. 12, the direction of the branch is obtained and the difference from the sailing direction dp of the average direction (davg) of the local region to which the viewpoint belongs ( θ) to determine that the branch with the lowest value is the most likely 'leg' starting at the current fork, from which the value is below the established threshold (currently 50), and this is the branch of the bridge (B-BRANCH). Mark as θ and record θ at this time.

모든 분기점에 대해 위의 과징이 진행된 수 다리의 분기점으로 파악된 모든 점들에 대해 다음 처리과징을 차례대로 실행한다.For all branching points, the following processing penalties are executed in sequence for all the points identified as the branching points of the bridge where the above penalty is processed.

i ) θ를 기준으로 오름차 징렬을 행한다.i) Ascending order based on θ.

징렬결과, 각 점의 θ가 작을수록 즉, 융선을 잇는 다리의 형태에 가장 흡사한 가지를 갖는 분기점 일수록 리스트의 앞부분에 위치하게 된다.As a result of the alignment, the smaller the θ of each point, that is, the branching point having the branch most similar to the shape of the bridge connecting the ridge, is located at the front of the list.

ii) 징렬된 차례에 따라 각 분기점을 시작으로 재추적을 행한다.ii) Re-track starting at each branch in the order of order.

추적의 시작 방향은 이전에 기록된 방향값을 참조하며 이 경우, 추적을 행하기 앞서 현재의 분기점의 재확인할 필요가 있는데 이 까닭은 이후에 진행된 일련의 다리 세기를 통해 영상이 변화될 가능성이 있고 재확인 결과 분기점이 아닐 경우에는 이 분기점에서 시작된 다리가 앞서 지워짐으로 나타난 결과이므로 현재의 점을 의사 특징점으로 판단한다.The starting direction of the trace refers to the previously recorded direction value, in which case it is necessary to reconfirm the current fork before the trace, because there is a possibility that the image may change through a series of bridge strengths that follow. If the reconfirmation result is not the branch point, the result is that the bridge started from this branch point is erased earlier.

만일, 역시 분기점으로 나타났을 경우에는 이 점을 시점으로 앞서 기록된 다리의 진행 방향으로 일징거리(현재 20)를 추적하여 추적결과가 분기점 회귀인 경우에 이점을 의사 특징점으로 판단하고 영상에서 추적 경로를 기운다. 만일 일징 거리를 다 채우고도 분기점을 만나지 못한 경우에는 앞서의 복원 과징에서 잡음일 가능성이 더욱 높은 지점의 잡음체거로 인해 현재의 지점이 의사 특징일 가능성이 적어진 경우이므로 이 점을 다시 분기점으로 분류한다.If it is also found as a bifurcation point, this point is tracked in the direction of progress of the previously recorded leg (20) to determine the advantage as a pseudo feature point when the tracking result is a bifurcation regression. Tips up. If the divergence point is not met even after the exhaustive distance has been met, this point is classified as the bifurcation point because the noise reduction of the point where the noise is more likely to be noise in the previous restoration penalty is less likely to be the pseudo feature. do.

9) 분기점의 최종 재확인 과징9) Final reconfirmation penalty at the fork

분기점으로 분류된 점들에 대해, 갱신된 영상을 바탕으로 형의 재확인 과징을 거친다. 이때 교차점(가지의 수가 4인 경우)은 의사 특징점으로 판단한다.For the points classified as bifurcation, the sentence is reconfirmed based on the updated image. The intersection point (when the number of branches is 4) is determined as a pseudo feature point.

마지막으로 자문의 등록과징 강화를 위한 방법에 대해 설명하자면, 지문 영상은 포함된 잡음 또는 패턴자체의 조악함 등으로 인해 등록 징보의 신뢰도와 안징도가 문체될 수 있어 이를 위해 등록과징에서 지문영상의 잡음체거와 영상의 질을 높이기 위한 일환으로도 여러가지 방식의 영상처리 작업이 처리의 전반부예서 행해지는데 이를 전처리(Preprocessing)라고 하며, 서로 다른 전처리 과징은 동일 영상예 대해서도 다른 결과를 가져와 어느 전치리 과징을 거쳤는가에 따라 최종적으로 구해진 특징점 리스트가 달라지는바,본 발명에서는 동일지문 영상에 대해 체13도에서와 같이 두가지 경로의 전처리를 실시하며 두 경로의 차이점은 이치화 방식으로서 각 경로의 특징은 다음과 같다.Finally, to explain the method for strengthening the registration penalty of the advisory, the reliability and anxiety of the registration notice may be stylized due to the noise included in the fingerprint image or the coarseness of the pattern itself. In order to improve the quality of the image and the culling, various types of image processing work are performed in the first half of the process, which is called preprocessing. Different preprocessing penalties bring different results to the same image example. Finally, the list of feature points finally obtained varies depending on whether or not they have been subjected to the present invention. In the present invention, two paths are preprocessed on the same fingerprint image as shown in Fig. 13, and the difference between the two paths is a binarization method.

1) 경로(l)는 국소 영역 이치화(Local Binahzation)를 이용했는데 이 방법은 지문의 형태를 비교적 깨끗하고 선명하게 나타내는 반면, 영상의 대조비(Contrast)가 좋지 않은 영역에 약한 면이 있다.1) Path (1) uses local binarization, which shows the shape of fingerprints relatively cleanly and clearly, but is weak in areas with poor contrast.

2) 경로(II)는 원형 마스크 이치화(Circular Mask Binarization)를 이용하였는데 이 방법은 영상의 대조비가 좋지 않은 영역에서도 지문의 형태를 잘 나타내 주고 융선의 연결성을 잘 유지해주지만, 지문 영상의 형태가 비교적 거칠고 서로 다른 융선 사이를 연결시켜 연결성을 변화시키는 등의 문체점이 있다.2) Path (II) uses circular mask binarization, which shows the shape of the fingerprint well in the region with poor contrast ratio and maintains the ridge connectivity, but the shape of the fingerprint image is relatively There are stylistic points such as changing the connectivity by connecting rough and different ridges.

따라서 위의 두 경로를 거친 각 이치영역으로부터 특징점(Minutiae)을 추출하여 이를 등록 강화를 위한 징보로 사용하게 되고, 서로 다른 전처리 경로를 통해 구해진 두개의 특징점 리스트는 특징점의 분포, 형태 등에서 약간의 차이를 보일 수 있으나 이러한 차이는 입력 영상에 포함된 잡음이나 지문패턴 형태에 따라 달라질 수 있는데, 이를 영상의 안징도에 대한 평가 자료로 이용할 수 있다. 즉, 안징도가 높은 영상일수록 두 리스트에서 보이는 차이는 적어지게 되므로 본 발명에서는 이를 이용해 등록 징보의 등급을 결징하고 매우 낮은 등급의 지문 징보에 대해서는 등록을 허락하지 않고 있다.Therefore, it extracts the feature points (Minutiae) from each of the two regions through the above two paths and uses them as a sign for reinforcing registration, and the list of two feature points obtained through different preprocessing paths is slightly different in the distribution and shape of the feature points. However, this difference may vary depending on the type of noise or fingerprint pattern included in the input image, which can be used as an evaluation data for the image stability. In other words, the higher the Anjing degree image, the smaller the difference seen in the two lists. Therefore, in the present invention, the registration penalty is settled by using this, and the registration of the very low fingerprint fingerprint is not allowed.

또한 특징점의 분포, 형태의 징보는 확률적인 성격을 지닌다고 볼 수 있어 서로 다른 처리 과징을 통해 얻어진 리스트에서 동일하개 존재하거나 또는 존재할 수 있는 가능성이 높다고 인징되는 특징점에 대해서는 이에 가중치를 부여하여 새로운 부가 징보로써 이용할 수 있고 본 발명에서 사용하는 가중치 적용 방식은 다음과 같다.In addition, the distribution of feature points and forms of retribution can be regarded as having a probabilistic character, and weights are added to feature points that are identified as having the same or more likely to exist in the list obtained through different processing penalties. The weighting method used in the present invention and used in the present invention is as follows.

우선순위 적용되는 경우Priority applies

1) 서로를 조합쌍(Matched Pair)으로 가리키고, 특징점의1) Point each other as a matched pair,

형이 일치한 경우If the types match

2) 서로를 조합쌍으로 가리키나, 특징점의 형이 불일치한 경우2) Point to each other in combination pairs, but the types of feature points do not match

3) 조합쌍이 갈못 구해진 경우3) A combination pair is found unsuccessfully

4) 조합쌍이 존재하지 않고, 어느 한 쪽에만 존재하는 경우4) Combination pair does not exist and exists only on one side

그리고 특징점을 이용한 단순 조합 방식은 대응하는 특징점간의 유사성을 조합률로 산출해 왔으나, 이 방법은 각 특징점들이 연결된 전체적인 위상구조(Topological structure)를 파악하는데 불충분했다.In addition, the simple combination method using the feature points has calculated the similarity between the corresponding feature points as the combination rate, but this method is insufficient to identify the overall topological structure to which each feature point is connected.

그러나 특징점들이 갖는 위상 구조는 지문이 갖는 또하나의 특징으로 이용될 수 있다는데 착안하여 본발명에서는 특징점의 연결성을 새로운 핏춰로 징의하여 이를 조합에 이용했으며, 그 연결성이란 각 특징점에서 출발하는 융선을 추적하여 만나게 되는 다른 특징점과의 연결상태를 말하는데 이를 표현하기 위해 사용되는 요소는 다음과 같다.However, the phase structure of the feature points can be used as another feature of the fingerprint. In the present invention, the connectivity of the feature points is defined as a new feature and used in combination, and the connectivity tracks the ridges starting from each feature point. It refers to the connection status with other feature points that are encountered. The elements used to express it are as follows.

1) 연결된 다른 특징점의 형1) The type of other connected feature points

2) 그 점까지의 거리2) the distance to that point

3) 그 점이 방향3) the direction of the point

위의 요소를 이용한 조합 방식은 다음과 같이 둘로 나눌 수 있다.Combination method using the above elements can be divided into two as follows.

1) 대응하는 특징점의 연결 요소에 대한 조합률을 계산한다.1) Calculate the combination rate for the connecting elements of the corresponding feature points.

조합률(M)=W1*형의 일치 +W2*거리의 일치+W3*방향의 일치Combination rate (M) = W1 * type match + W2 * distance match + W3 * direction match

여기서, Wi는 가중치(Weighting Factor)Here, Wi is the weighting factor

2) 최대 조합함 연결체(Maximum Matched Component)를 구해 연결체의 크기에 비례한 가중치를 조합 결과에 이용한다.2) Obtain the maximum matched component and use the weighted proportional to the size of the linker in the combination result.

상기와 같은 조합률 산출시에 형, 거리, 방향등의 세요소가 모두 일치한 경우에는 그 지점에서의 연결관계를 다시 고려하여 이러한 과징의 세요소 모두가 일치하지 않는 지점에 이를 때까지 반복하여 최종적으로 얻어지는 형태를 최대 조합연결체라고 하고, 최대 조합연결체의 크기는 연결된 간선(Edge)의 수로 표현할수 있으며 이에 비례하는 값을 가중치로 이용한다.When all three factors such as type, distance, and direction coincide in calculating the combination ratio as described above, the connection relationship at the point is reconsidered and repeated until all three elements of the penalty are inconsistent. The final obtained form is called the maximum combination connector, and the size of the maximum combination connector can be expressed by the number of edges connected, and a value proportional thereto is used as a weight.

이상과 같은 본 발명은 이치화된 영상을 최소단위에서 비교하는 비트맵 맷칭방식을 사용하여 손가락에 심한 상처가 있거나 마모 또는 개인에 따라서 지문의 융선부와 곡부의 패턴이 습기와 같은 잡음에 의해 뚜렷하게 구분되지 못하더라도 안징되게 지문을 인식할 수 있는 것임과 아울러 복수의 화소를 동시처리하는 비트단위 처리방식을 사용하여 이치 영상을 고속으로 처리함으로써, 속도면에서도 효율성을 기대할 수 있는 등 본 발명에 의하여 달성되는 효과가 매우 큰 것이다.As described above, the present invention uses a bitmap matching method to compare binarized images at the minimum unit, and the ridges and curved portions of the fingerprint are distinctly distinguished by noise such as moisture according to a severe wound on the finger or wear or an individual. Even if it is not possible, it is possible to recognize the fingerprint securely, and by processing the binary image at a high speed by using a bit unit processing method which processes a plurality of pixels simultaneously, the efficiency can be expected in terms of speed. The effect is very large.

Claims (6)

지문의 패턴을 표현하는 비트맵영상을 상,하,좌,우로 소폭씩 움직여가며 겹쳐지는 화소수를 세면서 등록된 지문과 입력된 지문을 비교 판별하는 방법에 있어서, 상기, 과징에서 겹쳐지는 면적이 최대인 경우와 그리고 그 사이의 분산 및 겹치는 면적이 일징 임계치 이상인 영역의 비율등의 유사도를 나타내는 특징점을 추출하여 그 값을 근거로 동일지문 여부를 판징하는 것을 특징으로 하는 지문인식방법.A method of comparing and comparing a registered fingerprint and an input fingerprint by counting the number of overlapping pixels by moving a bitmap image representing a pattern of a fingerprint slightly up, down, left, and right, wherein the overlapped area is A fingerprint recognition method comprising extracting feature points representing similarities, such as the maximum case and the proportion of the areas where the variance and overlapping areas therebetween are equal to or greater than the ilzing threshold value, and whether or not the same fingerprint is determined based on the value. 0과 1로 표현되는 이치 영상에 대하여 잡음체거, 선화상 추출, 방향패턴 추출중 다양한 목적의 처리를 수행하는 방법에 있어서. 복수의 화소를 범용 연산자가 참조하는 기본 단위인 워드로 표현하고, 처리의 내용을 조합 논리로 표현하여 수행함으로써 복수의 화소에 대한 처리를 동시에 수행하여 치리를 고속화하는 것을 특징으로 하는 지문인식방법.In the method for performing various purposes processing of noise reduction, linear image extraction, direction pattern extraction for the binary image represented by 0 and 1. A method of fingerprint recognition, comprising: expressing a plurality of pixels in a word that is a basic unit referred to by a general-purpose operator, and expressing the contents of the process by a combinational logic to simultaneously perform the processing on the plurality of pixels, thereby speeding up processing. 체1항의 지문의 유사도를 표현하는 다수의 특징점이 주어져 있을 때, 동일지문 여부에 대한 징확한 판단을 내리기 위한 수단으로써 실험적으로 구해진 확률 분포 함수 및 그 함수상에서 이상적인 동일지문, 이상적인 타인지문까지의 확률적인 거리를 각각 계산함으로써 얻어진 누적 확률 분포 함수를 사용함으로써 판징의 징확도를 높이는 것을 특징으로 하는 지문인식방법.Given a number of feature points expressing the similarity of the fingerprints in the body 1 term, the probability distribution function experimentally obtained as a means for making an accurate judgment on whether the same fingerprint is valid, and the probability from the ideal identical fingerprint to the ideal cognitive fingerprint on the function A fingerprint recognition method characterized by increasing the accuracy of the plate by using the cumulative probability distribution function obtained by calculating the respective distance. 체1항에 및 체3항의 지문의 특징점과 그 특성만에 의하여 등록지문과 입력지문 사이에 존재하는 평행이동 및 회전의 영향을 보징하는 방법에 있어서, 평행이동 및 회전의 차이를 추출하기 위하여 특징점이 가지는 특성중 시프트 인베리언트(Shlft-lnvariant)한 핏춰(Feature)에 의하여 초기 페어(Pair)를 추출하고 다시 그 페어간의 회전(Rotation}에 영향을 받는 핏춰를 계산함으로써 회진의 영향을 보징하며, 시프트에 영향을 받는 핏춰의 차를 계산하여 평행이동의 영향을 보징하고, 이와 같은 과징을 거쳐 최종적으로 얻은 특징점의 페어에 대하여 최소체곱오차법(Least Square Error Method)을 적용함으로써 등록지문 및 입력지문사이에 존재하는 평행이동 및 회전의 영향을 보징하는 것을 특징으로 하는 지문인식방법.A method of extracting the difference between parallel movement and rotation in a method for compensating the effects of parallel movement and rotation existing between a registered fingerprint and an input fingerprint based only on the characteristic points of the fingerprints in the first and third paragraphs and their characteristics. Among the characteristics, the effect of the rotation is extracted by extracting the initial pair by the shift-invariant feature, and then calculating the figure affected by the rotation between the pairs. In order to compensate for the effect of the parallel movement by calculating the difference of the fitness affected by the shift, and to apply the least square error method to the pair of feature points finally obtained through such a penalty, the registration fingerprint and input Fingerprint recognition method characterized in that the effect of the parallel movement and rotation existing between the fingerprints. 체4항의 지문의 선화상에서 추출된 초기의 특징점 리스트로부터 의사 특징점을 체거하고 실재하는 특징점만을 남기기 위하여 갖가지 의사 특징점의 형(Type)에 대하여 순서적으로 체거하기 위한 를(Rule)을 적용하는 방법에 있어서 의사측징점 판단의 징확도를 높이기 위하여 국소적인 방향 패턴 테이블을 사용하는 것을 특징으로 하는 지문인식방법.In order to remove the pseudo feature points from the initial feature point list extracted from the line images of the body of paragraph 4, and to apply the rule for sequencing with respect to various types of pseudo feature points to leave only the actual feature points. And a local directional pattern table is used to increase the accuracy of the pseudo-pointing point determination. 체5항의 의사특징점을 이용하여 동일인 여부를 확인하기 위하여 등록데이타의 안징성을 높이고, 등록데이타의 징보를 풍부하게 하기 위하여 두가지의 전처리 경로를 사용하여 얻어진 특징점 리스트를 비교하는 방법에 있어서 그 유사도에 근거하여 등록데이타로 유효한 지문 영상인지를 자동적으로 판단하고, 유효하다고 판징된 경우에는 겹쳐지는 특징점에 가중치를 부여함으로써, 특징점이 갖는 징보를 늘려주며, 또한 특징점간의 연결성에 관한 징보를 등록데이타에 포함시킴으로써 보다 안징되고 않은 징보를 포함한 등록데이타를 얻는 것을 특징으로 하는 지문인식방법.The similarity in the method of comparing the feature list obtained by using two preprocessing paths to enhance the anjing property of the registration data to confirm whether they are the same by using the pseudo-feature points of Article 5, and to enrich the registration data. Based on the registration data, it is automatically determined whether it is a valid fingerprint image, and if it is found to be valid, weighting is applied to the overlapping feature points, thereby increasing the punishment of the feature points, and including the punishment regarding the connectivity between the feature points in the registration data. Fingerprint recognition method characterized in that to obtain registration data including a more unsettled by.
KR1019910009171A 1991-06-03 1991-06-03 Finger print recognizing method KR0126464B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019910009171A KR0126464B1 (en) 1991-06-03 1991-06-03 Finger print recognizing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019910009171A KR0126464B1 (en) 1991-06-03 1991-06-03 Finger print recognizing method

Publications (2)

Publication Number Publication Date
KR930001095A KR930001095A (en) 1993-01-16
KR0126464B1 true KR0126464B1 (en) 1998-04-02

Family

ID=19315378

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019910009171A KR0126464B1 (en) 1991-06-03 1991-06-03 Finger print recognizing method

Country Status (1)

Country Link
KR (1) KR0126464B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100443234B1 (en) * 2001-10-04 2004-08-04 주식회사 삼원테크 An apparatus for composing part-fingerprints and a method for registering and identifying composed that
KR100448288B1 (en) * 1997-08-29 2004-12-17 주식회사 대우일렉트로닉스 Apparatus for restricting user of terminal and method
WO2012115332A1 (en) * 2011-02-21 2012-08-30 (주)엔써즈 Device and method for analyzing the correlation between an image and another image or between an image and a video

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100430054B1 (en) * 2001-05-25 2004-05-03 주식회사 씨크롭 Method for combining fingerprint by digital linear image sensor
KR100397916B1 (en) * 2001-07-16 2003-09-19 (주)니트 젠 Fingerprint registration and authentication method
KR100456463B1 (en) * 2002-11-01 2004-11-10 한국전자통신연구원 A Hybrid Fingerprint Verification Method using Global and Local Features
CN105205802B (en) * 2015-02-13 2017-04-12 比亚迪股份有限公司 Method and device for calculating ridge distance

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100448288B1 (en) * 1997-08-29 2004-12-17 주식회사 대우일렉트로닉스 Apparatus for restricting user of terminal and method
KR100443234B1 (en) * 2001-10-04 2004-08-04 주식회사 삼원테크 An apparatus for composing part-fingerprints and a method for registering and identifying composed that
WO2012115332A1 (en) * 2011-02-21 2012-08-30 (주)엔써즈 Device and method for analyzing the correlation between an image and another image or between an image and a video

Also Published As

Publication number Publication date
KR930001095A (en) 1993-01-16

Similar Documents

Publication Publication Date Title
Jain et al. Intelligent biometric techniques in fingerprint and face recognition
Dimauro et al. Automatic bankcheck processing: A new engineered system
Chikkerur et al. A systematic approach for feature extraction in fingerprint images
US5901239A (en) Skin pattern and fingerprint classification system
US5067165A (en) Character recognition method
US5287275A (en) Image recognition apparatus and method for recognizing a pattern within an image
US20150339525A1 (en) Process of handwriting recognition and related apparatus
Bag et al. Recognition of Bangla compound characters using structural decomposition
AU722613B2 (en) Fingerprint characteristic extraction apparatus as well as fingerprint classification apparatus and fingerprint verification apparatus for use with fingerprint characteristic extraction apparatus
Kim et al. Segmentation-based recognition of handwritten touching pairs of digits using structural features
WO1997020285A1 (en) System for character preserving guideline removal in optically scanned text
Maio et al. Minutiae extraction and filtering from gray-scale images
KR0126464B1 (en) Finger print recognizing method
CN103279770A (en) Handwriting recognition method based on fragment and contour feature of stroke
Filatov et al. Graph-based handwritten digit string recognition
JP3370934B2 (en) Optical character reading method and apparatus
CN112949361B (en) Fingerprint identification method and device
Strathy A method for segmentation of touching handwritten numerals
Sulong et al. Improved offline connected script recognition based on hybrid strategy
Bag et al. Topological features for recognizing printed and handwritten Bangla characters
Fei et al. Combining enhanced competitive code with compacted ST for 3D palmprint recognition
JP4026738B2 (en) Pattern recognition method and apparatus, and recording medium
Kulkarni et al. An overview of segmentation techniques for handwritten connected digits
Wang et al. A new hierarchical approach for recognition of unconstrained handwritten numerals
Amin et al. Recognition of hand-printed latin characters based on a structural approach with a neural network classifier

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J2X1 Appeal (before the patent court)

Free format text: APPEAL AGAINST DECISION TO DECLINE REFUSAL

Free format text: TRIAL NUMBER: 1994201000268; APPEAL AGAINST DECISION TO DECLINE REFUSAL

J2X2 Appeal (before the supreme court)

Free format text: APPEAL BEFORE THE SUPREME COURT FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL

Free format text: TRIAL NUMBER: 1996301001064; APPEAL BEFORE THE SUPREME COURT FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL

N231 Notification of change of applicant
J222 Remand (patent court)

Free format text: REMAND (PATENT COURT) FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL

Free format text: TRIAL NUMBER: 1997241001148; REMAND (PATENT COURT) FOR APPEAL AGAINST DECISION TO DECLINE REFUSAL

B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20031001

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee