KR100698723B1 - Fast Matching of FingerPrint Using Minutiae in Core Point Area - Google Patents

Fast Matching of FingerPrint Using Minutiae in Core Point Area Download PDF

Info

Publication number
KR100698723B1
KR100698723B1 KR1020050053157A KR20050053157A KR100698723B1 KR 100698723 B1 KR100698723 B1 KR 100698723B1 KR 1020050053157 A KR1020050053157 A KR 1020050053157A KR 20050053157 A KR20050053157 A KR 20050053157A KR 100698723 B1 KR100698723 B1 KR 100698723B1
Authority
KR
South Korea
Prior art keywords
fingerprint image
fingerprint
matching
information
feature point
Prior art date
Application number
KR1020050053157A
Other languages
Korean (ko)
Other versions
KR20060133348A (en
Inventor
유승식
김종화
김미영
박원우
Original Assignee
포스데이타 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포스데이타 주식회사 filed Critical 포스데이타 주식회사
Priority to KR1020050053157A priority Critical patent/KR100698723B1/en
Publication of KR20060133348A publication Critical patent/KR20060133348A/en
Application granted granted Critical
Publication of KR100698723B1 publication Critical patent/KR100698723B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Abstract

본 발명은 지문이미지 매칭 방법에 관한 것으로서, 본 발명에 따른 지문이미지 매칭방법에서는, 지문입력장치 등을 통하여 획득된 지문이미지에 대한 특징점 정보 및 각 특징점의 상관관계를 추출한 후, 제1 매칭단계로서 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하고, 상기 제1 매칭이 성공한 경우, 제2 매칭단계로서, 상기 특징점 정보와 미리 저장된 지문이미지의 전체 특징점 정보를 비교한다. 이와 같이 본 발명에 따른 지문이미지 매칭 방법은, 제1 매칭을 통과한 지문에 대해서만 전체 특징점 정보를 비교하므로, 지문이미지의 매칭에 소요되는 시간을 크게 줄일 수 있다. The present invention relates to a fingerprint image matching method. In the fingerprint image matching method according to the present invention, after extracting feature point information and correlation of each feature point of a fingerprint image acquired through a fingerprint input device or the like, the first matching step is performed. The correlation information between the extracted correlation information and the pre-stored fingerprint image is compared. When the first matching is successful, as a second matching step, the feature point information and the overall feature point information of the pre-stored fingerprint image are compared. As described above, the fingerprint image matching method according to the present invention compares the entire feature point information only with respect to the fingerprint that has passed the first matching, thereby greatly reducing the time required for matching the fingerprint image.

지문매칭, 지문이미지, 특징점 Fingerprint matching, fingerprint image, feature points

Description

지문 중심점 부위 특징점을 이용한 고속 매칭{Fast Matching of FingerPrint Using Minutiae in Core Point Area}Fast Matching of FingerPrint Using Minutiae in Core Point Area}

도 1은 본 발명에 따른 지문이미지의 매칭방법을 나타낸 순서도이다. 1 is a flowchart illustrating a matching method of a fingerprint image according to the present invention.

도 2는 본 발명에 따른 지문이미지의 특징점 및 특징점의 상관관계 정보를 추출하는 과정을 나타낸 순서도이다. 2 is a flowchart illustrating a process of extracting feature points and correlation information of feature points of a fingerprint image according to the present invention.

도 3은 지문입력장치를 통해 획득한 지문이미지의 일예를 나타낸 것이다. 3 illustrates an example of a fingerprint image obtained through a fingerprint input device.

도 4는 도 3의 지문이미지의 각 영역별 대표 융선 방향을 나타낸 것이다. 4 illustrates a representative ridge direction of each region of the fingerprint image of FIG. 3.

도 5는 도 3의 지문이미지를 이진화 처리한 모습을 나타낸 것이다. FIG. 5 illustrates a binarization process of the fingerprint image of FIG. 3.

도 6은 도 5의 지문이미지를 세선화 처리한 모습을 나타낸 것이다. FIG. 6 illustrates a thinning process of the fingerprint image of FIG. 5.

도 7은 화소값들의 위치를 예시한 것이다. 7 illustrates the location of pixel values.

도 8은 본 발명에 따라 중심점 부위의 특징점들 간의 상관관계를 나타낸 것이다. Figure 8 shows the correlation between the feature points of the center point area in accordance with the present invention.

본 발명은 지문이미지의 매칭 방법에 관한 것으로서, 더욱 상세하게는 지문 이미지의 매칭 속도를 향상하기 위해, 중심점부위의 특징점 상관관계만을 비교하는 제1 매칭과, 상기 1차 매칭에서 통과된 지문에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭으로 구분한 지문이미지의 매칭방법에 관한 것이다. The present invention relates to a fingerprint image matching method, and more particularly, to improve the matching speed of a fingerprint image, the first matching comparing only the feature point correlation of the center point portion, and the fingerprint passed in the first matching only The present invention relates to a matching method of a fingerprint image divided by a second matching to compare all feature points of the fingerprint image.

최근 컴퓨터의 광범위한 보급과 인터넷 네트워크의 급속한 발전에 따라, 이들을 이용한 전자 상거래, 금융 거래 등이 활발히 이루어지고 있는데, 이와 함께 보안과 매칭에 관한 사항이 새로운 사회 문제로 되고 있다. 이러한 보안과 매칭에 대한 수단으로서, 각 개인의 고유한 신체적 특성을 이용한 바이오 매트릭스 기술에 관한 연구가 지속적으로 이루어지고 있는 실정이다. Recently, with the widespread use of computers and the rapid development of the Internet network, electronic commerce and financial transactions using them are being actively performed, and security and matching are becoming new social problems. As a means for such security and matching, the study of the bio-matrix technology using the unique physical characteristics of each individual is continuously conducted.

바이오 매트릭스 기술은 대표적으로, 개인의 홍채, 혈관 배치 모양, 지문이미지 등에 관한 매칭기술이 있는 데, 특히 지문매칭시스템의 경우, 매칭의 간편성이나 정확성이 다른 생체에 비해 우수하여 가장 활발히 이용되고 있는 분야이다. 매칭수단으로서의 지문은, 손가락 끝에 있는 융선(Ridge)과 상기 융선 사이의 움푹 패인 골(계곡;Valley)로 이루어진 형상으로서, 각 개인마다 독특한 형상을 지니고 있고 세월의 흐름에 따라 모양이 변하지 않기 때문에 개인식별 수단으로서 출입관리, 범죄수사, 신분증 등 다양한 분야에 이용되어 왔다. Bio-matrix technology typically has matching technology for individual iris, blood vessel placement shape, fingerprint image, etc. Especially in the case of fingerprint matching system, the simplicity or accuracy of matching is superior to other living bodies, and it is used most actively. to be. The fingerprint as a matching means is a shape consisting of a ridge at the fingertip and a dent (Valley) between the ridges. Each fingerprint has a unique shape and does not change with the passage of time. As a means of identification, it has been used in various fields such as access control, criminal investigation and identification.

지문매칭시스템은, 각 개인의 지문이미지 정보를 사전에 데이터베이스에 저장하였다가, 지문입력장치를 통해 매칭이 요청되는 지문이미지가 입력된 경우, 상기 저장된 지문이미지와 상기 입력된 지문이미지의 특징점 분포 또는 융선 흐름 등의 특징을 비교함으로써 양자의 일치여부를 판단한다. The fingerprint matching system stores the fingerprint image information of each individual in a database in advance, and when a fingerprint image that is requested to be matched through a fingerprint input device is inputted, a feature point distribution of the stored fingerprint image and the input fingerprint image or By comparing features such as ridge flow, it is determined whether the two match.

한편, 지문이미지에서 추출할 수 있는 특징점(minutiae)에는 여러 가지가 있 는데, 끝점(Ending Point), 분기점(Bifurcation), 교차점(Trifurcation or Crossover) 등이 그 예이며, 이 중에서 지문인식시스템에 주로 사용되는 특징점은 끝점과 분기점이다. 이 특징점은 사람마다 위치와 수가 다르며, 잡음에 강해서 지문매칭 시스템에 가장 많이 쓰이고 있는 실정이다. On the other hand, there are a number of features (minutiae) that can be extracted from the fingerprint image, such as the end point (Ending Point), bifurcation (Trifurcation or Crossover), etc. Among these, mainly the fingerprint recognition system The feature points used are end points and branch points. This feature is different in location and number, and it is most used in fingerprint matching system because it is strong in noise.

그런데, 지문매칭에 있어서, 지문이미지의 끝점, 분기점을 전체적으로 상호 비교할 경우, 매칭과정에 많은 시간이 소요될 수 있다. 특히 대용량 지문 검색, 예컨대 범죄수사 등에서의 지문검색과 같이 데이터베이스에 저장된 수 많은 사람들의 지문과 일일이 비교해야 하는 경우에는 매칭 처리시간이 길고, 오인식 확률도 높아지게 된다. However, in fingerprint matching, when comparing the end point and the branch point of the fingerprint image as a whole, a matching process may take a long time. In particular, when a large-scale fingerprint search, for example, a fingerprint search in a criminal investigation, such as a fingerprint search of a large number of people stored in the database every day, the matching processing time is long, and the probability of misrecognition increases.

따라서, 특히 대용량 지문 검색에 있어서, 지문매칭 처리 시간을 줄이고, 보다 정확한 매칭이 가능케 하는 기술이 요청되고 있는 실정이다. Therefore, there is a demand for a technology that reduces fingerprint matching processing time and enables more accurate matching, particularly in large-capacity fingerprint search.

따라서, 본 발명에서는 지문이미지의 매칭 속도를 향상하기 위해, 중심점부위의 특징점들의 상관관계만을 비교하는 제1 매칭과, 상기 1차 매칭에서 통과된 지문에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭으로 구분한 지문이미지의 매칭방법을 제공하는 것을 목적으로 한다. Accordingly, in the present invention, in order to improve the matching speed of the fingerprint image, the first matching comparing only the correlation of the feature points of the center point portion, and the second comparing the whole feature points of the fingerprint image only for the fingerprint passed in the first matching An object of the present invention is to provide a matching method of fingerprint images classified by matching.

본 발명의 다른 목적은, 상기 중심점부위의 특징점들의 상관관계 정보를 추출하는 방법을 제공하는 것이다. Another object of the present invention is to provide a method for extracting correlation information of feature points of the center point portion.

본 발명의 일실시예에 따른 지문이미지의 매칭방법은, 지문입력장치를 통하여 지문이미지를 획득하는 단계; 상기 획득된 지문이미지의 특징점 정보 및 특징점 상관관계 정보를 추출하는 단계; 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하는 제1 매칭단계; 상기 제1 매칭이 성공한 경우, 상기 획득된 지문이미지의 특징점 정보와 미리 저장된 지문이미지의 특징점 정보를 비교하는 제2 매칭단계를 포함한다. According to an embodiment of the present invention, a fingerprint image matching method includes: obtaining a fingerprint image through a fingerprint input device; Extracting feature point information and feature point correlation information of the obtained fingerprint image; A first matching step of comparing the extracted correlation information with correlation information of a pre-stored fingerprint image; And when the first matching is successful, comparing the acquired feature point information of the fingerprint image with the feature point information of the pre-stored fingerprint image.

상기 특징점 정보 및 특징점 상관관계 정보의 추출 단계는, 지문입력장치를 통하여 획득된 지문이미지를 필터링함으로써 지문이미지의 품질을 향상시키는 단계; 상기 향상된 지문이미지로부터 융선방향 정보를 추출하는 단계; 상기 융선방향 정보를 이용하여 중심점 및 델타점을 추출하는 단계; 상기 향상된 지문이미지를 흑백으로 구분하기 위해 이진화시키는 단계; 상기 이진화된 지문이미지의 특징점을 추출하는 단계; 및 상기 추출된 특징점 중 상기 중심점 주위의 일정 영역 내에 위치한 특징점들의 상관관계를 추출하는 단계를 포함한다. The extracting of the feature point information and the feature point correlation information may include: improving a quality of a fingerprint image by filtering a fingerprint image obtained through a fingerprint input device; Extracting ridge direction information from the enhanced fingerprint image; Extracting a center point and a delta point using the ridge direction information; Binarizing the enhanced fingerprint image in black and white; Extracting feature points of the binarized fingerprint image; And extracting correlation of feature points located in a predetermined area around the center point among the extracted feature points.

이하 첨부도면을 참조하여 본 발명에 따른 지문 매칭 방법과 특징점 상관관계 정보를 추출하는 방법을 상세히 설명한다. Hereinafter, a fingerprint matching method and a method of extracting feature point correlation information according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 지문이미지의 매칭방법을 나타낸 순서도이다. 도시된 바와 같이, 본 발명에 따른 지문이미지의 매칭방법은, 지문입력장치 등을 통하여 지문이미지를 획득하는 단계(S100); 상기 획득된 지문이미지의 특징점 정보 및 특징점 상관관계 정보를 추출하는 단계(S200); 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하는 제1 매칭단계(S300); 상기 제1 매칭이 성공한 경우, 상기 특징점 정보와 미리 저장된 지문이미지의 특징점 정보를 비교하는 제2 매칭단계(S400)를 포함한다. 1 is a flowchart illustrating a matching method of a fingerprint image according to the present invention. As shown, the matching method of the fingerprint image according to the invention, the step of obtaining a fingerprint image through a fingerprint input device and the like (S100); Extracting feature point information and feature point correlation information of the obtained fingerprint image (S200); A first matching step (S300) of comparing the extracted correlation information with correlation information of a pre-stored fingerprint image; If the first matching is successful, a second matching step (S400) of comparing the feature point information with feature point information of a pre-stored fingerprint image is included.

지문이미지 획득단계(S100)는, 지문 입력 장치로부터 획득한 지문의 영상 신호를 디지털 지문이미지로 변환하는 단계이다. 예컨대, 지문인식장치는 접촉발광소자를 이용하여 지문의 형상을 광신호로 전환시키고, CCD 또는 CMOS 이미지 센서 등을 이용하여 이미지 신호를 발생시킨다. 이 경우, 접촉발광소자는 손가락 지문이 접촉하는 경우, 전류 루프를 형성하여 지문의 형상에 따른 광신호를 발생시킬 수 있다. CCD 또는 CMOS 이미지 센서에서 발생된 디지털 이미지 신호는 영상처리기를 통해 이미지 신호를 여과하여 지문이미지를 획득한다. The fingerprint image obtaining step S100 is a step of converting an image signal of a fingerprint obtained from a fingerprint input device into a digital fingerprint image. For example, the fingerprint recognition device converts the shape of the fingerprint into an optical signal using a touch light emitting device, and generates an image signal using a CCD or CMOS image sensor. In this case, when the finger fingerprint is in contact with the touch light emitting device, a current loop may be formed to generate an optical signal according to the shape of the fingerprint. The digital image signal generated by the CCD or CMOS image sensor filters the image signal through an image processor to obtain a fingerprint image.

특징점 정보 및 특징점 상관관계 정보를 추출하는 단계(S200)에서는, 상기 획득된 지문이미지의 전체 특징점(끝점과 분기점)을 추출하고, 상기 추출된 특징점들 간의 상관관계 정보를 추출한다. 상기 추출단계(S200)에 대한 구체적 과정이 도 2의 순서도에 도시되어 있다. In the extracting of the feature point information and the feature point correlation information (S200), all feature points (endpoints and branch points) of the obtained fingerprint image are extracted, and correlation information between the extracted feature points is extracted. A detailed process for the extraction step S200 is shown in the flowchart of FIG. 2.

도 2는 본 발명에 따른 지문이미지의 특징점 및 특징점의 상관관계를 추출하는 과정을 나타낸 순서도이다. 도시된 바와 같이, 도 2의 실시예에 따른 추출과정은, 지문입력장치 등을 통하여 획득된 지문이미지의 품질을 향상시키기 위한 지문이미지 향상단계(S210), 상기 향상된 지문이미지로부터 융선방향 정보를 추출하는 단계(S220), 상기 융선방향 정보를 이용하여 중심점 및 델타점을 추출하는 단계(S230), 상기 향상된 지문이미지를 흑백으로 구분하기 위해 이진화시키는 단계 (S240), 상기 이진화된 지문이미지를 세선화시키는 단계(S250), 상기 세선화된 지문이미지의 특징점을 추출하는 단계(S260) 및 상기 추출된 특징점 중 상기 중심점 주위의 일정 영역 내에 위치한 특징점들의 상관관계를 계산하는 단계(S270)를 포함한다. 도 2의 실시예에 따른 특징점 및 특징점 상관관계 정보 추출과정을 구체적으로 살펴보면 다음과 같다. 2 is a flowchart illustrating a process of extracting a feature point and a correlation between feature points of a fingerprint image according to the present invention. As shown, the extraction process according to the embodiment of Figure 2, the fingerprint image enhancement step (S210) for improving the quality of the fingerprint image obtained through the fingerprint input device, etc., extracting the ridge direction information from the improved fingerprint image (S220), extracting a center point and a delta point using the ridge direction information (S230), binarizing the separated fingerprint image in black and white (S240), thinning the binarized fingerprint image Step S250, extracting the feature points of the thinned fingerprint image (S260) and calculating the correlation between the feature points located within a predetermined area around the center point among the extracted feature points (S270). The process of extracting feature points and feature point correlation information according to the embodiment of FIG. 2 will now be described in detail.

지문이미지 향상단계(S210)는, 지문이미지에서의 잡음제거 등과 같이, 지문이미지의 품질을 향상하기 위해 지문이미지에 필터링 기법 등을 적용하는 단계이다. 상기 지문이미지 향상을 위해 적용할 수 있는 필터링 기법으로서는, 예컨대 가보르(Gabor) 필터를 적용할 수 있다. 가보르 필터는 이미지를 공간적으로 국부화(Localization) 시키는 특성을 지니고 있을 뿐만 아니라 주파수영역에서도 특정주파수와 방향에 대해서 선택적으로 반응하는 대역통과필터의 특성을 가진다. 지문이미지를 특정 방향(예컨대, 0도, 45도, 90도, 135도)의 가보르 필터에 통과시켜서 융선 구조가 향상된 지문이미지를 얻을 수 있다. Fingerprint image enhancement step (S210) is a step of applying a filtering technique to the fingerprint image to improve the quality of the fingerprint image, such as noise removal in the fingerprint image. As a filtering technique applicable to the fingerprint image enhancement, for example, a Gabor filter may be applied. Gabor filters not only have the spatial localization of images, but also have the characteristics of bandpass filters that selectively respond to specific frequencies and directions in the frequency domain. The fingerprint image may be passed through a Gabor filter in a specific direction (eg, 0 degrees, 45 degrees, 90 degrees, 135 degrees) to obtain a fingerprint image having an improved ridge structure.

융선방향정보 추출단계(S220)는, 상기 향상된 지문이미지 전체를 일정 크기의 블록으로 분할한 후, 블록 별로 화소의 상관관계를 비교 분석하여, 각각의 블록에서 융선의 대표 방향을 추출하는 단계이다. 도 3은 지문입력장치로부터 획득된 지문이미지를 나타낸 것이고, 도 4는 도 3의 지문이미지로부터 추출된 각 블록별 융선의 대표방향을 도시한 것이다. 도 4에 도시된 바와 같이, 각 융선(2)의 방향은 특정 각도의 방향을 향하고 있다. In the ridge direction information extraction step (S220), after dividing the entire enhanced fingerprint image into blocks having a predetermined size, comparing and analyzing correlations of pixels for each block, a representative direction of the ridges is extracted from each block. 3 illustrates a fingerprint image obtained from a fingerprint input device, and FIG. 4 illustrates a representative direction of ridges for each block extracted from the fingerprint image of FIG. 3. As shown in FIG. 4, the direction of each ridge 2 is directed at a specific angle.

중심점 및 델타점 추출단계(S230)에서는, 수학식1과 같은 뽀앙까레 지수 (Poincare Index)를 적용하여 지문이미지의 중심점 및 델타점을 추출한다. 상기 추출된 중심점은 본 발명에 따른 특징점들의 상관관계를 계산하는 단계(S270)에서 이용되고, 상기 추출된 델타점은 제2 매칭단계(400)에서 매칭정보로 활용된다. In the center point and delta point extraction step (S230), the center point and the delta point of the fingerprint image are extracted by applying a Poincare Index such as Equation (1). The extracted center point is used in the step S270 of calculating the correlation between the feature points according to the present invention, and the extracted delta point is used as the matching information in the second matching step 400.

Figure 112005032668813-pat00001
Figure 112005032668813-pat00001

수학식1의 뽀앙까레 지수는 임의의 영역 주위를 융선 방향에 따라 적분하여 얻어진 값으로서, 지문이미지의 전체 블록에 대해 상기 뽀앙까레 지수를 순차적으로 적용한다. 중심점과 델타점을 포함하는 영역에 있어서, 만약 뽀앙까레 지수값이 1/2이면 중심점으로 하고, -1/2이면 델타점으로 삼는다. The Pohang Care index of Equation 1 is a value obtained by integrating along an ridge direction around an arbitrary region, and the Poang Care index is sequentially applied to all blocks of the fingerprint image. In the area that includes the center point and the delta point, if the point of interest is 1/2, the center point is used, and if it is -1/2, the center point is used.

이진화 단계(S240)에서는, 상기 이미지향상단계(S210)를 통해 선명해진 지문이미지의 흑백 명암을 뚜렷이 구분하여 나타내기 위해 이진화 처리한다. 도 5는 도 3의 지문이미지를 이진화 처리한 후의 모양을 나타낸 것이다. 도시된 바와 같이, 흑백의 명암이 뚜렷함을 볼 수 있다. In the binarization step (S240), the binarization process is performed to clearly distinguish the black and white contrast of the fingerprint image cleared through the image enhancement step (S210). FIG. 5 illustrates a shape after binarization of the fingerprint image of FIG. 3. As shown, the contrast of black and white can be seen clearly.

세선화 단계(S250)에서는, 상기 이진화된 지문이미지의 융선의 두께를 가늘게 변화시킨다. 세선화 단계를 통해, 여러 화소에 걸쳐 있던 하나의 융선의 두께 는 하나의 화소에 포함될 수 있을 정도로 가늘게 변화된다. 세선화 처리를 함으로써 지문이미지의 특징점을 보다 정확하고 용이하게 추출할 수 있다. 도 6은 도 5의 이진화된 지문이미지를 세선화시킨 모습을 나타낸 것이다. 도시된 바와 같이, 융선의 두께가 대폭적으로 가늘게 변화되었음을 볼 수 있다. In the thinning step S250, the thickness of the ridges of the binarized fingerprint image is changed thinly. Through the thinning step, the thickness of one ridge that spans several pixels is changed to be thin enough to be included in one pixel. By thinning, the feature points of the fingerprint image can be extracted more accurately and easily. FIG. 6 illustrates a thinning of the binarized fingerprint image of FIG. 5. As shown, it can be seen that the thickness of the ridges has changed significantly.

특징점 추출 단계(S260)에서는, 상기 세선화된 지문 이미지의 특징점(끝점과 분기점)을 추출한다. 특징점을 추출하기 위해 아래와 같은 수학식2를 적용하여 끝점과 분기점의 위치 및 방향을 계산할 수 있다. 수학식2는 3X3 화소로 구성된 프레임(도 7 참조) 안에서 화소값을 계산하는 수식이다. In a feature point extraction step (S260), feature points (end points and branch points) of the thinned fingerprint image are extracted. In order to extract the feature points, Equation 2 below can be applied to calculate the positions and directions of the end points and the branch points. Equation 2 is an expression for calculating pixel values in a frame composed of 3 × 3 pixels (see FIG. 7).

Figure 112005032668813-pat00002
Figure 112005032668813-pat00002

도 7은 화소값들의 위치를 도시한 일예이다. 도 7과 같은 프레임에 상기 수학식2를 적용하여 P0 기준점에서 인접화소(P1...P8)를 계산한 결과, 만약 CN이 2이면 그 프레임 내의 특징점은 융선의 끝점으로 처리하고, 만약 CN이 6이면 그 프레임 내의 특징점은 융선의 분기점으로 처리한다. 7 is an example illustrating positions of pixel values. As a result of calculating the adjacent pixels (P1 ... P8) at the reference point P0 by applying Equation 2 to the frame as shown in FIG. 7, if CN is 2, the feature points in the frame are treated as end points of the ridges. If it is 6, the feature points in the frame are treated as branch points of the ridges.

특징점들의 상관관계를 계산하는 단계(S270)에서는, 상기 특징점 추출 단계(S260)에서 구한 끝점 및 분기점 정보를 이용하여 각 특징점들 간의 상관관계 정보를 추출하는 단계이다. 도 8은 특징점들의 상관관계가 도시된 지문이미지를 나타낸 것이다. In the calculating of the correlation between the feature points (S270), the correlation information between the feature points is extracted by using the end point and the branch point information obtained in the feature point extraction step S260. 8 shows a fingerprint image showing the correlation of feature points.

구체적으로 살펴보면, 중심점(P0)을 중심으로 일정한 길이의 반지름을 갖는 원 영역(10) 내에서, 상기 중심점(P0)과 상기 중심점(P0)에 가장 가까운 특징점(P1)까지의 거리 D0를 계산하고, 다시 상기 특징점(P1)과 상기 특징점(P1)에 가장 가까운 또 다른 특징점(P2)까지의 거리 D1을 계산한다. 그러고 나서, 다시 상기 특징점(P2)과 가장 가까운 다른 특징점(P3)을 찾아서, P2-P3 간의 거리 D2를 계산한다. 이와 같은 방식으로, 하나의 원 영역 내에서, 특징점들의 개수 및 각 특징점들 간의 거리를 순차적으로 계산하여 각 특징점들 간의 최단 연결거리에 대한 정보를 획득한다. Specifically, the distance D0 between the center point P0 and the feature point P1 closest to the center point P0 is calculated within the circle region 10 having a constant length radius centering on the center point P0. In addition, the distance D1 between the feature point P1 and another feature point P2 closest to the feature point P1 is calculated. Then, another feature point P3 closest to the feature point P2 is found again, and the distance D2 between P2-P3 is calculated. In this manner, within one circle area, the number of feature points and the distance between the feature points are sequentially calculated to obtain information on the shortest connection distance between each feature point.

상기 특징점들의 상관관계 계산단계(S270)에서 구한 상관관계 정보 및 상기 특징점 추출 단계(S260)에서 구한 지문이미지의 특징점 정보는 후술할 제1 및 제2 매칭단계에서 각각 이용된다. The correlation information obtained in the correlation calculation step S270 of the feature points and the feature point information of the fingerprint image obtained in the feature point extraction step S260 are used in the first and second matching steps to be described later.

제1 매칭단계(S300)는, 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보의 일치여부를 비교하는 단계이다. 앞서 설명한 바와 같이, 두 상관관계 정보의 비교시에는, 중심점 부위 특징점간의 거리를 일정수 합과 차 구간에서 1개 이상 일치할 경우 두 지문이미지가 일치한 것으로 판별하여, 제2 매칭 단계(S400)로 넘어간다. The first matching step S300 is a step of comparing whether the extracted correlation information and the correlation information of the pre-stored fingerprint image match. As described above, when comparing the two correlation information, if the distance between the center point region feature point is matched more than one in the sum and the difference section, it is determined that the two fingerprint images match, second matching step (S400) Go to

Figure 112005032668813-pat00003
Figure 112005032668813-pat00003

구체적으로는, 먼저, 입력된 지문이미지의 중심점 주변의 특징점들의 거리(TD0, TD1, ...)에서, 저장된 지문이미지의 중심점 주변의 특징점들의 거리(RD0, RD1, ...)를 각각 차한다(수학식3 참조). 그러고 나서, 상기 각각의 차이값들(ΔD0, ΔD1, ΔD2,...)이 미리 설정한 임계값(Thd)을 초과하는지 여부에 따라 1차 매칭(S300) 통과여부를 결정한다. Specifically, first, the distances (RD0, RD1, ...) of the feature points around the center point of the stored fingerprint image, respectively, from the distance (TD0, TD1, ...) of the feature points around the center point of the input fingerprint image, respectively (See Equation 3). Then, it is determined whether each of the difference values ΔD0, ΔD1, ΔD2,..., 1, passes the first matching S300 according to whether or not the predetermined threshold Thd is exceeded.

예컨대, 상기 차이값들 모두가 임계값을 초과하면 두 지문(입력된 지문과 저장된 지문)이 일치하지 않는 것으로 판단하고, 상기 차이값들 중 하나 이상이 임계값 이하이면 두 지문이 일치하는 것으로 판단하여 2차 매칭단계로 넘어가도록 설정할 수 있다. 다만, 1차 매칭을 통과하기 위해 요구되는 임계값(Thd) 이하의 차이값들의 개수는, 사용환경에 따라 다양하게 설정할 수 있을 것이다.For example, if all of the difference values exceed the threshold, it is determined that the two fingerprints (the input fingerprint and the stored fingerprint) do not match. If at least one of the difference values is less than or equal to the threshold value, the two fingerprints are determined to match. It can be set to go to the second matching step. However, the number of difference values less than or equal to the threshold Thd required to pass the first matching may be variously set according to the use environment.

상기 제1 매칭단계(S300)에서, 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보가 일치하지 않는 경우에는 인증이 실패된 것으로 처리한다(S600). In the first matching step (S300), if the extracted correlation information and the correlation information of the pre-stored fingerprint image does not match, it is treated as an authentication failure (S600).

제2 매칭단계(S400)는, 상기 제1 매칭(S300)을 통과한 지문이미지의 전체 특징점과 미리 저장된 지문이미지의 특징점 정보의 일치여부를 비교하는 단계로서, 예컨대, 수학식4를 적용하여 판단할 수 있다. The second matching step (S400) is a step of comparing whether or not the entire feature point of the fingerprint image passing the first matching (S300) and the feature point information of the pre-stored fingerprint image match, for example, by applying the equation (4) can do.

수학식4는 대비되는 특징점들의 방향각도 및 이격거리의 차이를 통해 매칭여부를 정하기 위한 수식이다. 즉, 입력된 지문이미지와 저장된 지문이미지의 각 특징점의 방향값의 차이가 임계치 이하인지 여부를 판단하고(수학식4-1), 대비되는 각 특징점의 이격거리가 임계치 이하인지 여부를 판단한 후(수학식4-2), 이들 판단 정보에 수학식4-3을 적용함으로써 지문이미지의 일치여부를 비교할 수 있다. 수학식4-3에서 정합률(MR : Minutiae Hitting Ratio)이 일정값 이상이면 동일 지문으로 판별한다.Equation 4 is a formula for determining whether to match the difference between the direction angle and the separation distance of the feature points to be contrasted. That is, it is determined whether the difference between the direction value of each feature point of the input fingerprint image and the stored fingerprint image is less than or equal to the threshold (Equation 4-1), and after determining whether the separation distance of each feature point is less than or equal to the threshold ( Equation 4-2) By applying Equation 4-3 to these determination information, it is possible to compare whether or not the fingerprint image is matched. If the matching ratio (MR: Minutiae Hitting Ratio) is greater than or equal to a predetermined value in Equation 4-3, the same fingerprint is determined.

Figure 112005032668813-pat00004
Figure 112005032668813-pat00004

수학식4-1은 저장 지문 특징점 데이터 방향(θk r)과 입력 지문 특징점 데이터 방향(θl i)의 차이가 임계치(Thθ) 이하인 것을 나타내고 있다. 수학식4-2는 저장 지문 특징점 데이터 위치(xk r, yk r)와 입력 지문 특징점 데이터 위치(xl i, yl i)간의 거리를 계산하여 임계치(Thd)보다 낮은 것을 나타내고 있다. 수학식4-3은 정합율(MR)을 구하기 위한 수식이다. 수학식4-1과 수학식4-2의 조건을 모두 만족한 특 징점의 개수(PM)에 2를 곱한 수에서, 저장 지문 특징점 개수(EMr)와 입력 지문 특징점 개수(EMi)의 합을 나눔으로써 정합율(MR)을 구한다. 정합율(MR)이 미리 설정된 임계치 이상의 값을 가지면 양자를 동일 지문으로 판별한다. Equation 4-1 indicates that the difference between the storage fingerprint feature point data direction θ k r and the input fingerprint feature point data direction θ l i is equal to or less than the threshold Thθ. Equation 4-2 indicates that the distance between the stored fingerprint feature point data location x k r and y k r and the input fingerprint feature point data location x l i and y l i is lower than the threshold Thd. Equation 4-3 is an equation for obtaining the matching ratio MR. The sum of the number of stored fingerprint feature points (EM r ) and the number of input fingerprint feature points (EM i ), multiplied by the number of feature points (PM) that satisfies both the equations (4-1) and (4-2). Find the matching rate (MR) by dividing. If the matching rate MR has a value equal to or greater than a preset threshold, both are identified by the same fingerprint.

이처럼 제2 매칭단계(S400)에서는, 제1 매칭을 통과한 지문이미지와 미리 저장된 지문이미지 간의 정합율이 임계치 이상인 경우, 지문인증이 성공된 것으로 처리하고(S500), 반면 정합율이 임계치보다 낮은 경우에는 지문인증이 실패한 것으로 처리한다(S600). As such, in the second matching step S400, when the matching ratio between the fingerprint image that passes the first matching and the pre-stored fingerprint image is greater than or equal to the threshold, the fingerprint authentication is treated as successful (S500), while the matching rate is lower than the threshold. In the case that the fingerprint authentication has failed (S600).

이상 본 발명의 특정 실시예를 도시하고 설명하였으나, 본 발명의 기술사상은 첨부된 도면과 상기한 설명내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형이 가능함은 이 분야의 통상의 지식을 가진 자에게는 자명한 사실이며, 이러한 형태의 변형은, 본 발명의 정신에 위배되지 않는 범위 내에서 본 발명의 특허청구범위에 속한다고 볼 것이다. While specific embodiments of the present invention have been illustrated and described, the technical spirit of the present invention is not limited to the accompanying drawings and the above description, and various modifications can be made without departing from the spirit of the present invention. It will be apparent to those skilled in the art, and variations of this form will be regarded as belonging to the claims of the present invention without departing from the spirit of the present invention.

이상 살펴 본 바와 같이, 본 발명에 따른 지문매칭방법에서는, 중심점부위의 특징점들의 상관관계만을 비교하는 제1 매칭을 실시하고, 상기 1차 매칭에서 통과된 지문이미지에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭을 실시한다. 따라서, 특히 대용량 지문검색에 있어서, 전체 지문이미지의 특징을 비교하는 방식에 비해 입력 지문과 일치하는 지문이 저장되어 있는지 여부를 빠르게 검색할 수 있다. As described above, in the fingerprint matching method according to the present invention, the first matching is performed to compare only the correlations of the feature points of the center point portion, and the entire feature points of the fingerprint image are compared only for the fingerprint image passed in the first matching. The second matching is performed. Therefore, especially in a large-capacity fingerprint search, it is possible to quickly search whether a fingerprint matching the input fingerprint is stored as compared with a method of comparing the features of the entire fingerprint image.

Claims (9)

지문입력장치를 통하여 지문이미지를 획득하는 단계; Obtaining a fingerprint image through the fingerprint input device; 상기 획득된 지문이미지의 중심점과 특징점을 추출하는 단계; Extracting a center point and a feature point of the obtained fingerprint image; 상기 중심점을 중심으로 하는 일정 영역 내에서 특징점들 간의 최단 거리정보를 포함하는 특징점 상관관계 정보를 획득하는 단계; Acquiring feature point correlation information including shortest distance information between feature points within a predetermined area centered on the center point; 상기 특징점 상관관계 정보와 미리 저장된 지문이미지의 특징점 상관관계 정보를 비교하는 제1 매칭단계; A first matching step of comparing the feature point correlation information with feature point correlation information of a pre-stored fingerprint image; 상기 제1 매칭이 성공한 경우, 상기 획득된 지문이미지의 특징점 정보와 미리 저장된 지문이미지의 특징점 정보를 비교하는 제2 매칭단계를 포함하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. And a second matching step of comparing feature point information of the acquired fingerprint image with feature point information of a pre-stored fingerprint image when the first matching is successful. 제1항에 있어서, 상기 획득된 지문이미지의 중심점과 특징점을 추출하는 단계는, The method of claim 1, wherein the extracting the center point and the feature point of the acquired fingerprint image comprises: 지문입력장치를 통하여 입력된 지문이미지를 필터링함으로써 지문이미지의 품질을 향상시키는 단계; Improving the quality of the fingerprint image by filtering the fingerprint image input through the fingerprint input device; 상기 향상된 지문이미지로부터 융선방향 정보를 추출하는 단계; Extracting ridge direction information from the enhanced fingerprint image; 상기 융선방향 정보를 이용하여 상기 중심점 및 델타점을 추출하는 단계; Extracting the center point and the delta point using the ridge direction information; 상기 향상된 지문이미지를 흑백으로 구분하기 위해 이진화시키는 단계; 및Binarizing the enhanced fingerprint image in black and white; And 상기 이진화된 지문이미지의 특징점을 추출하는 단계를 포함하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. And extracting feature points of the binarized fingerprint image. 제2항에 있어서, The method of claim 2, 상기 지문이미지의 품질 향상을 위해, 가보르 필터를 이용하여 상기 지문이미지를 필터링하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. Fingerprint matching method using the feature correlation, characterized in that for filtering the fingerprint image to improve the quality of the fingerprint image, using a Gabor filter. 제2항에 있어서, The method of claim 2, 상기 지문이미지의 특징점을 추출하기 전에, 상기 지문이미지를 세선화시키는 단계를 더 포함하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. And thinning the fingerprint image prior to extracting the feature point of the fingerprint image. 삭제delete 제1항에 있어서, The method of claim 1, 상기 저장된 지문이미지에서의 각 특징점들 간의 최단 거리와 상기 획득된 지문이미지에서의 각 특징점들 간의 최단 거리의 각 차이값들 중에서 하나 이상의 차이값이 미리 설정한 임계값(Thd) 이하이면 상기 제1매칭에 성공하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. The first value is one or more of the difference values between the shortest distances between the respective feature points in the stored fingerprint image and the shortest distances between the feature points in the fingerprint image. Fingerprint matching method using a feature point correlation characterized in that the matching is successful. 제1항에 있어서, The method of claim 1, 상기 제2매칭단계는, 상기 저장된 지문이미지 및 상기 획득된 지문이미지의 각 특징점의 방향차 및 거리차가 미리 설정된 각각의 임계치 이하의 값을 갖는지 여부를 판단하는 단계를 포함하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. The second matching step may include determining whether a direction difference and a distance difference between each stored feature point of the stored fingerprint image and the acquired fingerprint image have a value less than or equal to a predetermined threshold. Fingerprint Matching Method Using Relationships. 제1항에 있어서, The method of claim 1, 상기 특징점들 간의 최단 거리정보는, 상기 중심점을 시작점으로 하여 가장 가까운 특징점을 순차적으로 연결한 경우에서의 각 연결거리(TD0, TD1,...)에 대한 정보인 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. The shortest distance information between the feature points is information on each connection distance (TD0, TD1, ...) when the closest feature points are sequentially connected with the center point as a starting point. Fingerprint matching method. 제1항에 있어서, The method of claim 1, 상기 특징점 상관관계 정보는 상기 일정영역 내에 존재하는 특징점들의 개수에 대한 정보를 더 포함하는 것을 특징으로 하는 특징점 상관관계를 이용한 지문매칭방법. The feature point correlation information further includes information on the number of feature points existing in the predetermined region.
KR1020050053157A 2005-06-20 2005-06-20 Fast Matching of FingerPrint Using Minutiae in Core Point Area KR100698723B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050053157A KR100698723B1 (en) 2005-06-20 2005-06-20 Fast Matching of FingerPrint Using Minutiae in Core Point Area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050053157A KR100698723B1 (en) 2005-06-20 2005-06-20 Fast Matching of FingerPrint Using Minutiae in Core Point Area

Publications (2)

Publication Number Publication Date
KR20060133348A KR20060133348A (en) 2006-12-26
KR100698723B1 true KR100698723B1 (en) 2007-03-23

Family

ID=37812259

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050053157A KR100698723B1 (en) 2005-06-20 2005-06-20 Fast Matching of FingerPrint Using Minutiae in Core Point Area

Country Status (1)

Country Link
KR (1) KR100698723B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3107037A4 (en) * 2014-02-14 2017-11-08 Canvasbio Co., Ltd. Electronic device comprising minimum sensing area and fingerprint information processing method therefor
WO2019074240A1 (en) * 2017-10-11 2019-04-18 삼성전자주식회사 Server, method for controlling server, and terminal device
US11552944B2 (en) 2017-10-11 2023-01-10 Samsung Electronics Co., Ltd. Server, method for controlling server, and terminal device
US11810393B2 (en) 2020-09-01 2023-11-07 Samsung Display Co., Ltd. Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060758A (en) * 1999-03-19 2000-10-16 심재창 fingerprint matching method
KR100393753B1 (en) * 2002-02-28 2003-08-02 Smart Technology Co Ltd Method for recognizing fingerprint using dual mode matching
JP2004213395A (en) 2003-01-06 2004-07-29 Sony Corp Fingerprint collating device and method, recording medium and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060758A (en) * 1999-03-19 2000-10-16 심재창 fingerprint matching method
KR100393753B1 (en) * 2002-02-28 2003-08-02 Smart Technology Co Ltd Method for recognizing fingerprint using dual mode matching
JP2004213395A (en) 2003-01-06 2004-07-29 Sony Corp Fingerprint collating device and method, recording medium and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3107037A4 (en) * 2014-02-14 2017-11-08 Canvasbio Co., Ltd. Electronic device comprising minimum sensing area and fingerprint information processing method therefor
WO2019074240A1 (en) * 2017-10-11 2019-04-18 삼성전자주식회사 Server, method for controlling server, and terminal device
US11552944B2 (en) 2017-10-11 2023-01-10 Samsung Electronics Co., Ltd. Server, method for controlling server, and terminal device
US11810393B2 (en) 2020-09-01 2023-11-07 Samsung Display Co., Ltd. Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device

Also Published As

Publication number Publication date
KR20060133348A (en) 2006-12-26

Similar Documents

Publication Publication Date Title
Prasad et al. A survey of fingerprint recognition systems and their applications
Saraswat et al. An efficient automatic attendance system using fingerprint verification technique
Prabhakar et al. Learning fingerprint minutiae location and type
US6876757B2 (en) Fingerprint recognition system
US20040042645A1 (en) Fingerprint recognition method, and fingerprint control method and system
KR100432491B1 (en) Method of extracting fingerprint features using ridge direction model
JP2007072676A (en) Image processing unit, mask generation method, and program
Hemalatha A systematic review on Fingerprint based Biometric Authentication System
Nagwanshi et al. Biometric authentication using human footprint
El_Rahman Multimodal biometric systems based on different fusion levels of ECG and fingerprint using different classifiers
Fei et al. Enhanced minutiae extraction for high-resolution palmprint recognition
Liu et al. An improved 3-step contactless fingerprint image enhancement approach for minutiae detection
Kumar et al. Fingerprint matching using multi-dimensional ANN
KR100698723B1 (en) Fast Matching of FingerPrint Using Minutiae in Core Point Area
de Paula Lemes et al. Dynamic pore filtering for keypoint detection applied to newborn authentication
KR102174083B1 (en) Apparatus and method for biometrics using finger vein feature based on deep learing
KR101601187B1 (en) Device Control Unit and Method Using User Recognition Information Based on Palm Print Image
US7512256B1 (en) System, method, and computer program product for ridge map formation
Raghavan et al. An enhanced and hybrid fingerprint minutiae feature extraction method for identifying and authenticating the patient’s noisy fingerprint
Mali et al. Fingerprint recognition using global and local structures
Sisodia et al. A conglomerate technique for finger print recognition using phone camera captured images
Surajkanta et al. A digital geometry-based fingerprint matching technique
Tatar et al. Improvement of the fingerprint recognition process
KR100698724B1 (en) Method for Extracting Singular and Core Point of Fingerprint Image Using Ridge Direction
Lomte et al. Biometric fingerprint authentication by minutiae extraction using USB token system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110314

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee