KR100698723B1 - Fast Matching of FingerPrint Using Minutiae in Core Point Area - Google Patents
Fast Matching of FingerPrint Using Minutiae in Core Point Area Download PDFInfo
- Publication number
- KR100698723B1 KR100698723B1 KR1020050053157A KR20050053157A KR100698723B1 KR 100698723 B1 KR100698723 B1 KR 100698723B1 KR 1020050053157 A KR1020050053157 A KR 1020050053157A KR 20050053157 A KR20050053157 A KR 20050053157A KR 100698723 B1 KR100698723 B1 KR 100698723B1
- Authority
- KR
- South Korea
- Prior art keywords
- fingerprint image
- fingerprint
- matching
- information
- feature point
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Abstract
본 발명은 지문이미지 매칭 방법에 관한 것으로서, 본 발명에 따른 지문이미지 매칭방법에서는, 지문입력장치 등을 통하여 획득된 지문이미지에 대한 특징점 정보 및 각 특징점의 상관관계를 추출한 후, 제1 매칭단계로서 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하고, 상기 제1 매칭이 성공한 경우, 제2 매칭단계로서, 상기 특징점 정보와 미리 저장된 지문이미지의 전체 특징점 정보를 비교한다. 이와 같이 본 발명에 따른 지문이미지 매칭 방법은, 제1 매칭을 통과한 지문에 대해서만 전체 특징점 정보를 비교하므로, 지문이미지의 매칭에 소요되는 시간을 크게 줄일 수 있다. The present invention relates to a fingerprint image matching method. In the fingerprint image matching method according to the present invention, after extracting feature point information and correlation of each feature point of a fingerprint image acquired through a fingerprint input device or the like, the first matching step is performed. The correlation information between the extracted correlation information and the pre-stored fingerprint image is compared. When the first matching is successful, as a second matching step, the feature point information and the overall feature point information of the pre-stored fingerprint image are compared. As described above, the fingerprint image matching method according to the present invention compares the entire feature point information only with respect to the fingerprint that has passed the first matching, thereby greatly reducing the time required for matching the fingerprint image.
지문매칭, 지문이미지, 특징점 Fingerprint matching, fingerprint image, feature points
Description
도 1은 본 발명에 따른 지문이미지의 매칭방법을 나타낸 순서도이다. 1 is a flowchart illustrating a matching method of a fingerprint image according to the present invention.
도 2는 본 발명에 따른 지문이미지의 특징점 및 특징점의 상관관계 정보를 추출하는 과정을 나타낸 순서도이다. 2 is a flowchart illustrating a process of extracting feature points and correlation information of feature points of a fingerprint image according to the present invention.
도 3은 지문입력장치를 통해 획득한 지문이미지의 일예를 나타낸 것이다. 3 illustrates an example of a fingerprint image obtained through a fingerprint input device.
도 4는 도 3의 지문이미지의 각 영역별 대표 융선 방향을 나타낸 것이다. 4 illustrates a representative ridge direction of each region of the fingerprint image of FIG. 3.
도 5는 도 3의 지문이미지를 이진화 처리한 모습을 나타낸 것이다. FIG. 5 illustrates a binarization process of the fingerprint image of FIG. 3.
도 6은 도 5의 지문이미지를 세선화 처리한 모습을 나타낸 것이다. FIG. 6 illustrates a thinning process of the fingerprint image of FIG. 5.
도 7은 화소값들의 위치를 예시한 것이다. 7 illustrates the location of pixel values.
도 8은 본 발명에 따라 중심점 부위의 특징점들 간의 상관관계를 나타낸 것이다. Figure 8 shows the correlation between the feature points of the center point area in accordance with the present invention.
본 발명은 지문이미지의 매칭 방법에 관한 것으로서, 더욱 상세하게는 지문 이미지의 매칭 속도를 향상하기 위해, 중심점부위의 특징점 상관관계만을 비교하는 제1 매칭과, 상기 1차 매칭에서 통과된 지문에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭으로 구분한 지문이미지의 매칭방법에 관한 것이다. The present invention relates to a fingerprint image matching method, and more particularly, to improve the matching speed of a fingerprint image, the first matching comparing only the feature point correlation of the center point portion, and the fingerprint passed in the first matching only The present invention relates to a matching method of a fingerprint image divided by a second matching to compare all feature points of the fingerprint image.
최근 컴퓨터의 광범위한 보급과 인터넷 네트워크의 급속한 발전에 따라, 이들을 이용한 전자 상거래, 금융 거래 등이 활발히 이루어지고 있는데, 이와 함께 보안과 매칭에 관한 사항이 새로운 사회 문제로 되고 있다. 이러한 보안과 매칭에 대한 수단으로서, 각 개인의 고유한 신체적 특성을 이용한 바이오 매트릭스 기술에 관한 연구가 지속적으로 이루어지고 있는 실정이다. Recently, with the widespread use of computers and the rapid development of the Internet network, electronic commerce and financial transactions using them are being actively performed, and security and matching are becoming new social problems. As a means for such security and matching, the study of the bio-matrix technology using the unique physical characteristics of each individual is continuously conducted.
바이오 매트릭스 기술은 대표적으로, 개인의 홍채, 혈관 배치 모양, 지문이미지 등에 관한 매칭기술이 있는 데, 특히 지문매칭시스템의 경우, 매칭의 간편성이나 정확성이 다른 생체에 비해 우수하여 가장 활발히 이용되고 있는 분야이다. 매칭수단으로서의 지문은, 손가락 끝에 있는 융선(Ridge)과 상기 융선 사이의 움푹 패인 골(계곡;Valley)로 이루어진 형상으로서, 각 개인마다 독특한 형상을 지니고 있고 세월의 흐름에 따라 모양이 변하지 않기 때문에 개인식별 수단으로서 출입관리, 범죄수사, 신분증 등 다양한 분야에 이용되어 왔다. Bio-matrix technology typically has matching technology for individual iris, blood vessel placement shape, fingerprint image, etc. Especially in the case of fingerprint matching system, the simplicity or accuracy of matching is superior to other living bodies, and it is used most actively. to be. The fingerprint as a matching means is a shape consisting of a ridge at the fingertip and a dent (Valley) between the ridges. Each fingerprint has a unique shape and does not change with the passage of time. As a means of identification, it has been used in various fields such as access control, criminal investigation and identification.
지문매칭시스템은, 각 개인의 지문이미지 정보를 사전에 데이터베이스에 저장하였다가, 지문입력장치를 통해 매칭이 요청되는 지문이미지가 입력된 경우, 상기 저장된 지문이미지와 상기 입력된 지문이미지의 특징점 분포 또는 융선 흐름 등의 특징을 비교함으로써 양자의 일치여부를 판단한다. The fingerprint matching system stores the fingerprint image information of each individual in a database in advance, and when a fingerprint image that is requested to be matched through a fingerprint input device is inputted, a feature point distribution of the stored fingerprint image and the input fingerprint image or By comparing features such as ridge flow, it is determined whether the two match.
한편, 지문이미지에서 추출할 수 있는 특징점(minutiae)에는 여러 가지가 있 는데, 끝점(Ending Point), 분기점(Bifurcation), 교차점(Trifurcation or Crossover) 등이 그 예이며, 이 중에서 지문인식시스템에 주로 사용되는 특징점은 끝점과 분기점이다. 이 특징점은 사람마다 위치와 수가 다르며, 잡음에 강해서 지문매칭 시스템에 가장 많이 쓰이고 있는 실정이다. On the other hand, there are a number of features (minutiae) that can be extracted from the fingerprint image, such as the end point (Ending Point), bifurcation (Trifurcation or Crossover), etc. Among these, mainly the fingerprint recognition system The feature points used are end points and branch points. This feature is different in location and number, and it is most used in fingerprint matching system because it is strong in noise.
그런데, 지문매칭에 있어서, 지문이미지의 끝점, 분기점을 전체적으로 상호 비교할 경우, 매칭과정에 많은 시간이 소요될 수 있다. 특히 대용량 지문 검색, 예컨대 범죄수사 등에서의 지문검색과 같이 데이터베이스에 저장된 수 많은 사람들의 지문과 일일이 비교해야 하는 경우에는 매칭 처리시간이 길고, 오인식 확률도 높아지게 된다. However, in fingerprint matching, when comparing the end point and the branch point of the fingerprint image as a whole, a matching process may take a long time. In particular, when a large-scale fingerprint search, for example, a fingerprint search in a criminal investigation, such as a fingerprint search of a large number of people stored in the database every day, the matching processing time is long, and the probability of misrecognition increases.
따라서, 특히 대용량 지문 검색에 있어서, 지문매칭 처리 시간을 줄이고, 보다 정확한 매칭이 가능케 하는 기술이 요청되고 있는 실정이다. Therefore, there is a demand for a technology that reduces fingerprint matching processing time and enables more accurate matching, particularly in large-capacity fingerprint search.
따라서, 본 발명에서는 지문이미지의 매칭 속도를 향상하기 위해, 중심점부위의 특징점들의 상관관계만을 비교하는 제1 매칭과, 상기 1차 매칭에서 통과된 지문에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭으로 구분한 지문이미지의 매칭방법을 제공하는 것을 목적으로 한다. Accordingly, in the present invention, in order to improve the matching speed of the fingerprint image, the first matching comparing only the correlation of the feature points of the center point portion, and the second comparing the whole feature points of the fingerprint image only for the fingerprint passed in the first matching An object of the present invention is to provide a matching method of fingerprint images classified by matching.
본 발명의 다른 목적은, 상기 중심점부위의 특징점들의 상관관계 정보를 추출하는 방법을 제공하는 것이다. Another object of the present invention is to provide a method for extracting correlation information of feature points of the center point portion.
본 발명의 일실시예에 따른 지문이미지의 매칭방법은, 지문입력장치를 통하여 지문이미지를 획득하는 단계; 상기 획득된 지문이미지의 특징점 정보 및 특징점 상관관계 정보를 추출하는 단계; 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하는 제1 매칭단계; 상기 제1 매칭이 성공한 경우, 상기 획득된 지문이미지의 특징점 정보와 미리 저장된 지문이미지의 특징점 정보를 비교하는 제2 매칭단계를 포함한다. According to an embodiment of the present invention, a fingerprint image matching method includes: obtaining a fingerprint image through a fingerprint input device; Extracting feature point information and feature point correlation information of the obtained fingerprint image; A first matching step of comparing the extracted correlation information with correlation information of a pre-stored fingerprint image; And when the first matching is successful, comparing the acquired feature point information of the fingerprint image with the feature point information of the pre-stored fingerprint image.
상기 특징점 정보 및 특징점 상관관계 정보의 추출 단계는, 지문입력장치를 통하여 획득된 지문이미지를 필터링함으로써 지문이미지의 품질을 향상시키는 단계; 상기 향상된 지문이미지로부터 융선방향 정보를 추출하는 단계; 상기 융선방향 정보를 이용하여 중심점 및 델타점을 추출하는 단계; 상기 향상된 지문이미지를 흑백으로 구분하기 위해 이진화시키는 단계; 상기 이진화된 지문이미지의 특징점을 추출하는 단계; 및 상기 추출된 특징점 중 상기 중심점 주위의 일정 영역 내에 위치한 특징점들의 상관관계를 추출하는 단계를 포함한다. The extracting of the feature point information and the feature point correlation information may include: improving a quality of a fingerprint image by filtering a fingerprint image obtained through a fingerprint input device; Extracting ridge direction information from the enhanced fingerprint image; Extracting a center point and a delta point using the ridge direction information; Binarizing the enhanced fingerprint image in black and white; Extracting feature points of the binarized fingerprint image; And extracting correlation of feature points located in a predetermined area around the center point among the extracted feature points.
이하 첨부도면을 참조하여 본 발명에 따른 지문 매칭 방법과 특징점 상관관계 정보를 추출하는 방법을 상세히 설명한다. Hereinafter, a fingerprint matching method and a method of extracting feature point correlation information according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 지문이미지의 매칭방법을 나타낸 순서도이다. 도시된 바와 같이, 본 발명에 따른 지문이미지의 매칭방법은, 지문입력장치 등을 통하여 지문이미지를 획득하는 단계(S100); 상기 획득된 지문이미지의 특징점 정보 및 특징점 상관관계 정보를 추출하는 단계(S200); 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보를 비교하는 제1 매칭단계(S300); 상기 제1 매칭이 성공한 경우, 상기 특징점 정보와 미리 저장된 지문이미지의 특징점 정보를 비교하는 제2 매칭단계(S400)를 포함한다. 1 is a flowchart illustrating a matching method of a fingerprint image according to the present invention. As shown, the matching method of the fingerprint image according to the invention, the step of obtaining a fingerprint image through a fingerprint input device and the like (S100); Extracting feature point information and feature point correlation information of the obtained fingerprint image (S200); A first matching step (S300) of comparing the extracted correlation information with correlation information of a pre-stored fingerprint image; If the first matching is successful, a second matching step (S400) of comparing the feature point information with feature point information of a pre-stored fingerprint image is included.
지문이미지 획득단계(S100)는, 지문 입력 장치로부터 획득한 지문의 영상 신호를 디지털 지문이미지로 변환하는 단계이다. 예컨대, 지문인식장치는 접촉발광소자를 이용하여 지문의 형상을 광신호로 전환시키고, CCD 또는 CMOS 이미지 센서 등을 이용하여 이미지 신호를 발생시킨다. 이 경우, 접촉발광소자는 손가락 지문이 접촉하는 경우, 전류 루프를 형성하여 지문의 형상에 따른 광신호를 발생시킬 수 있다. CCD 또는 CMOS 이미지 센서에서 발생된 디지털 이미지 신호는 영상처리기를 통해 이미지 신호를 여과하여 지문이미지를 획득한다. The fingerprint image obtaining step S100 is a step of converting an image signal of a fingerprint obtained from a fingerprint input device into a digital fingerprint image. For example, the fingerprint recognition device converts the shape of the fingerprint into an optical signal using a touch light emitting device, and generates an image signal using a CCD or CMOS image sensor. In this case, when the finger fingerprint is in contact with the touch light emitting device, a current loop may be formed to generate an optical signal according to the shape of the fingerprint. The digital image signal generated by the CCD or CMOS image sensor filters the image signal through an image processor to obtain a fingerprint image.
특징점 정보 및 특징점 상관관계 정보를 추출하는 단계(S200)에서는, 상기 획득된 지문이미지의 전체 특징점(끝점과 분기점)을 추출하고, 상기 추출된 특징점들 간의 상관관계 정보를 추출한다. 상기 추출단계(S200)에 대한 구체적 과정이 도 2의 순서도에 도시되어 있다. In the extracting of the feature point information and the feature point correlation information (S200), all feature points (endpoints and branch points) of the obtained fingerprint image are extracted, and correlation information between the extracted feature points is extracted. A detailed process for the extraction step S200 is shown in the flowchart of FIG. 2.
도 2는 본 발명에 따른 지문이미지의 특징점 및 특징점의 상관관계를 추출하는 과정을 나타낸 순서도이다. 도시된 바와 같이, 도 2의 실시예에 따른 추출과정은, 지문입력장치 등을 통하여 획득된 지문이미지의 품질을 향상시키기 위한 지문이미지 향상단계(S210), 상기 향상된 지문이미지로부터 융선방향 정보를 추출하는 단계(S220), 상기 융선방향 정보를 이용하여 중심점 및 델타점을 추출하는 단계(S230), 상기 향상된 지문이미지를 흑백으로 구분하기 위해 이진화시키는 단계 (S240), 상기 이진화된 지문이미지를 세선화시키는 단계(S250), 상기 세선화된 지문이미지의 특징점을 추출하는 단계(S260) 및 상기 추출된 특징점 중 상기 중심점 주위의 일정 영역 내에 위치한 특징점들의 상관관계를 계산하는 단계(S270)를 포함한다. 도 2의 실시예에 따른 특징점 및 특징점 상관관계 정보 추출과정을 구체적으로 살펴보면 다음과 같다. 2 is a flowchart illustrating a process of extracting a feature point and a correlation between feature points of a fingerprint image according to the present invention. As shown, the extraction process according to the embodiment of Figure 2, the fingerprint image enhancement step (S210) for improving the quality of the fingerprint image obtained through the fingerprint input device, etc., extracting the ridge direction information from the improved fingerprint image (S220), extracting a center point and a delta point using the ridge direction information (S230), binarizing the separated fingerprint image in black and white (S240), thinning the binarized fingerprint image Step S250, extracting the feature points of the thinned fingerprint image (S260) and calculating the correlation between the feature points located within a predetermined area around the center point among the extracted feature points (S270). The process of extracting feature points and feature point correlation information according to the embodiment of FIG. 2 will now be described in detail.
지문이미지 향상단계(S210)는, 지문이미지에서의 잡음제거 등과 같이, 지문이미지의 품질을 향상하기 위해 지문이미지에 필터링 기법 등을 적용하는 단계이다. 상기 지문이미지 향상을 위해 적용할 수 있는 필터링 기법으로서는, 예컨대 가보르(Gabor) 필터를 적용할 수 있다. 가보르 필터는 이미지를 공간적으로 국부화(Localization) 시키는 특성을 지니고 있을 뿐만 아니라 주파수영역에서도 특정주파수와 방향에 대해서 선택적으로 반응하는 대역통과필터의 특성을 가진다. 지문이미지를 특정 방향(예컨대, 0도, 45도, 90도, 135도)의 가보르 필터에 통과시켜서 융선 구조가 향상된 지문이미지를 얻을 수 있다. Fingerprint image enhancement step (S210) is a step of applying a filtering technique to the fingerprint image to improve the quality of the fingerprint image, such as noise removal in the fingerprint image. As a filtering technique applicable to the fingerprint image enhancement, for example, a Gabor filter may be applied. Gabor filters not only have the spatial localization of images, but also have the characteristics of bandpass filters that selectively respond to specific frequencies and directions in the frequency domain. The fingerprint image may be passed through a Gabor filter in a specific direction (eg, 0 degrees, 45 degrees, 90 degrees, 135 degrees) to obtain a fingerprint image having an improved ridge structure.
융선방향정보 추출단계(S220)는, 상기 향상된 지문이미지 전체를 일정 크기의 블록으로 분할한 후, 블록 별로 화소의 상관관계를 비교 분석하여, 각각의 블록에서 융선의 대표 방향을 추출하는 단계이다. 도 3은 지문입력장치로부터 획득된 지문이미지를 나타낸 것이고, 도 4는 도 3의 지문이미지로부터 추출된 각 블록별 융선의 대표방향을 도시한 것이다. 도 4에 도시된 바와 같이, 각 융선(2)의 방향은 특정 각도의 방향을 향하고 있다. In the ridge direction information extraction step (S220), after dividing the entire enhanced fingerprint image into blocks having a predetermined size, comparing and analyzing correlations of pixels for each block, a representative direction of the ridges is extracted from each block. 3 illustrates a fingerprint image obtained from a fingerprint input device, and FIG. 4 illustrates a representative direction of ridges for each block extracted from the fingerprint image of FIG. 3. As shown in FIG. 4, the direction of each
중심점 및 델타점 추출단계(S230)에서는, 수학식1과 같은 뽀앙까레 지수 (Poincare Index)를 적용하여 지문이미지의 중심점 및 델타점을 추출한다. 상기 추출된 중심점은 본 발명에 따른 특징점들의 상관관계를 계산하는 단계(S270)에서 이용되고, 상기 추출된 델타점은 제2 매칭단계(400)에서 매칭정보로 활용된다. In the center point and delta point extraction step (S230), the center point and the delta point of the fingerprint image are extracted by applying a Poincare Index such as Equation (1). The extracted center point is used in the step S270 of calculating the correlation between the feature points according to the present invention, and the extracted delta point is used as the matching information in the second matching step 400.
수학식1의 뽀앙까레 지수는 임의의 영역 주위를 융선 방향에 따라 적분하여 얻어진 값으로서, 지문이미지의 전체 블록에 대해 상기 뽀앙까레 지수를 순차적으로 적용한다. 중심점과 델타점을 포함하는 영역에 있어서, 만약 뽀앙까레 지수값이 1/2이면 중심점으로 하고, -1/2이면 델타점으로 삼는다. The Pohang Care index of Equation 1 is a value obtained by integrating along an ridge direction around an arbitrary region, and the Poang Care index is sequentially applied to all blocks of the fingerprint image. In the area that includes the center point and the delta point, if the point of interest is 1/2, the center point is used, and if it is -1/2, the center point is used.
이진화 단계(S240)에서는, 상기 이미지향상단계(S210)를 통해 선명해진 지문이미지의 흑백 명암을 뚜렷이 구분하여 나타내기 위해 이진화 처리한다. 도 5는 도 3의 지문이미지를 이진화 처리한 후의 모양을 나타낸 것이다. 도시된 바와 같이, 흑백의 명암이 뚜렷함을 볼 수 있다. In the binarization step (S240), the binarization process is performed to clearly distinguish the black and white contrast of the fingerprint image cleared through the image enhancement step (S210). FIG. 5 illustrates a shape after binarization of the fingerprint image of FIG. 3. As shown, the contrast of black and white can be seen clearly.
세선화 단계(S250)에서는, 상기 이진화된 지문이미지의 융선의 두께를 가늘게 변화시킨다. 세선화 단계를 통해, 여러 화소에 걸쳐 있던 하나의 융선의 두께 는 하나의 화소에 포함될 수 있을 정도로 가늘게 변화된다. 세선화 처리를 함으로써 지문이미지의 특징점을 보다 정확하고 용이하게 추출할 수 있다. 도 6은 도 5의 이진화된 지문이미지를 세선화시킨 모습을 나타낸 것이다. 도시된 바와 같이, 융선의 두께가 대폭적으로 가늘게 변화되었음을 볼 수 있다. In the thinning step S250, the thickness of the ridges of the binarized fingerprint image is changed thinly. Through the thinning step, the thickness of one ridge that spans several pixels is changed to be thin enough to be included in one pixel. By thinning, the feature points of the fingerprint image can be extracted more accurately and easily. FIG. 6 illustrates a thinning of the binarized fingerprint image of FIG. 5. As shown, it can be seen that the thickness of the ridges has changed significantly.
특징점 추출 단계(S260)에서는, 상기 세선화된 지문 이미지의 특징점(끝점과 분기점)을 추출한다. 특징점을 추출하기 위해 아래와 같은 수학식2를 적용하여 끝점과 분기점의 위치 및 방향을 계산할 수 있다. 수학식2는 3X3 화소로 구성된 프레임(도 7 참조) 안에서 화소값을 계산하는 수식이다. In a feature point extraction step (S260), feature points (end points and branch points) of the thinned fingerprint image are extracted. In order to extract the feature points,
도 7은 화소값들의 위치를 도시한 일예이다. 도 7과 같은 프레임에 상기 수학식2를 적용하여 P0 기준점에서 인접화소(P1...P8)를 계산한 결과, 만약 CN이 2이면 그 프레임 내의 특징점은 융선의 끝점으로 처리하고, 만약 CN이 6이면 그 프레임 내의 특징점은 융선의 분기점으로 처리한다. 7 is an example illustrating positions of pixel values. As a result of calculating the adjacent pixels (P1 ... P8) at the reference point P0 by applying
특징점들의 상관관계를 계산하는 단계(S270)에서는, 상기 특징점 추출 단계(S260)에서 구한 끝점 및 분기점 정보를 이용하여 각 특징점들 간의 상관관계 정보를 추출하는 단계이다. 도 8은 특징점들의 상관관계가 도시된 지문이미지를 나타낸 것이다. In the calculating of the correlation between the feature points (S270), the correlation information between the feature points is extracted by using the end point and the branch point information obtained in the feature point extraction step S260. 8 shows a fingerprint image showing the correlation of feature points.
구체적으로 살펴보면, 중심점(P0)을 중심으로 일정한 길이의 반지름을 갖는 원 영역(10) 내에서, 상기 중심점(P0)과 상기 중심점(P0)에 가장 가까운 특징점(P1)까지의 거리 D0를 계산하고, 다시 상기 특징점(P1)과 상기 특징점(P1)에 가장 가까운 또 다른 특징점(P2)까지의 거리 D1을 계산한다. 그러고 나서, 다시 상기 특징점(P2)과 가장 가까운 다른 특징점(P3)을 찾아서, P2-P3 간의 거리 D2를 계산한다. 이와 같은 방식으로, 하나의 원 영역 내에서, 특징점들의 개수 및 각 특징점들 간의 거리를 순차적으로 계산하여 각 특징점들 간의 최단 연결거리에 대한 정보를 획득한다. Specifically, the distance D0 between the center point P0 and the feature point P1 closest to the center point P0 is calculated within the
상기 특징점들의 상관관계 계산단계(S270)에서 구한 상관관계 정보 및 상기 특징점 추출 단계(S260)에서 구한 지문이미지의 특징점 정보는 후술할 제1 및 제2 매칭단계에서 각각 이용된다. The correlation information obtained in the correlation calculation step S270 of the feature points and the feature point information of the fingerprint image obtained in the feature point extraction step S260 are used in the first and second matching steps to be described later.
제1 매칭단계(S300)는, 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보의 일치여부를 비교하는 단계이다. 앞서 설명한 바와 같이, 두 상관관계 정보의 비교시에는, 중심점 부위 특징점간의 거리를 일정수 합과 차 구간에서 1개 이상 일치할 경우 두 지문이미지가 일치한 것으로 판별하여, 제2 매칭 단계(S400)로 넘어간다. The first matching step S300 is a step of comparing whether the extracted correlation information and the correlation information of the pre-stored fingerprint image match. As described above, when comparing the two correlation information, if the distance between the center point region feature point is matched more than one in the sum and the difference section, it is determined that the two fingerprint images match, second matching step (S400) Go to
구체적으로는, 먼저, 입력된 지문이미지의 중심점 주변의 특징점들의 거리(TD0, TD1, ...)에서, 저장된 지문이미지의 중심점 주변의 특징점들의 거리(RD0, RD1, ...)를 각각 차한다(수학식3 참조). 그러고 나서, 상기 각각의 차이값들(ΔD0, ΔD1, ΔD2,...)이 미리 설정한 임계값(Thd)을 초과하는지 여부에 따라 1차 매칭(S300) 통과여부를 결정한다. Specifically, first, the distances (RD0, RD1, ...) of the feature points around the center point of the stored fingerprint image, respectively, from the distance (TD0, TD1, ...) of the feature points around the center point of the input fingerprint image, respectively (See Equation 3). Then, it is determined whether each of the difference values ΔD0, ΔD1, ΔD2,..., 1, passes the first matching S300 according to whether or not the predetermined threshold Thd is exceeded.
예컨대, 상기 차이값들 모두가 임계값을 초과하면 두 지문(입력된 지문과 저장된 지문)이 일치하지 않는 것으로 판단하고, 상기 차이값들 중 하나 이상이 임계값 이하이면 두 지문이 일치하는 것으로 판단하여 2차 매칭단계로 넘어가도록 설정할 수 있다. 다만, 1차 매칭을 통과하기 위해 요구되는 임계값(Thd) 이하의 차이값들의 개수는, 사용환경에 따라 다양하게 설정할 수 있을 것이다.For example, if all of the difference values exceed the threshold, it is determined that the two fingerprints (the input fingerprint and the stored fingerprint) do not match. If at least one of the difference values is less than or equal to the threshold value, the two fingerprints are determined to match. It can be set to go to the second matching step. However, the number of difference values less than or equal to the threshold Thd required to pass the first matching may be variously set according to the use environment.
상기 제1 매칭단계(S300)에서, 상기 추출된 상관관계 정보와 미리 저장된 지문이미지의 상관관계 정보가 일치하지 않는 경우에는 인증이 실패된 것으로 처리한다(S600). In the first matching step (S300), if the extracted correlation information and the correlation information of the pre-stored fingerprint image does not match, it is treated as an authentication failure (S600).
제2 매칭단계(S400)는, 상기 제1 매칭(S300)을 통과한 지문이미지의 전체 특징점과 미리 저장된 지문이미지의 특징점 정보의 일치여부를 비교하는 단계로서, 예컨대, 수학식4를 적용하여 판단할 수 있다. The second matching step (S400) is a step of comparing whether or not the entire feature point of the fingerprint image passing the first matching (S300) and the feature point information of the pre-stored fingerprint image match, for example, by applying the equation (4) can do.
수학식4는 대비되는 특징점들의 방향각도 및 이격거리의 차이를 통해 매칭여부를 정하기 위한 수식이다. 즉, 입력된 지문이미지와 저장된 지문이미지의 각 특징점의 방향값의 차이가 임계치 이하인지 여부를 판단하고(수학식4-1), 대비되는 각 특징점의 이격거리가 임계치 이하인지 여부를 판단한 후(수학식4-2), 이들 판단 정보에 수학식4-3을 적용함으로써 지문이미지의 일치여부를 비교할 수 있다. 수학식4-3에서 정합률(MR : Minutiae Hitting Ratio)이 일정값 이상이면 동일 지문으로 판별한다.Equation 4 is a formula for determining whether to match the difference between the direction angle and the separation distance of the feature points to be contrasted. That is, it is determined whether the difference between the direction value of each feature point of the input fingerprint image and the stored fingerprint image is less than or equal to the threshold (Equation 4-1), and after determining whether the separation distance of each feature point is less than or equal to the threshold ( Equation 4-2) By applying Equation 4-3 to these determination information, it is possible to compare whether or not the fingerprint image is matched. If the matching ratio (MR: Minutiae Hitting Ratio) is greater than or equal to a predetermined value in Equation 4-3, the same fingerprint is determined.
수학식4-1은 저장 지문 특징점 데이터 방향(θk r)과 입력 지문 특징점 데이터 방향(θl i)의 차이가 임계치(Thθ) 이하인 것을 나타내고 있다. 수학식4-2는 저장 지문 특징점 데이터 위치(xk r, yk r)와 입력 지문 특징점 데이터 위치(xl i, yl i)간의 거리를 계산하여 임계치(Thd)보다 낮은 것을 나타내고 있다. 수학식4-3은 정합율(MR)을 구하기 위한 수식이다. 수학식4-1과 수학식4-2의 조건을 모두 만족한 특 징점의 개수(PM)에 2를 곱한 수에서, 저장 지문 특징점 개수(EMr)와 입력 지문 특징점 개수(EMi)의 합을 나눔으로써 정합율(MR)을 구한다. 정합율(MR)이 미리 설정된 임계치 이상의 값을 가지면 양자를 동일 지문으로 판별한다. Equation 4-1 indicates that the difference between the storage fingerprint feature point data direction θ k r and the input fingerprint feature point data direction θ l i is equal to or less than the threshold Thθ. Equation 4-2 indicates that the distance between the stored fingerprint feature point data location x k r and y k r and the input fingerprint feature point data location x l i and y l i is lower than the threshold Thd. Equation 4-3 is an equation for obtaining the matching ratio MR. The sum of the number of stored fingerprint feature points (EM r ) and the number of input fingerprint feature points (EM i ), multiplied by the number of feature points (PM) that satisfies both the equations (4-1) and (4-2). Find the matching rate (MR) by dividing. If the matching rate MR has a value equal to or greater than a preset threshold, both are identified by the same fingerprint.
이처럼 제2 매칭단계(S400)에서는, 제1 매칭을 통과한 지문이미지와 미리 저장된 지문이미지 간의 정합율이 임계치 이상인 경우, 지문인증이 성공된 것으로 처리하고(S500), 반면 정합율이 임계치보다 낮은 경우에는 지문인증이 실패한 것으로 처리한다(S600). As such, in the second matching step S400, when the matching ratio between the fingerprint image that passes the first matching and the pre-stored fingerprint image is greater than or equal to the threshold, the fingerprint authentication is treated as successful (S500), while the matching rate is lower than the threshold. In the case that the fingerprint authentication has failed (S600).
이상 본 발명의 특정 실시예를 도시하고 설명하였으나, 본 발명의 기술사상은 첨부된 도면과 상기한 설명내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형이 가능함은 이 분야의 통상의 지식을 가진 자에게는 자명한 사실이며, 이러한 형태의 변형은, 본 발명의 정신에 위배되지 않는 범위 내에서 본 발명의 특허청구범위에 속한다고 볼 것이다. While specific embodiments of the present invention have been illustrated and described, the technical spirit of the present invention is not limited to the accompanying drawings and the above description, and various modifications can be made without departing from the spirit of the present invention. It will be apparent to those skilled in the art, and variations of this form will be regarded as belonging to the claims of the present invention without departing from the spirit of the present invention.
이상 살펴 본 바와 같이, 본 발명에 따른 지문매칭방법에서는, 중심점부위의 특징점들의 상관관계만을 비교하는 제1 매칭을 실시하고, 상기 1차 매칭에서 통과된 지문이미지에 한하여 지문이미지의 전체 특징점을 비교하는 제2 매칭을 실시한다. 따라서, 특히 대용량 지문검색에 있어서, 전체 지문이미지의 특징을 비교하는 방식에 비해 입력 지문과 일치하는 지문이 저장되어 있는지 여부를 빠르게 검색할 수 있다. As described above, in the fingerprint matching method according to the present invention, the first matching is performed to compare only the correlations of the feature points of the center point portion, and the entire feature points of the fingerprint image are compared only for the fingerprint image passed in the first matching. The second matching is performed. Therefore, especially in a large-capacity fingerprint search, it is possible to quickly search whether a fingerprint matching the input fingerprint is stored as compared with a method of comparing the features of the entire fingerprint image.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050053157A KR100698723B1 (en) | 2005-06-20 | 2005-06-20 | Fast Matching of FingerPrint Using Minutiae in Core Point Area |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050053157A KR100698723B1 (en) | 2005-06-20 | 2005-06-20 | Fast Matching of FingerPrint Using Minutiae in Core Point Area |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20060133348A KR20060133348A (en) | 2006-12-26 |
KR100698723B1 true KR100698723B1 (en) | 2007-03-23 |
Family
ID=37812259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050053157A KR100698723B1 (en) | 2005-06-20 | 2005-06-20 | Fast Matching of FingerPrint Using Minutiae in Core Point Area |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100698723B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3107037A4 (en) * | 2014-02-14 | 2017-11-08 | Canvasbio Co., Ltd. | Electronic device comprising minimum sensing area and fingerprint information processing method therefor |
WO2019074240A1 (en) * | 2017-10-11 | 2019-04-18 | 삼성전자주식회사 | Server, method for controlling server, and terminal device |
US11552944B2 (en) | 2017-10-11 | 2023-01-10 | Samsung Electronics Co., Ltd. | Server, method for controlling server, and terminal device |
US11810393B2 (en) | 2020-09-01 | 2023-11-07 | Samsung Display Co., Ltd. | Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000060758A (en) * | 1999-03-19 | 2000-10-16 | 심재창 | fingerprint matching method |
KR100393753B1 (en) * | 2002-02-28 | 2003-08-02 | Smart Technology Co Ltd | Method for recognizing fingerprint using dual mode matching |
JP2004213395A (en) | 2003-01-06 | 2004-07-29 | Sony Corp | Fingerprint collating device and method, recording medium and program |
-
2005
- 2005-06-20 KR KR1020050053157A patent/KR100698723B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000060758A (en) * | 1999-03-19 | 2000-10-16 | 심재창 | fingerprint matching method |
KR100393753B1 (en) * | 2002-02-28 | 2003-08-02 | Smart Technology Co Ltd | Method for recognizing fingerprint using dual mode matching |
JP2004213395A (en) | 2003-01-06 | 2004-07-29 | Sony Corp | Fingerprint collating device and method, recording medium and program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3107037A4 (en) * | 2014-02-14 | 2017-11-08 | Canvasbio Co., Ltd. | Electronic device comprising minimum sensing area and fingerprint information processing method therefor |
WO2019074240A1 (en) * | 2017-10-11 | 2019-04-18 | 삼성전자주식회사 | Server, method for controlling server, and terminal device |
US11552944B2 (en) | 2017-10-11 | 2023-01-10 | Samsung Electronics Co., Ltd. | Server, method for controlling server, and terminal device |
US11810393B2 (en) | 2020-09-01 | 2023-11-07 | Samsung Display Co., Ltd. | Fingerprint authentication device, display device including the same, and method of authenticating fingerprint of display device |
Also Published As
Publication number | Publication date |
---|---|
KR20060133348A (en) | 2006-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Prasad et al. | A survey of fingerprint recognition systems and their applications | |
Saraswat et al. | An efficient automatic attendance system using fingerprint verification technique | |
Prabhakar et al. | Learning fingerprint minutiae location and type | |
US6876757B2 (en) | Fingerprint recognition system | |
US20040042645A1 (en) | Fingerprint recognition method, and fingerprint control method and system | |
KR100432491B1 (en) | Method of extracting fingerprint features using ridge direction model | |
JP2007072676A (en) | Image processing unit, mask generation method, and program | |
Hemalatha | A systematic review on Fingerprint based Biometric Authentication System | |
Nagwanshi et al. | Biometric authentication using human footprint | |
El_Rahman | Multimodal biometric systems based on different fusion levels of ECG and fingerprint using different classifiers | |
Fei et al. | Enhanced minutiae extraction for high-resolution palmprint recognition | |
Liu et al. | An improved 3-step contactless fingerprint image enhancement approach for minutiae detection | |
Kumar et al. | Fingerprint matching using multi-dimensional ANN | |
KR100698723B1 (en) | Fast Matching of FingerPrint Using Minutiae in Core Point Area | |
de Paula Lemes et al. | Dynamic pore filtering for keypoint detection applied to newborn authentication | |
KR102174083B1 (en) | Apparatus and method for biometrics using finger vein feature based on deep learing | |
KR101601187B1 (en) | Device Control Unit and Method Using User Recognition Information Based on Palm Print Image | |
US7512256B1 (en) | System, method, and computer program product for ridge map formation | |
Raghavan et al. | An enhanced and hybrid fingerprint minutiae feature extraction method for identifying and authenticating the patient’s noisy fingerprint | |
Mali et al. | Fingerprint recognition using global and local structures | |
Sisodia et al. | A conglomerate technique for finger print recognition using phone camera captured images | |
Surajkanta et al. | A digital geometry-based fingerprint matching technique | |
Tatar et al. | Improvement of the fingerprint recognition process | |
KR100698724B1 (en) | Method for Extracting Singular and Core Point of Fingerprint Image Using Ridge Direction | |
Lomte et al. | Biometric fingerprint authentication by minutiae extraction using USB token system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110314 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |