KR19990074775A - Fingerprint Feature Extraction Method - Google Patents

Fingerprint Feature Extraction Method Download PDF

Info

Publication number
KR19990074775A
KR19990074775A KR1019980008581A KR19980008581A KR19990074775A KR 19990074775 A KR19990074775 A KR 19990074775A KR 1019980008581 A KR1019980008581 A KR 1019980008581A KR 19980008581 A KR19980008581 A KR 19980008581A KR 19990074775 A KR19990074775 A KR 19990074775A
Authority
KR
South Korea
Prior art keywords
pixel
fingerprint
sub
fingerprint image
pixels
Prior art date
Application number
KR1019980008581A
Other languages
Korean (ko)
Other versions
KR100267262B1 (en
Inventor
김학일
김춘우
안도성
김현
홍두의
Original Assignee
박병엽
주식회사 팬택
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박병엽, 주식회사 팬택 filed Critical 박병엽
Priority to KR1019980008581A priority Critical patent/KR100267262B1/en
Publication of KR19990074775A publication Critical patent/KR19990074775A/en
Application granted granted Critical
Publication of KR100267262B1 publication Critical patent/KR100267262B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

본 발명은 지문인식방법에 관한 것으로, 특히, 완만한 곡률변화를 가지는 지문 융선의 방향을 구한 후, 이를 특징점 추출의 정보로 사용함으로써, 신분확인 여부에 기준이 되는 개인별 지문의 특징을 효율적으로 추출해 내는 지문 특징 추출방법에 관한 것이다.The present invention relates to a fingerprint recognition method, and more particularly, a fingerprint ridge having a gentle curvature change is obtained, and then the fingerprint ridge is used as information of feature point extraction to efficiently extract the characteristics of individual fingerprints The present invention relates to a fingerprint feature extracting method.

종래의 FFT기반의 지문인식 시스템은 실시간 처리에 있어 매우 우수한 성능을 보이며 보안성에 있어서도 엄지와 검지 모두에 적절한 인식률을 보장 하나, 그 방법의 특성상 주파수 공간에서 운용되므로 전자주민증 사업에서 요구하는 특징점, 즉, 단점이나 분기점의 정확한 위치를 추출하기에는 부적합한 문제점이 있다.The conventional FFT-based fingerprint recognition system shows excellent performance in real-time processing and guarantees proper recognition rate for both thumb and index in security. However, since it operates in frequency space due to the characteristic of the method, , There is a problem in that it is not suitable for extracting an exact location of a disadvantage or a branch point.

본 발명은 지문을 일반적으로 완만한 곡률 변화를 가지는 융선의 부드러운 흐름으로 보고, 지문이 일정한 방향을 갖는 최소 크기의 융선들로 이루어져 있다고 가정한 다음, 해당 융선들의 방향을 구하여 특징점 추출의 정보로 사용하므로써, 신분확인 여부에 기준이 되는 개인별 지문의 특징을 효율적으로 추출해 낼 수 있다.In the present invention, it is assumed that the fingerprint is a smooth flow of a ridge having a generally smooth curvature change, and that the fingerprint is made up of ridges having a minimum size having a certain direction, and then the directions of the ridges are obtained and used as information It is possible to efficiently extract the characteristics of the individual fingerprints that are the basis for identification.

Description

지문 특징 추출방법Fingerprint Feature Extraction Method

본 발명은 지문인식방법에 관한 것으로, 특히, 완만한 곡률변화를 가지는 지문 융선의 방향을 구한 후, 이를 특징점 추출의 정보로 사용함으로써, 신분확인 여부에 기준이 되는 개인별 지문의 특징을 효율적으로 추출해 내는 지문 특징 추출방법에 관한 것이다.The present invention relates to a fingerprint recognition method, and more particularly, a fingerprint ridge having a gentle curvature change is obtained, and then the fingerprint ridge is used as information of feature point extraction to efficiently extract the characteristics of individual fingerprints The present invention relates to a fingerprint feature extracting method.

종래의 지문인식 방법으로는 크게 세선화나 주파수 공간에서의 푸리에변환이나 웨이브릿변환, 또는 신경회로망이나 퍼지논리에 의한 것등이 있으며, 이들은 대부분 잡음을 줄이는 전처리와 보정 과정의 후처리를 필요로 하게 된다. 또한 이들간에는 구문론적 방법이나 통계적, 규칙 기반적, 신경회로망 구성등의 방법이 혼재되어 사용되는 것이 일반적이며, 특징적인 방법으로 체인코드나 융선 추적등이 사용된다.Conventional fingerprint recognition methods include Fourier transformation or wavelet transformation in a fine line or a frequency space, or neural network or fuzzy logic. These methods require a preprocessing for reducing noise and a post-processing for correction do. In addition, it is common to use a syntactic method, a statistical method, a rule based method, a neural network method, etc., and a chain code or a ridge trace is used as a characteristic method.

전술한 바와 같은, 종래의 FFT(Fast Fourier Transform ; 고속푸리에변환)기반의 지문인식 시스템은 실시간 처리에 있어 매우 우수한 성능을 보이며 보안성에 있어서도 엄지와 검지 모두에 적절한 인식률을 보장 하나, 그 방법의 특성상 주파수 공간에서 운용되므로 전자주민증 사업에서 요구하는 특징점, 즉, 단점이나 분기점의 정확한 위치를 추출하기에는 부적합한 문제점이 있다.As described above, the conventional FFT (Fast Fourier Transform) based fingerprint recognition system exhibits excellent performance in real-time processing and guarantees an appropriate recognition rate for both the thumb and the index of the security. However, It is inadequate to extract the minutiae required by the e-resident registration business, that is, to extract the exact location of the disadvantages or bifurcations.

본 발명은 전술한 바와 같은 문제점을 감안하여 안출한 것으로, 지문을 일반적으로 완만한 곡률 변화를 가지는 융선의 부드러운 흐름으로 보고, 지문이 일정한 방향을 갖는 최소 크기의 융선들로 이루어져 있다고 가정한 다음, 해당 융선들의 방향을 구하여 특징점 추출의 정보로 사용하므로써, 신분확인 여부에 기준이 되는 개인별 지문의 특징을 효율적으로 추출해 내는 지문 특징 추출방법을 제공하는 데, 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and it is an object of the present invention to provide a fingerprint reading device and a fingerprint reading device, in which fingerprints are generally regarded as smooth flows of ridges having a gentle curvature change, And a method of extracting features of a fingerprint that extracts features of individual fingerprints that are criteria for identification of identity by using directions of the ridges as information of feature point extraction.

상기와 같은 목적을 달성하기 위해 본 발명은, 지문 특징 추출방법에 있어서, 지문을 입력받는 제1과정과; 상기 제1과정이후, 입력된 지문화상을 소정크기의 부영역으로 분할한 후, 각 부영역별 융선의 방향을 결정하는 제2과정과; 상기 제2과정이후, 입력된 지문 화상에서 전체적, 국부적 화상의 지문 품질을 측정하는 제3과정과; 상기 제3과정이후, 입력된 지문화상에서, 지문영역과 배경영역을 분리하는 제4과정과; 상기 제4과정이후, 입력된 지문화상이 처리가능한지를 검사하는 제5과정과; 상기 제5과정에서 입력된 지문이 처리가능한 화질이면, 융선의 방향및 품질에 따라 고른 지문형태를 나타내도록 이진화를 수행하는 제6과정과; 상기 제6과정이후, 융선의 방향, 품질에 따라 융선과 골사이의 구분을 확실하게 하는 평활화를 수행하는 제7과정과; 상기 제7과정이후, 평활화작업이 종료된 지문화상에서 융선의 골격선만을 추출하는 세선화를 수행하는 제8과정과; 상기 제8과정이후, 세선화된 지문화상에서 특징점을 추출한 후, 의사 특징점을 제거하는 제9과정과; 상기 제9과정이후, 추출된 특징점의 수가 저장공간의 크기보다 작은지를 검사하는 제10과정과; 상기 제10과정에서 추출된 특징점의 수가 저장공간의 크기보다 크면, 해당 검출된 특징점에 따라 특징량을 작성하는 제11과정과; 상기 제10과정에서, 추출된 특징점의 수가 저장공간의 크기보다 작으면, 부가 특징점을 탐색한 후, 상기 제11과정으로 귀환하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a fingerprint feature extraction method comprising: a first step of receiving a fingerprint; A second step of dividing the input fingerprint image into sub-areas of a predetermined size and determining a direction of a ridge for each sub-area after the first process; A third step of measuring a fingerprint quality of the entire local image in the inputted fingerprint image after the second step; A fourth step of separating the fingerprint area and the background area from the inputted fingerprint image after the third process; A fifth step of checking whether the input fingerprint image can be processed after the fourth step; A sixth step of performing binarization so that the fingerprint inputted in the fifth step is an image quality that can be processed, so as to display a uniform fingerprint shape according to the direction and quality of the ridge; A seventh process of performing smoothing after the sixth process to ensure a distinction between a ridge and a bone according to the direction and quality of the ridge; An eighth step of performing a thinning process of extracting only a skeleton of the ridge from the fingerprint image in which the smoothing process has been completed after the seventh process; A ninth step of extracting the minutiae from the thinned fingerprint image and then removing the pseudo minutiae; Checking whether the number of extracted minutiae is smaller than the size of the storage space after the ninth process; An eleventh process of generating a feature according to the detected feature points if the number of feature points extracted in the tenth process is larger than the size of the storage space; In the tenth step, if the number of the extracted minutiae is smaller than the size of the storage space, the additional minutiae is searched and then the process returns to the eleventh step.

한편, 상기 제2과정은, 입력된 지문화상을 로딩하는 제1단계와; 상기 제1단계이후, 입력된 지문화상을 소정크기의 부영역으로 분할하는 제2단계와; 상기 제2단계이후, 부영역의 각 방향별로 화소값 차의 합을 계산하는 제3단계와; 상기 제3단계이후, 각 방향별로 화소값 차의 합이 가장 작은 방향을 해당 부영역의 융선의 대표방향으로 결정하는 제4단계를 포함하는 것을 특징으로 한다.The second process may include a first step of loading the input fingerprint image; A second step of dividing the input fingerprint image into sub-areas of a predetermined size after the first step; A third step of calculating a sum of pixel value differences for each direction of the sub-area after the second step; And a fourth step of determining a direction in which the sum of the pixel value differences is minimum in each direction after the third step as a representative direction of ridges of the corresponding subregions.

한편, 상기 제3과정은, 지문 융선방향의 화소값의 변화를 계산하는 제1단계와; 상기 제1단계이후, 지문 융선과 수직인 방향의 화소값의 변화를 계산하는 제2단계와; 상기 제2단계이후, 지문의 융선 방향 및 이에 수직인 방향의 화소값의 변화에 따라 지문 화상의 품질을 계산하는 제3단계를 포함하는 것을 특징으로 한다.The third step may include a first step of calculating a change in the pixel value in the fingerprint ridge direction; A second step of calculating a change in pixel value in a direction perpendicular to the fingerprint ridge after the first step; And a third step of calculating the quality of the fingerprint image according to the change of the pixel value in the ridge direction of the fingerprint and the direction perpendicular thereto, after the second step.

한편, 상기 제6과정은, 소정의 화상레벨로 표현된 지문화상과 부영역별 방향지도 및 부영역별 품질을 입력받는 제1단계와; 상기 제1단계이후, 각 방향으로 이동하며, 지문화상의 모든 화소에 대하여 소정크기의 부영역을 선택하는 제2단계와; 상기 제2단계이후, 선택된 부영역의 품질이 기설정된 기준값이상인지를 검사하는 제3단계와; 상기 제3단계에서 선택된 부영역의 품질이 기설정된 기준값 보다 낮으면, 선택된 부영역내의 모든 화소에 대하여, 융선방향을 기준으로 부영역을 양분하도록 이동하여 화소를 선택하는 제4단계와; 상기 제4단계이후, 선택된 화소의 트랜색트 추출후, 화소값의 평균값을 산출하는 제5단계와; 상기 제5단계이후, 부영역을 벗어나지 않는 범위내에서 트랜색트내의 화소를 따라 이동하여 화소값이 평균값보다 클 경우, 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정하는 제5단계와; 상기 제3단계에서 선택된 부영역의 품질이 기설정된 기준값보다 크면, 부영역 중심화소에서 트랜잭트를 추출한 후, 화소값의 평균값을 산출하는 제6단계와; 상기 제6단계에서 부영역내 모든 화소를 각 방향으로 이동하여 화소값이 평균값보다 크면 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정하는 제7단계를 포함하는 것을 특징으로 한다.Meanwhile, the sixth step may include: a first step of receiving a fingerprint image expressed in a predetermined image level, a direction-specific directional map, and a quality per subregion; A second step of moving in each direction after the first step and selecting a sub-area of a predetermined size for all the pixels of the fingerprint image; A third step of checking whether the quality of the selected sub-area is greater than or equal to a preset reference value after the second step; If the quality of the sub-region selected in the third step is lower than a preset reference value, moving all the pixels within the selected sub-region to the sub-region based on the ridge direction to select pixels; A fifth step of calculating the average value of the pixel values after the transcoding of the selected pixels after the fourth step; After the fifth step, if the pixel value is greater than the average value, the pixel value is set to the first pixel value. If the pixel value is smaller than the average value, the second pixel value ; A sixth step of, if the quality of the sub-area selected in the third step is greater than a preset reference value, calculating a mean value of pixel values after extracting the transacted pixel from the sub-area center pixel; If the pixel value is greater than the average value, setting the first pixel value, and if the pixel value is smaller than the average value, setting the second pixel value as the second pixel value, .

한편, 상기 제7과정은, 이진화된 지문화상과 부영역별 방향지도 및 부영역별 품질을 입력받는 제1단계와; 상기 제1단계이후, 입력된 지문화상의 모든 화소에 대하여, 각 방향으로 이동하며 소정크기의 부영역을 선택하는 제2단계와; 상기 제2단계이후, 선택된 부영역의 품질이 기설정된 기준값 이상인지를 검사하는 제3단계와; 상기 제3단계에서, 선택된 부영역의 품질이 기설정된 기준값보다 작으면, 각 방향으로 이동하여 부영역내의 모든 화소에 대하여, 한 화소씩 선택한 후, 선택된 화소에 방향별 연결 마스크를 적용하는 제4단계와; 상기 제3단계에서, 선택된 부영역의 품질이 기설정된 기준값 이상이거나 상기 제4단계의 과정이 종료되면, 각 방향으로 부영역내의 모든 화소에 대해, 한 화소씩 선택한 후, 해당 선택된 화소에 방향별 평활화 마스크를 적용하는 제5단계를 포함하는 것을 특징으로 한다.Meanwhile, the seventh process includes a first step of receiving the binarized fingerprint image, the quality of each direction map for each eigenspace, and the quality of each eigenspace; After the first step, selecting a sub-region of a predetermined size that moves in each direction for all the pixels of the input fingerprint image; A third step of checking whether the quality of the selected sub-area is greater than or equal to a preset reference value after the second step; In the third step, if the quality of the selected sub-area is smaller than the preset reference value, the selection unit selects one pixel for all pixels in the sub-region moving in each direction, ; In the third step, when the quality of the selected sub-area is equal to or greater than a predetermined reference value or the process of the fourth step is completed, one pixel is selected for all pixels in the sub-region in each direction, And a fifth step of applying a smoothing mask.

한편, 상기 제9과정은, 세선화된 지문화상을 입력받는 제1단계와; 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택한 후, 단점 및 분기점을 추출하는 제1단계와; 상기 제1단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 단점일 경우, 단선 및 잔가지를 검출하는 제2단계와; 상기 제2단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 분기점일 경우, 연결여부를 검출하는 제3단계와; 상기 제3단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 단점일 경우, 절선을 검출하는 제4단계와; 상기 제4단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 해당 화소가 특징점일 경우, 해당 특징점에 대한 방향을 검출하는 제5단계를 포함하는 것을 특징으로 한다.The ninth step may include a first step of inputting the thinned fingerprint image; A first step of selecting one pixel for all pixels while moving in each direction, and then extracting a defect point and a branch point; A second step of selecting one pixel for all the pixels while moving in each direction after the first step and detecting disconnection and twigs when the pixel is a disadvantage; A third step of selecting one pixel for all pixels while moving in each direction after the second step and detecting whether or not the pixel is connected at a branch point; A fourth step of selecting a pixel by pixel for all pixels while moving in each direction after the third step and detecting a line if it is a disadvantage; And a fifth step of selecting the pixels one by one for all pixels while moving in each direction after the fourth step and detecting a direction of the feature points when the pixels are the feature points.

한편, 상기 제12과정은, 세선화된 지문화상과 특징점의 갯수를 입력받는 제1단계와; 상기 제1단계이후, 특징점의 갯수가 정합이 가능할 정도가 아니면, 모든 화소에 대해 각 방향별로 이동하면서, 선택된 화소가 특징점일 경우, 해당 특징점의 방향에 수직으로 선을 연장하여 만나는 부가 특징점을 탐색하는 제2단계를 포함하는 것을 특징으로 한다.The 12th step may include a first step of inputting the number of the thinned fingerprint image and the number of minutiae; After the first step, if the number of minutiae is not enough to match, moving along each direction with respect to all the pixels, and if the selected pixel is a minutiae, extending a line perpendicular to the direction of the minutiae, And a second step of performing the second step.

도 1은 본 발명의 실시예에 따른 지문 특징 추출장치의 구성블록도.1 is a block diagram of a configuration of a fingerprint feature extraction apparatus according to an embodiment of the present invention;

도 2는 8가지 융선방향을 나타낸 방향도.Figure 2 is a directional view showing eight ridge directions.

도 3은 지문 융선의 방향결정용 마스크.Fig. 3 is a mask for determining the orientation of a fingerprint ridge. Fig.

도 4는 지문 융선의 방향결정시 계산영역을 나타낸 예시도.Fig. 4 is an exemplary view showing a calculation region when determining the direction of a fingerprint ridge; Fig.

도 5는 이진화과정에서 임계치 설정을 나타낸 예시도5 shows an example of threshold setting in the binarization process

도 6은 평활화과정에서 연결에 의한 블록내 중심 화소값의 결정예시도6 is an exemplary diagram for determining a center pixel value in a block by a connection in the smoothing process

도 7은 평활화에 의한 블록 내 중심 화소값의 결정예시도.7 is a diagram showing an example of determination of a center pixel value in a block by smoothing.

도 8은 세선화과정에서 지울 수 있는 중심화소의 예시도.8 is an illustration of a center pixel that can be erased in the thinning process;

도 9는 특징량 추출과정에서 특징량의 종류 및 방향을 나타낸 예시도.9 is an exemplary view showing the types and directions of feature quantities in the feature quantity extraction process.

도 10은 특징량 추출과정에서 가짜 특징량의 종류를 나타낸 예시도.10 is an exemplary view showing a kind of a fake feature quantity in a feature quantity extraction process;

도 11은 특징량 추출과정에서 설정하는 국소영역의 예시도.11 is an exemplary view of a local region set in the feature quantity extraction process;

도 12는 특징량 추출과정에서 단점 및 분기점의 추출과정을 나타낸 예시도.12 is an exemplary view showing a process of extracting a disadvantage and a branch point in the feature quantity extraction process;

도 13은 특징량 추출과정에서 가짜 특징량의 종류 및 검출방법을 나타낸 예시도.13 is an exemplary view showing a kind of a fake feature quantity and a detection method in a feature quantity extraction process.

도 14는 본 발명에 따른 지문특징 추출방법의 전체 동작흐름도.14 is a flowchart illustrating an overall operation of the fingerprint feature extraction method according to the present invention.

도 15는 도 14에 도시된 융선의 방향결정과정의 상세 동작흐름도.FIG. 15 is a detailed operational flowchart of the ridge direction determination process shown in FIG. 14; FIG.

도 16은 도 14에 도시된 지문화상 품질결정과정의 상세 동작흐름도.FIG. 16 is a detailed operational flowchart of the fingerprint image quality determination process shown in FIG. 14; FIG.

도 17은 도 14에 도시된 배경영역 분리과정의 상세 동작흐름도.FIG. 17 is a detailed operational flowchart of the background region separation process shown in FIG. 14; FIG.

도 18은 도 14에 도시된 이진화과정의 상세 동작흐름도.FIG. 18 is a detailed operational flowchart of the binarization process shown in FIG. 14; FIG.

도 19는 도 14에 도시된 평활화과정의 상세 동작흐름도.FIG. 19 is a detailed operational flowchart of the smoothing process shown in FIG. 14; FIG.

도 20은 도 14에 도시된 특징점추출 및 의사특징점 제거과정의 상세 동작흐름도.20 is a detailed flowchart of the feature point extraction and pseudo minutia point removal process shown in FIG. 14;

도 21은 도 14에 도시된 부가특징점 탐색과정의 상세 동작흐름도.FIG. 21 is a detailed operational flowchart of the additional feature point searching process shown in FIG. 14; FIG.

* 도면의 주요부분에 대한 부호의 설명 *Description of the Related Art [0002]

10 : 지문화상입력장치 20 : A/D컨버터10: fingerprint image input device 20: A / D converter

30 : 화상메모리 40 : I/O인터페이스30: image memory 40: I / O interface

50 : 콘솔 60 : 외부기억장치50: Console 60: External storage

70 : 주제어부 80 : 작업메모리70: main control unit 80: working memory

90 : 프로그램메모리 100 : 출력장치90: Program memory 100: Output device

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명하면 다음과 같다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예에 따른 지문 특징 추출장치는 첨부된 도면 도1에 도시된 바와 같이, 지문화상입력장치(10), A/D컨버터(20), 화상메모리(30), I/O인터페이스(40), 콘솔(50), 외부기억장치(60), 주제어부(70), 작업메모리(80), 프로그램메모리(90) 및 출력장치(100)을 구비한다.1, the fingerprint feature extraction apparatus according to the embodiment of the present invention includes a fingerprint image input device 10, an A / D converter 20, an image memory 30, an I / O interface 40, a console 50, an external storage 60, a main control unit 70, a work memory 80, a program memory 90 and an output device 100. [

지문화상입력장치(10)는 조회를 원하는 사람의 지문을 스캐닝한 후, 해당 지문화상의 명암에 따른 아날로그 신호를 A/D컨버터(20)측으로 출력한다. A/D컨버터(20)는 지문화상입력장치(10)로 부터 인가되는 아날로그신호를 디지탈신호로 변환하여 화상메모리(30)측으로 출력한다. 화상메모리(30)는 지문화상입력장치(10)로 부터 인가된 지문의 화상에 대한 디지탈 데이터를 저장한다. I/O인터페이스(40)는 화상메모리(30)와 콘솔(50), 출력장치(100) 및 주제어부(70)를 정합한다. 콘솔(50)은 사용자의 선택에 따라 외부기억장치(60)에 저장되어 있는 다수의 지문화상 데이터중에서 특정 지문화상을 선택하거나 선택모드에 따른 동작신호를 주제어부(70)측으로 출력한다. 외부기억장치(60)는 기입력된 다수의 지문화상데이터를 저장한다. 주제어부(70)는 콘솔(50)로 부터 입력된 선택신호에 따라 현재 입력된 지문화상과 외부기억장치(60)에 저장되어 있는 지문화상을 비교한 후, 해당 결과를 출력장치(100)를 통해 출력한다. 작업메모리(80)는 현재 입력된 지문화상과 비교대상 지문화상의 비교작업시, 사용하는 메모리이다. 프로그램메모리(90)는 지문 비교장치의 동작데이터가 저장되어 있는 바, 본 발명에 따른 지문의 특징을 추출하기 위한 알고리즘이 프로그램되어 있다. 출력장치(100)는 입력된 지문화상과 비교대상 지문화상의 비교결과에 따른 메시지나 해당 지문화상을 디스플레이한다.The fingerprint image input device 10 scans the fingerprint of a person who wants to inquire and then outputs an analog signal according to the contrast of the fingerprint image to the A / D converter 20 side. The A / D converter 20 converts the analog signal applied from the fingerprint image input device 10 into a digital signal and outputs it to the image memory 30 side. The image memory 30 stores digital data of an image of a fingerprint applied from the fingerprint image input device 10. [ The I / O interface 40 matches the image memory 30 with the console 50, the output device 100, and the main controller 70. The console 50 selects a specific fingerprint image from among a plurality of fingerprint image data stored in the external storage device 60 according to a user's selection or outputs an operation signal according to the selection mode to the main controller 70 side. The external storage device 60 stores a plurality of input fingerprint image data. The main control unit 70 compares the fingerprint image currently input according to the selection signal inputted from the console 50 with the fingerprint image stored in the external storage device 60 and then outputs the result to the output device 100 Lt; / RTI > The work memory 80 is a memory to be used in a comparison operation between the currently input fingerprint image and the comparison fingerprint image. The program memory 90 stores operation data of the fingerprint comparison device, and an algorithm for extracting features of the fingerprint according to the present invention is programmed. The output apparatus 100 displays a message corresponding to the comparison result of the input fingerprint image and the comparison fingerprint image or the fingerprint image.

전술한 바와 같이 구성되는 본 발명의 동작을 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.The operation of the present invention configured as described above will be described in detail with reference to the accompanying drawings.

본 발명의 개략적인 동작을 첨부된 도면 도14의 동작순서도에 따라 설명하면, 먼저, 지문화상입력장치(10)를 통해 지문을 스캐닝한 후, 이를 일정한 포맷의 디지탈 지문화상으로 생성한다(스텝 S1). 이후에, 입력된 지문화상을 소정크기의 부영역으로 분할한 후, 각 부영역별 융선의 방향을 결정한다(스텝 S2). 이후에, 주제어부(70)는 입력된 지문 화상에서 전체적, 국부적 화상의 지문 품질을 계산하고(스텝 S3), 이에 따라 지문영역과 배경영역을 분리하게 된다(스텝 S4). 이후에, 주제어부(70)는 계산된 품질에 의거하여, 입력된 지문화상이 처리가능한지를 검사하는 바(스텝 S5), 이 때, 입력된 지문이 처리가능한 화질이면, 융선의 방향및 품질에 따라 고른 지문형태를 나타내도록 이진화를 수행한 후(스텝 S6), 융선의 방향, 품질에 따라 융선과 골사이의 구분을 확실하게 하는 평활화를 수행한다(스텝 S7). 이후에, 평활화작업이 종료된 지문화상에서 융선의 골격선만을 추출하는 세선화를 수행하고(스텝 S8), 세선화된 지문화상에서 특징점을 추출한 후, 추출된 특징점중에서, 의사 특징점을 제거하여 실제의 특징짐만을 추출하게 된다(스텝 S9). 이후에, 추출된 특징점의 수가 저장공간의 크기보다 작은지를 검사하여(스텝 S10), 추출된 특징점의 수가 저장공간의 크기보다 크면, 해당 검출된 특징점에 따라 입력된 지문화상에 대한 특징량을 작성하고(스텝 S11), 추출된 특징점의 수가 저장공간의 크기보다 작으면, 부가 특징점을 탐색한 후(스텝 S12), 기검출된 특징점과 새롭게 검출된 부가 특징점에 따라 입력된 지문화상에 대한 특징량을 작성하게 된다.14, first, the fingerprint is scanned through the fingerprint image input device 10, and then the fingerprint image is generated as a digital fingerprint image of a predetermined format (step S1 ). Thereafter, the input fingerprint image is divided into sub-areas of a predetermined size, and the directions of ridings for the sub-sub-areas are determined (step S2). Thereafter, the main control unit 70 calculates the fingerprint quality of the overall and local images in the input fingerprint image (step S3), thereby separating the fingerprint area and the background area (step S4). Subsequently, the main control unit 70 checks whether the inputted fingerprint image can be processed (step S5). Based on the calculated quality, the main controller 70 determines whether the inputted fingerprint image can be processed After performing binarization so as to represent the fingerprint shape that has been selected (step S6), smoothing is performed to secure the distinction between ridges and bones according to the direction and quality of ridge (step S7). Thereafter, thinning processing is performed to extract only skeleton lines of ridges in the smoothed fingerprint image (step S8). After minutiae are extracted from the thinned fingerprint image, pseudo minutiae are removed from the extracted minutiae, (Step S9). Then, it is checked whether the number of extracted feature points is smaller than the size of the storage space (step S10). If the number of extracted feature points is larger than the size of the storage space, a feature amount for the inputted fingerprint image is created (Step S11). If the number of extracted feature points is smaller than the size of the storage space, an additional feature point is searched (step S12). Then, the feature amount of the fingerprint image input according to the detected feature point and the newly detected additional feature point .

전술한 바와 같이 동작하는 본 발명을 각 과정별로 좀 더 구체적으로 설명하면 다음과 같다.The present invention, which operates as described above, will be described in more detail below.

먼저, 상기 스텝 S1에서, 본 발명의 실시예에 따른 디지탈 지문화상은 폭 288화소, 높이 352화소로 구성되며, 각 화소는 8비트의 A/D컨버터(20)를 사용하여 256단계의 그레이레벨을 생성하게 된다.First, in step S1, the digital fingerprint image according to the embodiment of the present invention is composed of 288 pixels wide by 352 pixels high, and each pixel is divided into 256 levels of gray level using an 8 bit A / D converter 20 .

한편, 상기 스텝 S2에서, 융선의 방향은 첨부된 도면 도2에 도시된 바와 같이 8방향으로 분류하며, 첨부된 도면 도15에 도시된 동작순서도에 따라 융선의 방향을 결정하게 된다. 즉, 입력된 지문화상을 로딩하여(스텝 S2-1), 입력된 지문화상에 대하여, 16*16 화소로 구성되는 부영역으로 분할한 후(스텝 S2-2), 첨부된 도면 도3의 5*5 화소크기의 지문융선의 방향 결정용 마스크를 사용하여 결정하게 되는 바, 필요에 따라 8방향 이상의 방향이 필요한 경우, 5*5 화소크기의 지문융선의 방향 결정용 마스크를 n×n으로 확장 할 수 있으며, n×n으로 확장했을 때에는 2n-2개의 방향을 찾을 수 있게 된다. 이에, 해당 지문융선의 방향 결정용 마스크를 사용하여 부영역의 각 방향별로 화소값의 합을 계산한 후(스텝 S2-3), 각 방향별로 화소값의 합이 가장 작은 방향을 해당 부영역의 융선의 대표방향으로 결정한다(스텝 S2-4). 즉, 18*22개의 부영역 중, k행 l열에 위치한 부영역의 방향은 부영역내의 모든 화소(P)에 마스크를 사용하였을 때, 다음 수학식1로 결정되는 8가지의 Di값 중 Di가 최소값을 가지는 i의 방향을 대표방향으로 결정하게 된다. 이 때, 속도의 향상이 필요한 경우에는 모든 화소(P)에 마스크를 사용하지 않고, 한 화소나 그 이상의 화소를 건너뛰며 연산할 수 있다.On the other hand, in step S2, the ridge direction is classified into eight directions as shown in FIG. 2, and the ridge direction is determined according to the operation flowchart shown in FIG. That is, the input fingerprint image is loaded (step S2-1), and the input fingerprint image is divided into sub-areas constituted by 16 * 16 pixels (step S2-2) * It is decided by using the direction determining mask of the fingerprint ridge of the pixel size of 5 pixels. If the direction is more than 8 direction as required, the direction determining mask of the fingerprint ridge of 5 * 5 pixel size is extended to nxn 2n-2 directions can be found by expanding to nxn. After calculating the sum of the pixel values for each direction of the sub-area using the direction determining mask of the fingerprint ridge (step S2-3), the direction having the smallest sum of the pixel values for each direction is referred to as the sub- Is determined as the representative direction of the ridges (step S2-4). That is, 18 * 22 of the two sub-areas, the direction of the sub-region in k rows l column D of when used to mask all the pixels (P) of the sub-picture the region, and then of eight, which is determined by Equation 1 D i values the direction of i having the minimum value i is determined in the representative direction. At this time, when it is necessary to improve the speed, one pixel or more pixels can be calculated without using a mask for all the pixels P.

(단, i = 0,1,…,7)(Where i = 0, 1, ..., 7)

wi,wi′: 해당하는 화소에서의 계조도w i , w i ' : gradation in the corresponding pixel

x,y : 부영역안에서 P의 좌표x, y: the coordinates of P in the subregion

상기 수식에서 계산 범위는 한 부영역(16*16)에서 상하좌우로 8화소씩 늘린 32*32영역에서 실시하는 데, 이는 국부적인 상처나 주름 또는 잡음으로 인해서 융선의 방향이 잘못 구해지는 것을 막기위해 첨부된 도면 도4와 같이 한 블록에서 상하좌우로 8화소씩 늘린 영역에서 Di를 계산하게 된다.In the above formula, the calculation range is performed in 32 * 32 regions that are increased by 8 pixels in one subregion (16 * 16), which prevents erroneous determination of the direction of ridges due to local scratches, wrinkles, or noise 4, D i is calculated in a region where the number of pixels is increased by eight pixels in the vertical direction, the horizontal direction and the horizontal direction in one block.

한편, 상기 스텝 S3은, 첨부된 도면 도16의 동작순서도에 따라 각 부영역별 품질을 계산하게 되는 바, 이 때, 사용되는 마스크는 상기 스텝 S2에서 융선의 방향결정에 사용된 것과 같은 5*5의 마스크를 사용하게 된다. 먼저, 다음의 수학식 2에 따라, 지문 융선방향에 따라 화소값 변화량의 합, A를 계산하고(스텝 S3-1), 수학식 3에 따라, 지문 융선과 수직인 방향에 따라 화소값 변화량의 합, B를 계산한다(스텝 S3-2).On the other hand, the step S3 calculates the quality for each sub-region according to the flowchart of the operation shown in FIG. 16 attached. At this time, the mask used is the same 5 * 5 Quot; mask " First, according to the following equation (2), the sum A of the pixel value variation amounts in accordance with the fingerprint ridge direction is calculated (step S3-1), and the sum of the pixel value variation amounts in accordance with the direction perpendicular to the fingerprint ridge Sum, and B are calculated (step S3-2).

(단, u = 0,1,…,7)(Where u = 0, 1, ..., 7)

wu,wu′: 해당하는 화소에서의 계조도w u , w u ' : gradation in the corresponding pixel

x,y : 부영역안에서 P의 좌표x, y: the coordinates of P in the subregion

(단, v = 0,1,…,7)(Where v = 0, 1, ..., 7)

wv,wv′: 해당하는 화소에서의 계조도w v , w v ' : gradation in the corresponding pixel

x,y : 부영역안에서 P의 좌표x, y: the coordinates of P in the subregion

수학식 2에서, A값이 크다는 것은 지문이 끊기거나 노이즈가 많음을 의미하며, 수학식 3에서, B값이 크다는 것은 융선과 골이 뚜렷이 구별되는 이미지 임을 의미한다. 따라서, 지문의 융선 방향 및 이에 수직인 방향의 화소값의 변화에 따라 지문 화상의 품질을 계산하는데, 본 발명의 실시예에서는 사용가능한 부영역과 사용불가능한 부영역으로 구분하고, 사용가능한 부영역에 대해서는 4단계의 품질을 적용한다(스텝 S3-3).In Equation (2), a larger A value means that the fingerprint is broken or a lot of noise. In Equation (3), a larger B value means that the ridge and the bone are distinct images. Therefore, the quality of the fingerprint image is calculated according to the ridge direction of the fingerprint and the change of the pixel value in the direction perpendicular thereto. In the embodiment of the present invention, the usable sub-area is divided into the usable sub- The quality of the four steps is applied (step S3-3).

한편, 상기 스텝 S4는, 첨부된 도면 도17의 동작순서도에 따라 추출된 특징점이 지문영역안에 존재하는 진짜 특징점인지, 지문과 프리즘의 경계에 존재하는 의사 특징점인지를 판단할 수 있도록 지문 영역을 포그라운드, 프리즘영역을 백그라운드로 배경영역을 분리하게 되는 바, 먼저, 상기 스텝 S3에서 품질이 결정된 지문화상을 입력받은 후(스텝 S4-1), 해당 지문화상에서 소정크기의 부영역을 선택한 후, 해당 선택된 부영역이 백그라운드 부영역인지를 검사한다(스텝 S4-2). 이 때, 상기 스텝 S3에서 계산된 처리불가능한 영역은 백그라운드 부영역으로 인식하고, 처리가능한 4단계의 영역은 포그라운드 부영역으로 인식하여, 해당 선택된 부영역이 백그라운드 부영역이면, 현재 선택된 부영역 주위의 8부영역에서 포그라운드와 백그라운드의 상호 천이 갯수, 즉, 포그라운드로 설정된 부영역에서 백그라운드로 설정된 부영역으로 바뀌는 갯수와 백그라운드로 설정된 부영역에서 포그라운드로 설정된 부영역으로 바뀌는 갯수의 합을 계산한다(스텝 S4-3). 이후에, 현재 선택된 부영역주위의 8부영역중, 포그라운드로 설정된 부영역의 갯수를 계산하여(스텝 S4-4), 상기 스텝 S4-3에서 계산된 천이갯수와 상기 제4단계에서 계산된 포그라운드 부영역의 갯수가 소정의 조건을 만족하면(스텝 S4-5), 예를들어, 본 발명의 실시예에 따라 포그라운드와 백그라운드의 상호 천이 갯수가 3보다 크거나, 포그라운드로 설정된 부영역의 갯수가 4보다 크면, 상처나 주름, 노이즈등으로 지문의 안쪽영역임에도 불구하고 백그라운드로 설정되었음으로 인지하여, 현재 선택된 부영역을 가장 낮은 등급의 포그라운드 부영역으로 설정하며(스텝 S4-6), 모든 부영역에 대해서 본 과정을 실시하게 된다(스텝 S4-7, S4-8).Meanwhile, in step S4, the fingerprint area is determined so as to determine whether the extracted feature points are true feature points existing in the fingerprint area or pseudo feature points existing at the boundary between the fingerprint and the prism, according to the flowchart of FIG. (Step S4-1). After selecting a sub-area of a predetermined size from the fingerprint image, the sub-area of the predetermined size is selected from the fingerprint image, It is checked whether the selected sub-area is a background sub-area (step S4-2). At this time, the unprocessable area calculated in step S3 is recognized as the background area, and the processable four-step area is recognized as the foreground area. If the selected sub area is the background area, The number of crossings between the foreground and background in the 8th region of the background, that is, the sum of the number of background areas set in the foreground and the number of background areas set in the background, (Step S4-3). Subsequently, the number of sub-areas set as the foreground among the 8 sub-areas around the currently selected sub-area is calculated (step S4-4), and the number of transitions calculated in step S4-3 and the number of sub- For example, if the number of foreground areas is greater than 3 or the number of foreground and background parts is set to be foreground (step S4-5) If the number of regions is greater than 4, it is recognized that the background is set in spite of the inner region of the fingerprint due to scratches, wrinkles, noise, etc., and the currently selected sub-region is set as the lowest- 6), and the process is performed on all the sub-areas (steps S4-7 and S4-8).

한편, 상기 스텝 S6은, 첨부된 도면 도18의 동작순서도에 따라 256계조의 지문화상을 2계조의 지문화상으로 변환시키는 이진화를 수행하게 되는 바, 먼저, 256계조의 화상계조로 표현된 지문화상을 입력받아(스텝 S6-1), 각 방향으로 이동하며, 지문화상의 모든 화소에 대하여 소정크기의 부영역을 선택한 후(스텝 S6-2), 선택된 부영역의 품질이 기설정된 기준값 이상인지를 검사하는 바(스텝 S6-3), 선택된 부영역의 품질이 기설정된 기준값 보다 낮으면, 선택된 부영역내의 모든 화소에 대하여, 융선방향을 기준으로 부영역을 양분하도록 이동하여 화소를 선택하여(스텝 S6-4), 선택된 화소의 트랜색트 추출후, 화소값의 평균값을 산출한다(스텝 S6-5). 이후에, 부영역을 벗어나지 않는 범위내에서 트랜색트내의 화소를 따라 이동하여 화소값이 평균값보다 클 경우, 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정한다(스텝 S6-6). 한편, 상기 스텝 S6-3에서 선택된 부영역의 품질이 기설정된 기준값보다 크면, 부영역 중심화소에서 트랜색트를 추출하여, 화소값의 평균값을 산출한 후(스텝 S6-8), 부영역내 모든 화소를 각 방향으로 이동하여 화소값이 평균값보다 크면 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정하게 된다(스텝 S6-9). 즉, 첨부된 도면 도5에 도시된 바와 같이, 부영역내의 매 화소마다 융선방향에 수직인 쪽으로 미리 지정된 크기(본 발명의 실시예에서는 16*1의 크기로 설정)만큼의 조각을 떼어내어 그 화소 값들의 평균을 기준값으로 설정하여, 해당 기준값보다 높은 화소는 제1화소값, 즉, 가장밝은 값인 255계조로 지정하고, 해당 기준값보다 낮은 화소는 제2화소값, 즉, 가장 어두운 값은 0계조로 설정하게 됨으로써, 떼어낸 조각의 평균밝기에 따라 기준값을 적절히 설정하여 이에 따라 이진화를 수행하게 된다.On the other hand, the step S6 performs binary conversion for converting the 256-gradation fingerprint image into the 2-gradation fingerprint image according to the operation flowchart of the attached FIG. 18. First, a fingerprint image represented by image gradation of 256 gradations (Step S6-1). After shifting in each direction, a sub-region of a predetermined size is selected for all the pixels of the fingerprint image (Step S6-2), and whether or not the quality of the selected sub- (Step S6-3). If the quality of the selected sub-area is lower than the preset reference value, the sub-area is shifted to all the pixels within the selected sub-area based on the ridge direction so as to select the pixel S6-4), and calculates the average value of the pixel values after the transcoding of the selected pixels is extracted (step S6-5). If the pixel value is greater than the average value, the pixel value is set to the first pixel value. If the pixel value is smaller than the average value, the pixel value is set to the second pixel value (Step S6-6). On the other hand, if the quality of the sub-area selected in step S6-3 is greater than the predetermined reference value, the transpose is extracted from the sub-area center pixel, and the average value of the pixel values is calculated (step S6-8) If the pixel value is greater than the average value, the first pixel value is set. If the pixel value is smaller than the average value, the second pixel value is set (Step S6-9). That is, as shown in FIG. 5, a piece of a predetermined size (set to a size of 16 * 1 in the embodiment of the present invention) is removed for each pixel in the sub-region perpendicular to the ridge direction, The pixel value higher than the reference value is designated as the first pixel value, that is, the brightest 255 gray level, and the pixel lower than the reference value is set as the second pixel value, that is, the darkest value is 0 The reference value is appropriately set according to the average brightness of the removed piece, and the binarization is performed accordingly.

한편, 상기 스텝 S7은, 첨부된 도면 도19의 동작순서도에 따라 융선의 골 사이를 구분해 주거나 끊어진 융선을 서로 이어주는 평활화를 수행하게 되는 바, 먼저, 2계조로 이진화된 지문화상을 입력받은 후(스텝 S7-1), 입력된 지문화상의 모든 화소에 대하여, 각 방향으로 이동하며 소정크기의 부영역을 선택하게 된다(스텝 S7-2). 이후에, 선택된 부영역의 품질이 기설정된 기준값 이상인지를 검사하는 바(스텝 S7-3), 선택된 부영역의 품질이 기설정된 기준값보다 작으면, 각 방향으로 이동하여 부영역내의 모든 화소에 대하여, 한 화소씩 선택한 후(스텝 S7-4), 선택된 화소에 방향별 연결 마스크를 적용하고(스텝 S7-5), 상기 스텝 S7-3에서, 선택된 부영역의 품질이 기설정된 기준값 이상이거나 상기 제4단계의 과정이 종료되면, 각 방향으로 부영역내의 모든 화소에 대해, 한 화소씩 선택한 후(스텝 S7-7), 해당 선택된 화소에 방향별 평활화 마스크를 적용한다(스텝 S7-8).In step S7, smoothing is performed to distinguish between ridges of ridges or to connect broken ridges according to the operation flow chart of FIG. 19. First, a fingerprint image binarized in two tones is inputted (Step S7-1), and the sub-area of a predetermined size is selected for all the pixels of the inputted fingerprint image in each direction (step S7-2). Subsequently, it is checked whether the quality of the selected sub-area is equal to or greater than a preset reference value (step S7-3). If the quality of the selected sub-area is smaller than the preset reference value, (Step S7-4). Then, in step S7-5, the connection mask for each direction is applied to the selected pixel (step S7-5). If the quality of the selected sub-area is equal to or larger than the preset reference value When the process of step 4 is completed, one pixel is selected for all pixels in the sub-area in each direction (step S7-7), and a smoothing mask for each direction is applied to the selected pixel (step S7-8).

즉, 다시 말해서, 이진화 처리된 지문 화상의 매 부영역에서 검은 색 화소의 수를 세어 검은 색이 미리 정해진 값, (16*16*3)/5 보다 크면 부영역 내에 골이 융선보다 많다고 판단하고, 이와 반대로 흰 색이 (16*16*3)/5 보다 크면 융선이 골보다 많다고 결정한다. 이후에, 부영역내의 매 화소마다, 첨부된 도면 도6과 같이 그가 속하는 부영역의 대표 융선 방향에 일치하는 방향으로 일정 거리 떨어진 곳에 일정 크기의 마스크를 갖다 대고, 이 마스크 내에 존재하는 검은 색의 화소 수를 카운트한다. 이 때, 양쪽 마스크 모두에서 검은색 화소가 미리 정의된 숫자, 즉, 융선이 골보다 많다고 판단된 경우에는 2, 골이 융선보다 많다고 판단된 경우에는 6보다 크면, 중심화소를 검은색으로 설정하고, 이와 반대의 경우에는 흰색으로 설정한다. 상기 과정을 전체 지문화상에 대해 수행된 후, 다시 전체 화상에 대해 첨부된 도면 도7과 같은 3*7의 마스크내 검정색 화소수를 세어, 그 수가 미리 정의된 값(11)보다 크면 중심 화소를 검은 색으로 설정하고 반대의 경우에는 흰색으로 설정한다.In other words, if the number of black pixels in each area of the binarized fingerprint image is counted and the black color is larger than a predetermined value (16 * 16 * 3) / 5, , And conversely if the white color is greater than (16 * 16 * 3) / 5, the ridge is determined to be more than the goal. Thereafter, for each pixel in the sub-region, a mask having a predetermined size is provided at a distance from the sub-region in the direction corresponding to the representative ridge direction of the sub-region to which it belongs, as shown in FIG. 6, The number of pixels is counted. At this time, if the number of black pixels in both masks is more than a predetermined number, that is, 2 if the ridge is judged to be larger than the ridge, and 6 if the ridge is judged to be larger than the ridge, the center pixel is set to black , And in the opposite case, it is set to white. After the above process is performed on the entire fingerprint image, the number of black pixels in the 3 * 7 mask as shown in FIG. 7 is again counted for the entire image. If the number is larger than the predefined value (11) Set to black and vice versa.

한편, 상기 스텝 S8에서, 세선화의 요건은, 먼저, 세선화결과 골격선의 폭은 1이어야 하고, 골격선의 위치는 선 도형의 중심에 위치해야 하며, 골격선은 원래의 도형에 있어서의 연결성을 유지해야 한다. 또한, 세선화 과정에서 골격선의 길이가 계속해서 줄어서는 안되고, 패턴 윤곽선의 작은 요철로 인한 잡 가지선의 모양이 골격선에 첨가되지 않아야 한다. 상기와 같은 요건을 만족하기 위해 본 발명의 실시예에서는 다음의 단계를 거쳐 세선화를 하게 된다. 먼저, 평활화된 지문 화상을 좌우상하로 화소단위로 이동하면서, 선택된 화소를 중심으로 3*3의 국소 영역을 설정한다. 이 때, 다음의 조건을 만족하면 해당 국소영역의 중심화소를 흰색으로부터 검은색으로 변환한다. 첫째, 중심화소가 세선화 대상내의 한 화소이어야 하고, 둘째, 중심화소의 상하좌우, 4개의 이웃화소중 적어도 하나가 검은색이어야 한다. 이는 세선화 대상 패턴의 주변점일 조건이다. 세째, 중심화소의 이웃하는 8개의 화소중에서 두 개 이상이 흰색이어야 한다. 이는 끝점을 보존하여 골격선의 길이를 계속 줄여나가지 않게 하는 조건이다. 네째, 중심화소의 이웃하는 8개의 화소중에서 적어도 하나는 검은 색이어야 한다. 이는 끝 고립점을 보존하는 조건이다. 다섯째, 연결성을 보존해야 한다. 첨부된 도면 도8은 세선화에서 지울 수 있는 중심화소의 예를 도시하고 있다.On the other hand, in step S8, the thinning requirement is that the width of the thinning result skeleton line should be 1, the position of the skeleton line should be located at the center of the line drawing shape, Should be maintained. In addition, the length of the skeleton line should not be reduced continuously in the thinning process, and the shape of the small line due to small unevenness of the pattern contour should not be added to the skeleton line. In order to satisfy the above-described requirements, the embodiment of the present invention performs thinning through the following steps. First, a 3 * 3 local region is set around the selected pixel while shifting the smoothed fingerprint image horizontally in the horizontal and vertical directions. At this time, if the following condition is satisfied, the central pixel of the local region is converted from white to black. First, the center pixel should be one pixel in the thinning object. Second, at least one of the four pixels of the upper, lower, left, and right of the center pixel should be black. This is the condition of the surrounding points of the thinning target pattern. Third, two or more neighboring eight pixels of the center pixel must be white. This is a condition that keeps the end point so that the length of the skeleton line is not reduced. Fourth, at least one of the eight neighboring pixels of the center pixel should be black. This is the condition for preserving the end point. Fifth, connectivity must be preserved. 8 shows an example of a center pixel which can be erased in thinning.

한편, 상기 스텝 S9는, 첨부된 도면 도20의 동작순서도에 따라 지문인식의 주요정보인 특징점 후보들을 추출하고, 의사 특징점을 제거하는 과정을 수행하게 되는 바, 먼저, 세선화된 지문화상을 입력받아(스텝 S9-1), 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택한 후(스텝 S9-2), 단점 및 분기점을 추출한다(스텝 S9-3). 이 단계에서는 첨부된 도면 도9에 도시된 바와 같이, 단점 및 분기점을 추출하게 되는 데, 이 때 추출된 특징점은 첨부된 도면 도10에 도시된 바와 같이 진짜 특징점외에도 가짜 특징점도 함께 추출된다. 특징점 추출의 구체적인 방법은 세선화된 지문 화상을 좌우상하로 화소단위로 이동하면서, 선택된 화소를 중심으로 첨부된 도면 도11에 도시된 바와 같은 3*3의 국소 영역을 설정하여, 해당 선택된 중심화소가 흰색, 즉, 융선일 때 교차수를 산출한다. 이 때, 교차수는 흰색에서 검은색의 화소로 천이할 때의 갯수이며, 교차수는 다음의 수학식 4에 따라 산출된다.In step S9, minutia point candidates, which are key information of fingerprint recognition, are extracted and pseudo minutiae points are removed according to the flowchart of FIG. 20 attached. First, a thinned fingerprint image is input (Step S9-1), selects one pixel for all the pixels while moving in each direction (Step S9-2), and extracts the disadvantages and branch points (Step S9-3). In this step, as shown in FIG. 9, the defect points and the branch points are extracted. At this time, the extracted feature points are extracted together with the real feature points as well as the fake feature points as shown in FIG. As a concrete method of extracting the minutiae points, a thinned fingerprint image is shifted left and right and up and down on a pixel basis, and a 3 * 3 local area as shown in Fig. 11 attached to the selected pixel is set around the selected pixel, Is white, that is, ridges. In this case, the number of intersections is the number of transitions from white to black pixels, and the number of intersections is calculated according to the following equation (4).

상기 수학식 4에 따라 산출된 교차수를 기준으로 단점 및 분기점을 추출하는 바, 첨부된 도면 도12에 도시된 바와 같이, 교차수가 1이면 단점으로 판단하고, 교차수가 3이상이면 분기점으로 판단하게 된다. 이후에, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여(스텝 S9-5), 단점일 경우(스텝 S9-6), 단선 및 잔가지를 검출하고(스텝 S9-7), 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여(스텝 S9-9), 분기점일 경우(스텝 S9-10), 연결여부를 검출한 후(스텝 S9-11), 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여(스텝 S9-13), 단점일 경우(스텝 S9-14), 절선을 검출하게 된다(스텝 S9-15). 이후에, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여(스텝 S9-17), 해당 화소가 특징점일 경우(스텝 S9-18), 해당 특징점에 대한 방향을 검출한다(스텝 S9-19). 이 때, 의사 특징점의 종류는 첨부된 도면 도13에 도시된 바와 같으며, 그 판단 방법은, 단선일 경우, 선택된 한 단점으로 세선화된 융선을 따라 추적했을 때, 미리 정의된 길이보다 짧은 거리내에서 또다른 단점을 만난다면 그 두 단점은 단선을 이루게 된다. 또한 잔가지의 검출 방법은 선택된 한 단점으로 부터 세선화된 융선을 따라 추적했을 때 미리 정의된 길이보다 짧은 거리내에서 분기점을 만난다면 그 단점과 분기점은 잔가지를 이룬다. 또한, 연결검출은 선택된 한 분기점으로 부터 세선화된 융선을 따라 추적했을 때 미리 정의된 길이보다 짧은 거리내에서 또다른 분기점을 만난다면 그 두 분기점은 연결을 이룬다. 또한, 절선검출은 선택된 한 단점으로 부터 미리 정의된 길이보다 짧은 거리내에서 또다른 단점이 있고, 그 두 단점의 방향차가 미리 정의된 허용치 보다 작다면 그 두 단점은 끊어진 선을 이룬다.As shown in FIG. 12, when the number of intersections is 1, it is determined to be a disadvantage. If the number of intersections is 3 or more, the number of intersections is determined to be a dividing point do. Thereafter, in the case of a disadvantage (Step S9-6), a disconnection and a twig (step S9-7) are detected (Step S9-7) (Step S9-9). If the pixel is a branch point (Step S9-10), it is detected whether or not the pixel is connected (Step S9-11) (Step S9-13). If it is a disadvantage (Step S9-14), a line is detected (Step S9-15). Thereafter, when the pixel is a minutiae (step S9-18), the direction to the minutiae point is detected (step S9-17) -19). In this case, the types of the pseudo minutiae are as shown in Fig. 13 attached hereto, and in the case of a single line, when tracking along a thinned rinse with a selected one of the minutiae, If you encounter another disadvantage in the process, those two disadvantages are broken. Also, the detection method of the twigs is a twig when twisted along a thinned ridge from a selected disadvantage and if the twist is encountered within a shorter distance than the predefined length. In addition, when link detection is tracked along a thinned ridge from a selected branch point, the two branch points are connected if they meet another branch point within a shorter distance than the predefined length. In addition, the line detection has another disadvantage within a distance shorter than a predefined length from a selected one of the disadvantages, and if the difference in direction between the two disadvantages is smaller than a predefined tolerance, the two disadvantages form a broken line.

한편, 상기 스텝 S12는 추출된 특징점의 수가 저장공간의 크기보다 작을 경우, 또다른 부가 특징점을 검출하는 과정이며, 그 상세한 과정을 첨부된 도면 도21을 참조하여 설명하면, 먼저, 세선화된 지문화상과 특징점의 갯수를 입력받아(스텝 S12-1), 추출된 특징점의 갯수가 정합이 가능할 정도가 아니면(스텝 S12-2), 모든 화소에 대해 각 방향별로 이동하면서, 화소를 선택하여(스텝 S12-3), 선택된 화소가 특징점일 경우(스텝 S12-4), 해당 특징점의 방향에 수직으로 선을 연장하여 만나는 부가 특징점을 탐색하게 된다(스텝 S12-5).In step S12, if the number of extracted feature points is smaller than the size of the storage space, another additional feature point is detected. Referring to FIG. 21, a thinned fingerprint (Step S12-1). If the number of extracted feature points is not enough to match (step S12-2), a pixel is selected (step S12-3). When the selected pixel is a minutiae point (step S12-4), the line extending perpendicularly to the direction of the minutiae point is searched to find additional minutiae (step S12-5).

전술한 바와 같이, 본 발명은 지문을 일반적으로 완만한 곡률 변화를 가지는 융선의 부드러운 흐름으로 보고, 지문이 일정한 방향을 갖는 최소 크기의 융선들로 이루어져 있다고 가정한 다음, 해당 융선들의 방향을 구하여 특징점 추출의 정보로 사용하므로써, 신분확인 여부에 기준이 되는 개인별 지문의 특징을 효율적으로 추출해 낼 수 있다.As described above, the present invention sees the fingerprint as a smooth flow of a ridge having a generally smooth curvature change, assumes that the fingerprint is made up of ridges of minimum size having a certain direction, By using this information as extracting information, it is possible to efficiently extract the characteristics of the individual fingerprints which are the criteria for identification.

Claims (7)

지문 특징 추출방법에 있어서, 지문을 입력받는 제1과정과; 상기 제1과정이후, 입력된 지문화상을 소정크기의 부영역으로 분할한 후, 각 부영역별 융선의 방향을 결정하는 제2과정과; 상기 제2과정이후, 입력된 지문 화상에서 전체적, 국부적 화상의 지문 품질을 측정하는 제3과정과; 상기 제3과정이후, 입력된 지문화상에서, 지문영역과 배경영역을 분리하는 제4과정과; 상기 제4과정이후, 입력된 지문화상이 처리가능한지를 검사하는 제5과정과; 상기 제5과정에서 입력된 지문이 처리가능한 화질이면, 융선의 방향및 품질에 따라 고른 지문형태를 나타내도록 이진화를 수행하는 제6과정과; 상기 제6과정이후, 융선의 방향, 품질에 따라 융선과 골사이의 구분을 확실하게 하는 평활화를 수행하는 제7과정과; 상기 제7과정이후, 평활화작업이 종료된 지문화상에서 융선의 골격선만을 추출하는 세선화를 수행하는 제8과정과; 상기 제8과정이후, 세선화된 지문화상에서 특징점을 추출한 후, 의사 특징점을 제거하는 제9과정과; 상기 제9과정이후, 추출된 특징점의 수가 저장공간의 크기보다 작은지를 검사하는 제10과정과; 상기 제10과정에서 추출된 특징점의 수가 저장공간의 크기보다 크면, 해당 검출된 특징점에 따라 특징량을 작성하는 제11과정과; 상기 제10과정에서, 추출된 특징점의 수가 저장공간의 크기보다 작으면, 부가 특징점을 탐색한 후, 상기 제11과정으로 귀환하는 것을 특징으로 하는 지문 특징 추출방법.A fingerprint feature extraction method comprising: a first step of receiving a fingerprint; A second step of dividing the input fingerprint image into sub-areas of a predetermined size and determining a direction of a ridge for each sub-area after the first process; A third step of measuring a fingerprint quality of the entire local image in the inputted fingerprint image after the second step; A fourth step of separating the fingerprint area and the background area from the inputted fingerprint image after the third process; A fifth step of checking whether the input fingerprint image can be processed after the fourth step; A sixth step of performing binarization so that the fingerprint inputted in the fifth step is an image quality that can be processed, so as to display a uniform fingerprint shape according to the direction and quality of the ridge; A seventh process of performing smoothing after the sixth process to ensure a distinction between a ridge and a bone according to the direction and quality of the ridge; An eighth step of performing a thinning process of extracting only a skeleton of the ridge from the fingerprint image in which the smoothing process has been completed after the seventh process; A ninth step of extracting the minutiae from the thinned fingerprint image and then removing the pseudo minutiae; Checking whether the number of extracted minutiae is smaller than the size of the storage space after the ninth process; An eleventh process of generating a feature according to the detected feature points if the number of feature points extracted in the tenth process is larger than the size of the storage space; If the number of the extracted feature points is smaller than the size of the storage space, searching for additional feature points and then returning to the eleventh process. 제 1 항에 있어서,The method according to claim 1, 상기 제2과정은, 입력된 지문화상을 로딩하는 제1단계와; 상기 제1단계이후, 입력된 지문화상을 소정크기의 부영역으로 분할하는 제2단계와; 상기 제2단계이후, 부영역의 각 방향별로 화소값 차의 합을 계산하는 제3단계와; 상기 제3단계이후, 각 방향별로 화소값 차의 합이 가장 작은 방향을 해당 부영역의 융선의 대표방향으로 결정하는 제4단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The second step includes a first step of loading the input fingerprint image; A second step of dividing the input fingerprint image into sub-areas of a predetermined size after the first step; A third step of calculating a sum of pixel value differences for each direction of the sub-area after the second step; And a fourth step of determining a direction in which the sum of the pixel value differences is minimum in each direction after the third step as a representative direction of ridges of the sub-areas. 제 1 항에 있어서,The method according to claim 1, 상기 제3과정은, 지문 융선방향의 화소값의 변화를 계산하는 제1단계와; 상기 제1단계이후, 지문 융선과 수직인 방향의 화소값의 변화를 계산하는 제2단계와; 상기 제2단계이후, 지문의 융선 방향 및 이에 수직인 방향의 화소값의 변화에 따라 지문 화상의 품질을 계산하는 제3단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The third step may include a first step of calculating a change in the pixel value in the fingerprint ridge direction; A second step of calculating a change in pixel value in a direction perpendicular to the fingerprint ridge after the first step; And a third step of calculating a quality of a fingerprint image according to a change in a pixel value in a ridge direction and a direction perpendicular to the ridge direction of the fingerprint after the second step. 제 1 항에 있어서,The method according to claim 1, 상기 제6과정은, 소정의 화상레벨로 표현된 지문화상과 부영역별 방향지도 및 부영역별 품질을 입력받는 제1단계와; 상기 제1단계이후, 각 방향으로 이동하며, 지문화상의 모든 화소에 대하여 소정크기의 부영역을 선택하는 제2단계와; 상기 제2단계이후, 선택된 부영역의 품질이 기설정된 기준값이상인지를 검사하는 제3단계와; 상기 제3단계에서 선택된 부영역의 품질이 기설정된 기준값 보다 낮으면, 선택된 부영역내의 모든 화소에 대하여, 융선방향을 기준으로 부영역을 양분하도록 이동하여 화소를 선택하는 제4단계와; 상기 제4단계이후, 선택된 화소의 트랜색트 추출후, 화소값의 평균값을 산출하는 제5단계와; 상기 제5단계이후, 부영역을 벗어나지 않는 범위내에서 트랜색트내의 화소를 따라 이동하여 화소값이 평균값보다 클 경우, 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정하는 제5단계와; 상기 제3단계에서 선택된 부영역의 품질이 기설정된 기준값보다 크면, 부영역 중심화소에서 트랜잭트를 추출한 후, 화소값의 평균값을 산출하는 제6단계와; 상기 제6단계에서 부영역내 모든 화소를 각 방향으로 이동하여 화소값이 평균값보다 크면 제1화소값으로 설정하고, 화소값이 평균값보다 작을 경우, 제2화소값으로 설정하는 제7단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The sixth step may include: a first step of inputting a fingerprint image expressed in a predetermined image level, a direction-specific directional map, and a quality per subregion; A second step of moving in each direction after the first step and selecting a sub-area of a predetermined size for all the pixels of the fingerprint image; A third step of checking whether the quality of the selected sub-area is greater than or equal to a preset reference value after the second step; If the quality of the sub-region selected in the third step is lower than a preset reference value, moving all the pixels within the selected sub-region to the sub-region based on the ridge direction to select pixels; A fifth step of calculating the average value of the pixel values after the transcoding of the selected pixels after the fourth step; After the fifth step, if the pixel value is greater than the average value, the pixel value is set to the first pixel value. If the pixel value is smaller than the average value, the second pixel value ; A sixth step of, if the quality of the sub-area selected in the third step is greater than a preset reference value, calculating a mean value of pixel values after extracting the transacted pixel from the sub-area center pixel; If the pixel value is greater than the average value, setting the first pixel value, and if the pixel value is smaller than the average value, setting the second pixel value as the second pixel value, And extracting a feature of the fingerprint. 제 1 항에 있어서,The method according to claim 1, 상기 제7과정은, 이진화된 지문화상과 부영역별 방향지도 및 부영역별 품질을 입력받는 제1단계와; 상기 제1단계이후, 입력된 지문화상의 모든 화소에 대하여, 각 방향으로 이동하며 소정크기의 부영역을 선택하는 제2단계와; 상기 제2단계이후, 선택된 부영역의 품질이 기설정된 기준값 이상인지를 검사하는 제3단계와; 상기 제3단계에서, 선택된 부영역의 품질이 기설정된 기준값보다 작으면, 각 방향으로 이동하여 부영역내의 모든 화소에 대하여, 한 화소씩 선택한 후, 선택된 화소에 방향별 연결 마스크를 적용하는 제4단계와; 상기 제3단계에서, 선택된 부영역의 품질이 기설정된 기준값 이상이거나 상기 제4단계의 과정이 종료되면, 각 방향으로 부영역내의 모든 화소에 대해, 한 화소씩 선택한 후, 해당 선택된 화소에 방향별 평활화 마스크를 적용하는 제5단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The seventh process includes a first step of inputting a binarized fingerprint image, a quality index for each direction map for each eigenspace, and a quality for each eigenspace; After the first step, selecting a sub-region of a predetermined size that moves in each direction for all the pixels of the input fingerprint image; A third step of checking whether the quality of the selected sub-area is greater than or equal to a preset reference value after the second step; In the third step, if the quality of the selected sub-area is smaller than the preset reference value, the selection unit selects one pixel for all pixels in the sub-region moving in each direction, ; In the third step, when the quality of the selected sub-area is equal to or greater than a predetermined reference value or the process of the fourth step is completed, one pixel is selected for all pixels in the sub-region in each direction, And a fifth step of applying a smoothing mask to the fingerprint image. 제 1 항에 있어서,The method according to claim 1, 상기 제9과정은, 세선화된 지문화상을 입력받는 제1단계와; 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택한 후, 단점 및 분기점을 추출하는 제1단계와; 상기 제1단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 단점일 경우, 단선 및 잔가지를 검출하는 제2단계와; 상기 제2단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 분기점일 경우, 연결여부를 검출하는 제3단계와; 상기 제3단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 단점일 경우, 절선을 검출하는 제4단계와; 상기 제4단계이후, 각 방향으로 이동하면서, 모든 화소에 대해, 한 화소씩 선택하여, 해당 화소가 특징점일 경우, 해당 특징점에 대한 방향을 검출하는 제5단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The ninth step may include: a first step of inputting a thinned fingerprint image; A first step of selecting one pixel for all pixels while moving in each direction, and then extracting a defect point and a branch point; A second step of selecting one pixel for all the pixels while moving in each direction after the first step and detecting disconnection and twigs when the pixel is a disadvantage; A third step of selecting one pixel for all pixels while moving in each direction after the second step and detecting whether or not the pixel is connected at a branch point; A fourth step of selecting a pixel by pixel for all pixels while moving in each direction after the third step and detecting a line if it is a disadvantage; And a fifth step of selecting a pixel for every pixel while moving in each direction after the fourth step and detecting a direction of the feature point when the pixel is a feature point, Extraction method. 제 1 항에 있어서,The method according to claim 1, 상기 제12과정은, 세선화된 지문화상과 특징점의 갯수를 입력받는 제1단계와; 상기 제1단계이후, 특징점의 갯수가 정합이 가능할 정도가 아니면, 모든 화소에 대해 각 방향별로 이동하면서, 선택된 화소가 특징점일 경우, 해당 특징점의 방향에 수직으로 선을 연장하여 만나는 부가 특징점을 탐색하는 제2단계를 포함하는 것을 특징으로 하는 지문 특징 추출방법.The twelfth process may include a first step of inputting the number of the thinned fingerprint image and the number of minutiae; After the first step, if the number of minutiae is not enough to match, moving along each direction with respect to all the pixels, and if the selected pixel is a minutiae, extending a line perpendicular to the direction of the minutiae, And a second step of extracting the fingerprint feature from the fingerprint image.
KR1019980008581A 1998-03-13 1998-03-13 Method for extracting fingerprint features KR100267262B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980008581A KR100267262B1 (en) 1998-03-13 1998-03-13 Method for extracting fingerprint features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980008581A KR100267262B1 (en) 1998-03-13 1998-03-13 Method for extracting fingerprint features

Publications (2)

Publication Number Publication Date
KR19990074775A true KR19990074775A (en) 1999-10-05
KR100267262B1 KR100267262B1 (en) 2000-11-01

Family

ID=19534780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980008581A KR100267262B1 (en) 1998-03-13 1998-03-13 Method for extracting fingerprint features

Country Status (1)

Country Link
KR (1) KR100267262B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100391182B1 (en) * 2000-09-25 2003-07-16 주식회사 디토정보기술 The method of a fingerprint minutia extraction using direct valley following
KR100432491B1 (en) * 2001-08-31 2004-05-22 (주)니트 젠 Method of extracting fingerprint features using ridge direction model
KR100489430B1 (en) * 2002-05-04 2005-05-12 에버미디어 주식회사 Recognising human fingerprint method and apparatus independent of location translation , rotation and recoding medium recorded program for executing the method
KR100540001B1 (en) * 2001-03-26 2006-01-10 닛폰 덴키 가부시끼 가이샤 System and method for processing fingerprint/palmprint image
KR100698724B1 (en) * 2005-06-21 2007-03-23 포스데이타 주식회사 Method for Extracting Singular and Core Point of Fingerprint Image Using Ridge Direction
KR100763312B1 (en) * 2005-04-15 2007-10-04 주식회사 슈프리마 Fingerprint certification processing method, and fingerprint certification processing system which includes the fingerprint acquisition department and security certification module
KR101017798B1 (en) * 2008-11-03 2011-03-02 서울대학교산학협력단 Method and apparatus for finger vein identification using mean curvature

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100460825B1 (en) * 2001-02-14 2004-12-09 테스텍 주식회사 Fingerprint Image Acquisition Method
KR20030040825A (en) * 2001-11-16 2003-05-23 에버미디어 주식회사 The method for improving fingerprint idenfication using adptive thresholding and minutiae restoration
KR20080069809A (en) * 2007-01-24 2008-07-29 (주) 대성하이텍 Method for recognizing fingerprint by use of image segments in a fingerprint recognition device
KR102180226B1 (en) 2013-10-30 2020-11-18 삼성전자주식회사 Electronic device and method for securing using complex biometrics
KR101676000B1 (en) * 2015-06-18 2016-11-14 주식회사 유니온커뮤니티 Method for Detecting and Security-Processing Fingerprint in Digital Documents made between Bank, Telecommunications Firm or Insurance Company and Private person
US10509944B2 (en) 2017-02-24 2019-12-17 Samsung Display Co., Ltd. Method and device for recognizing fingerprint

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100391182B1 (en) * 2000-09-25 2003-07-16 주식회사 디토정보기술 The method of a fingerprint minutia extraction using direct valley following
KR100540001B1 (en) * 2001-03-26 2006-01-10 닛폰 덴키 가부시끼 가이샤 System and method for processing fingerprint/palmprint image
KR100432491B1 (en) * 2001-08-31 2004-05-22 (주)니트 젠 Method of extracting fingerprint features using ridge direction model
KR100489430B1 (en) * 2002-05-04 2005-05-12 에버미디어 주식회사 Recognising human fingerprint method and apparatus independent of location translation , rotation and recoding medium recorded program for executing the method
KR100763312B1 (en) * 2005-04-15 2007-10-04 주식회사 슈프리마 Fingerprint certification processing method, and fingerprint certification processing system which includes the fingerprint acquisition department and security certification module
KR100698724B1 (en) * 2005-06-21 2007-03-23 포스데이타 주식회사 Method for Extracting Singular and Core Point of Fingerprint Image Using Ridge Direction
KR101017798B1 (en) * 2008-11-03 2011-03-02 서울대학교산학협력단 Method and apparatus for finger vein identification using mean curvature

Also Published As

Publication number Publication date
KR100267262B1 (en) 2000-11-01

Similar Documents

Publication Publication Date Title
Farina et al. Fingerprint minutiae extraction from skeletonized binary images
EP0977151B1 (en) Image processing apparatus, image processing method, and storage medium
US7194393B2 (en) Numerical model for image feature extraction
US5497429A (en) Apparatus for automatic fingerprint classification
Verma et al. Edge detection in fingerprints
KR19990074775A (en) Fingerprint Feature Extraction Method
EA004910B1 (en) Method and apparatus for determining regions of interest in images and for image transmission
KR20030019788A (en) Method of extracting fingerprint features using ridge direction model
CN110298344A (en) A kind of positioning of instrument knob and detection method based on machine vision
CN108431824A (en) Image processing system
US5748778A (en) Image processing apparatus and method
US6728407B1 (en) Method for automatically determining trackers along contour and storage medium storing program for implementing the same
Singh et al. Fingerprint feature extraction using morphological operations
JP4756436B2 (en) Pattern recognition apparatus, pattern recognition method, and pattern recognition program
JP2020140659A (en) Information processing device, information processing method and program
CN102073868A (en) Digital image closed contour chain-based image area identification method
KR100391182B1 (en) The method of a fingerprint minutia extraction using direct valley following
CN114140620A (en) Object straight line contour detection method
US5568566A (en) Drawing processing apparatus
JP2858530B2 (en) Edge enhancement device
CN114998096B (en) Method and system for detecting proportion of cracks in pavement image
Marchand-Maillet et al. A minimum spanning tree approach to line image analysis
KR100380957B1 (en) A method of the feature extraction of eyes
CN117612152A (en) Bank card number extraction method suitable for unbalanced illumination state
JP2003263644A (en) Outline extraction method and device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 14

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 15

FPAY Annual fee payment

Payment date: 20150703

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 17

LAPS Lapse due to unpaid annual fee