KR20160106686A - 지문 식별 방법 및 장치 - Google Patents

지문 식별 방법 및 장치 Download PDF

Info

Publication number
KR20160106686A
KR20160106686A KR1020167021522A KR20167021522A KR20160106686A KR 20160106686 A KR20160106686 A KR 20160106686A KR 1020167021522 A KR1020167021522 A KR 1020167021522A KR 20167021522 A KR20167021522 A KR 20167021522A KR 20160106686 A KR20160106686 A KR 20160106686A
Authority
KR
South Korea
Prior art keywords
statistical
fingerprint
region
descriptor
feature point
Prior art date
Application number
KR1020167021522A
Other languages
English (en)
Other versions
KR101882894B1 (ko
Inventor
홍셩 리
홍웨이 쉬
진춘 예
Original Assignee
선전 후이딩 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선전 후이딩 테크놀로지 컴퍼니 리미티드 filed Critical 선전 후이딩 테크놀로지 컴퍼니 리미티드
Publication of KR20160106686A publication Critical patent/KR20160106686A/ko
Application granted granted Critical
Publication of KR101882894B1 publication Critical patent/KR101882894B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06K9/00087
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6212
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 생체측정 식별 기술의 분야에 활용되는 것으로, 지문 식별을 위한 방법 및 장치를 제공한다. 본 발명의 방법은 통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하는 단계; 및 지문 식별 결과를 획득하도록, 상기 추출된 특징점에 따라서 지문 매칭을 수행하는 단계를 포함한다. 본 발명의 실시예에서 제공되는 방법에 따르면, 특징점의 방향이 통계 정보를 사용하여 계산되고, 통계적 중요도를 가지는 기술자가 특징점에 추가되며, 기술자를 통해 특징점의 유사도를 계산하는 것, 중첩 지역의 방향 필드 및 경사도 필드의 정보를 사용한 지역 매칭이 매칭 프로세스에 추가된다. 그러므로, 종래의 알고리즘에서 지문 특징의 표현이 불안정하고 약하게 특정되는 것을 피할 수 있고, 지문 식별의 정확도가 개선된다.

Description

지문 식별 방법 및 장치{FINGERPRINT IDENTIFICATION METHOD AND FINGERPRINT IDENTIFICATION DEVICE}
본 발명은 생체측정 식별 기술에 관한 것이고, 특히 지문 식별을 위한 방법 및 장치에 관한 것이다.
과학과 기술 그리고 인터넷 기술이 급속도로 발전함에 따라, 일부 네트워크 리소스들이 더 빈번하게 적용되고, 개인 정보가 점점 더 많이 네트워크에 입력되고 있으며, 개인 정보의 누설은 언제나 해결해야 할 문제점이었다. 생체측정 식별 기술은 최근 몇 년 동안에 점점 더 많은 관심을 받고 있는데, 그 이유는 지문이 고유성과 안정성을 가지고 있기 때문이다. 지문을 식별하기 위한 종래의 방법은 도 1 에 도시된 바와 같은데, 이것은 지문 전처리, 지문 특징점(minutia) 추출, 지문 등록(fingerprint registration) 및 매칭을 포함한다; 종래 기술에서 지문 특징점이 추출되면, 특징점의 정보를 추가하기 위하여 그 외에도 특징점의 위치 및 방향이 기록되고, 특징점을 중심으로서 그리고 고정된 값을 외접원의 반경으로 가지는 정삼각형의 3 개의 꼭지점의 방향을 나타내는 3 개의 파라미터가 추가됨으로써, 특징점의 종래의 표현 구조가
Figure pct00001
가 되게 하는데,
Figure pct00002
는 특징점 주위의 3 개의 꼭지점의 방향들을 각각 나타낸다. 그러나, 지문은 왜곡되기 쉽고, 특징점의 위에서 언급된 종래의 표현식은 그 안정성 및 특정성이 충분히 양호하지 않으며, 이로 인해 후속되는 등록 및 매칭이 정확하지 않게 된다.
본 발명의 실시예들의 목적은, 지문이 왜곡된 경우 지문 식별을 위한 기존의 방법에서 특징점이 정확하게 표현되지 않는 문제점을 해결하기 위한, 지문 식별을 위한 방법 및 장치를 제공하는 것이다.
본 발명의 일 실시예는 지문 식별을 위한 방법으로서 구현되는데, 이러한 방법은:
통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하는 단계; 및
지문 식별 결과를 획득하도록, 추출된 특징점에 따라서 지문 매칭을 수행하는 단계를 포함한다.
바람직하게는, 통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하는 상기 단계는:
지역적 통계 정보(regional statistical information)를 사용하여 특징점의 방향을 계산하는 단계;
상기 특징점의 방향에 따라, 통계적 중요도(statistical significance)를 가지는 기술자(descriptor)를 상기 특징점에 추가하는 단계; 및
상기 특징점의 삼각형 꼭지점 방향을 추출하는 단계를 포함한다.
바람직하게는, 지역적 통계 정보를 사용하여 특징점의 방향을 계산하는 상기 단계는:
특정 특징점의 통계적 지역(statistical region)을 선택하는 단계;
상기 통계적 지역 내의 모든 특징점의 경사도 방향(gradient direction)을 계산하고 가중치를 부여하는 단계;
상기 통계적 지역 내의 모든 특징점의 상기 경사도 방향 및 가중치가 부여된 값에 따라, 상기 통계적 지역 내의 모든 특징점의 경사도 방향 분포에 대해 통계 연산(statistics)을 수행하는 단계;
방향 분포 함수(direction distribution function)를 획득하도록, 상기 경사도 방향 분포에 따라 보간 연산을 수행하는 단계; 및
상기 특징점의 방향을 획득하도록 상기 방향 분포 함수의 최대값을 찾아내고, 상기 입력 지문 이미지의 모든 특징점이 순회(traverse)할 때까지 특정 특징점의 통계적 지역을 선택하는 단계로 복귀하는 단계를 포함한다.
바람직하게는, 통계적 중요도를 가지는 기술자를 상기 특징점에 추가하는 상기 단계는,
특정 특징점의 기술자 추출 지역을 선택하는 단계;
상기 기술자 추출 지역 및 특징점의 방향에 따라 지역적 4-사분면(four-quadrant)을 결정하는 단계;
상기 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 및 보간 연산을 수행하는 단계; 및
상기 보간 연산을 수행한 상기 지역적 4-사분면의 경사도 분포에 대해 통계 연산을 수행하고, 상기 특징점의 기술자를 형성하며, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 기술자 추출 지역을 선택하는 단계로 복귀하는 단계를 포함한다.
바람직하게는, 추출된 특징점에 따라서 지문 매칭을 수행하는 상기 단계는,
상기 특징점의 유사도를 계산하는 단계;
상기 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 지문 이미지를 조절하는 단계;
중첩 지역의 유사도를 계산하는 단계; 및
상기 중첩 지역의 유사도가 사전설정된 제 2 역치를 만족시키면, 매칭에 성공했다고 결정하는 단계를 포함한다.
또한, 본 발명은 지문 식별 장치를 제공하는데, 이러한 장치는:
통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하도록 구성되는 추출 모듈; 및
지문 식별 결과를 획득하도록, 추출된 특징점에 따라서 지문 매칭을 수행하도록 구성되는 매칭 모듈을 포함한다.
바람직하게는, 상기 추출 모듈은,
지역적 통계 정보를 사용하여 상기 특징점의 방향을 계산하도록 구성되는 제 1 계산 유닛;
상기 특징점의 방향에 따라, 통계적 중요도를 가지는 기술자를 상기 특징점에 추가하도록 구성되는 기술자 유닛(descriptor unit); 및
상기 특징점의 삼각형 꼭지점 방향을 추출하도록 구성되는 꼭지점 방향 추출 유닛을 포함한다.
바람직하게는, 상기 제 1 계산 유닛은:
특정 특징점의 통계적 지역을 선택하도록 구성되는 제 1 선택 서브유닛;
상기 통계적 지역 내의 모든 특징점의 경사도 방향을 계산하고 가중치를 부여하도록 구성되는 계산 방향 서브유닛;
상기 통계적 지역 내의 모든 특징점의 상기 경사도 방향 및 가중치가 부여된 값에 따라, 상기 통계적 지역 내의 모든 특징점의 경사도 방향 분포에 대해 통계 연산(statistics)을 수행하도록 구성되는 통계 서브유닛;
방향 분포 함수를 획득하도록, 상기 경사도 방향 분포에 따라 보간 연산을 수행하도록 구성되는 제 1 보간 서브유닛; 및
상기 특징점의 방향을 획득하도록 상기 방향 분포 함수의 최대값을 찾아내고, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 통계적 지역을 선택하는 단계로 복귀하도록 구성되는 제 1 사이클링 서브유닛을 포함한다.
바람직하게는, 상기 기술자 유닛은:
특정 특징점의 기술자 추출 지역을 선택하도록 구성되는 제 2 선택 서브유닛;
상기 기술자 추출 지역 및 특징점의 방향에 따라 지역적 4-사분면(four-quadrant)을 결정하도록 구성되는 결정 서브유닛;
상기 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 보간 연산을 수행하도록 구성되는 제 2 보간 서브유닛; 및
상기 보간 연산을 수행한 상기 지역적 4-사분면의 경사도 분포에 통계 연산을 수행하고, 상기 특징점의 기술자를 형성하며, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 기술자 추출 지역을 선택하는 단계로 복귀하도록 구성되는 제 2 사이클링 서브유닛을 포함한다.
바람직하게는, 상기 매칭 모듈은:
특징점의 유사도를 계산하도록 구성되는 제 2 계산 유닛;
상기 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 상기 지문 이미지를 조절하도록 구성되는 조절 유닛;
중첩 지역의 유사도를 계산하도록 구성되는 제 3 계산 유닛; 및
상기 중첩 지역의 유사도가 사전설정된 제 2 역치를 만족시키면, 매칭에 성공했다고 결정하도록 구성되는 결정 유닛을 포함한다.
본 발명의 실시예 1 에서 제공되는 방법에 따르면, 특징점의 방향이 통계 정보를 사용하여 계산되고, 통계적 중요도를 가지는 기술자가 특징점에 추가되며, 매칭 프로세스 도중에, 기술자를 사용한 특징점의 유사도를 계산하는 것과 중첩 지역의 방향 필드 및 경사도 필드의 정보를 사용한 지역 매칭이 추가되고, 그러므로, 종래의 알고리즘에서의 지문 특징의 표현이 불안정하고 약하게 특정되는 것을 피할 수 있고, 지문 식별의 정확도가 개선된다.
도 1 은 지문 식별을 위한 기존의 방법의 흐름도이다;
도 2 는 본 발명의 제 1 실시예에 따르는 지문 식별 방법의 흐름도이다;
도 3 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에 포함되는 지문 전처리 과정의 흐름도이다;
도 4 는 본 발명의 제 1 실시예에 따르는 지문 식별 방법의 종단점(endpoint)의 개략적인 도면이다;
도 5 는 본 발명의 제 1 실시예에 따르는 지문 식별 방법의 비-종단점(non-endpoint) 특징점의 개략적인 도면이다;
도 6 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법의 분기점(bifurcation point)의 개략적인 도면이다;
도 7 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 지문 특성을 표현하는 과정의 흐름도이다;
도 8 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 특징점의 방향을 연산하는 과정의 흐름도이다;
도 9 는 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 기술자를 추가하는 과정의 흐름도이다;
도 10 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 사분면을 분할하는 것을 나타내는 개략적인 도면이다;
도 11 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 지역적 4-사분면을 분할하는 것을 나타내는 개략적인 도면이다;
도 12 는 본 발명의 제 1 실시예에 따르는 지문 식별 방법에 포함되는 매칭 과정의 흐름도이다;
도 13 은 본 발명의 제 1 실시예에 따르는 지문 식별 방법에서 이미지 콘텐츠의 유사도를 계산하는 과정의 흐름도이다;
도 14 는 본 발명의 제 2 실시예에 따르는 지문 식별 장치의 구조도이다;
도 15 는 본 발명의 제 2 실시예에 따르는 지문 식별 장치에 포함되는 추출 모듈의 구조도이다;
도 16 은 본 발명의 제 2 실시예에 따르는 지문 식별 장치에 포함되는 제 1 연산 유닛의 구조도이다;
도 17 은 본 발명의 제 2 실시예에 따르는 지문 식별 장치에 포함되는 기술자 유닛의 구조도이다;
도 18 은 본 발명의 제 2 실시예에 따르는 지문 식별 장치에 포함되는 매칭 모듈의 구조도이다.
본 발명의 목적, 기술적 해결책 및 장점들을 명확하게 드러나게 하기 위하여, 본 발명이 첨부 도면 및 실시예와 조합하여 아래에 더욱 상세하게 설명될 것이다. 본 명세서에서 설명되는 특정 실시예는 오직 본 발명을 예시하기 위해서만 사용되는 것이고 본 발명을 한정하기 위한 것이 아니라는 것이 이해되어야 한다.
실시예 1:
본 발명의 실시예 1 은 지문 식별 방법을 제공한다. 도 2 에 도시된 바와 같이, 본 발명의 방법의 실시예 1 은 후속하는 단계들을 포함한다.
S1 은 지문 이미지를 입력하는 단계이다.
S2 는 지문을 전처리하는 것, 즉, 실제 적용되기 이전에 입력 지문 이미지를 전처리하고 입력 지문 이미지를 원하는 형태로 변환하는 단계이며, 도 3 에 도시된 바와 같은 단계들을 포함한다:
S21 은 지문의 이미지 필드를 계산하는 단계이다.
입력 이미지의 지문 부분을 식별하기 위하여, 이미지 필드가 우선 분석된다. 이미지 필드는 세기 필드(intensity field), 경사도 필드(gradient field) 및 방향 필드(direction field) 및 기타 등등을 포함한다. 소위 세기 필드는 지문 이미지의 어떤 포인트의 휘도 세기의 정보를 반영한다; 소위 경사도 필드는 함수가 가장 빠른 속도로 증가하는 방향인데, 여기에서 경사도는 벡터이며 경사도의 표현식은 다음과 같이 표현될 수 있다:
Figure pct00003
지문 이미지에서, 경사도는 지문 라인이 가장 가파른 방향을 나타내고, 경사도의 진폭은 지문 라인이 가장 가파른 각도를 나타낼 수 있으며, 경사도의 방향은 지문 라인의 방향을 가리킨다. 전체 지문의 라인 정보는 지문 이미지의 경사도 필드를 계산함으로써 획득될 수도 있다. 방향 필드는 지문이 중심에 대하여 회전하는 세기를 반영하는데, 이것은 지문 이미지에서 매우 중요한 물리적 파라미터이다.
S22 는 지문 이미지의 세그먼트화 단계이다.
지문 이미지를 세그먼트화한다는 것은, 지문 부분이 지문 이미지로부터 추출된다는 것, 즉 지문의 전경(foreground)로부터 배경을 분리한다는 것을 의미한다. 이미지의 세기 필드 및 경사도 필드가 단계 S21 에서 계산되기 때문에, 지문의 배경 및 전경은 세기 필드 및 경사도 필드를 분석함으로써 구별될 수도 있다.
S23 은 지문 이미지 골격의 예비 형태(preparation)를 추출하는 단계이다.
소위 지문 이미지 골격의 예비 형태를 추출한다는 것은, 이미지를 이진화한다는 것을 의미한다. 지문 이미지의 텍스쳐와 배경 사이의 픽셀 차분이 상대적으로 뚜렷하기 때문에, 역치
Figure pct00004
를 선택할 수 있으며, 지문 이미지의 픽셀에 대하여 다음이 성립한다:
Figure pct00005
S24 는 지문 이미지 골격을 세선화하는(thinning) 단계이다.
세선화 알고리즘 룩업 테이블 방법 또는 기타 등등과 같은 일반적 알고리즘이 채용될 수도 있고, 이것은 본 명세서에서 불필요하게 반복하여 언급되지 않을 것이다.
S3 은 통계적 방법을 사용하여 입력 지문 이미지의 특징점을 추출하는 단계이다.
단계 S2 에서 지문을 전처리하여 획득된 지문 이미지는 그에 대해 특징점 추출이 수행될 수 있는 지문 형태이다. 그러나, 전체 이미지는 많은 필요 없는 정보를 포함하고 있고, 따라서 전형적인 특성, 즉 특성 포인트(characteristic point)들을 가지는 몇 가지 특징점(minutiae)이 특성 추출의 방법을 사용하여 지문 이미지로부터 추출될 필요가 있다. 특징점은 전형적인 지문 특성 포인트이고 분기점(bifurcation point), 종단점(endpoint) 및 특이점(singular point) 및 기타 등등과 같은 많은 타입을 가진다. 다른 타입의 특징점에 대해서는 다른 추출 방법이 사용된다. 종단점을 일 예로 들면, 종단점을 추출하기 위하여, 도 4 에 도시된 바와 같이 지문 이미지의 픽셀 값의 변화가 사용된다. 도 4 에서, 블랙 픽셀 포인트는 지문의 지문 라인이고 백색 픽셀 포인트는 배경 부분이다. 포인트 A가 종단점이어서, 포인트 A의 주위에 있는 8 개의 픽셀 포인트 중 한 개가 0의 픽셀 값을 가진다는 것을 도 4 로부터 알 수 있다. 전체 이미지가 이진(0 또는 255) 이미지이기 때문에, 전체 템플릿 내의 인접한 픽셀들 사이의 차분의 절대값은 0 이거나 255 이다. 위의 경우에 기초하여, 전체 템플릿 내의 인접한 픽셀들 사이의 차분의 절대값의 합은 2*255 이 된다는 것을 알 수 있다. 그러나, 이것이 종단점이 아니라면, 도 5 에 도시된 바와 같이 0 의 픽셀 값을 가지는 적어도 3 개의 픽셀 포인트들이 포함된다. 그러므로, 이미지의 종단점은 지문 이미지 내의 각각의 픽셀 포인트의 주위에 포함되는 인접한 픽셀들 사이의 차분의 합에 통계 연산을 수행함으로써 획득될 수도 있다.
분기점을 추출하기 위해서 종단점의 그것과 동일한 추출 전략을 사용할 수도 있다. 분석을 통해서, 지문 이미지의 분기점의 주위에 포함되는 이미지 픽셀 분포가 도 6 에 도시된다는 것을 알 수 있는데, 즉 하나의 라인이 3 개 이상의 라인으로 분기되는 분기점이 어떤 사람의 지문에는 존재하지 않는다는 것을 알 수 있다. 계산에 의하여, A의 주위에 포함되는 인접한 픽셀들 사이의 차분의 절대값의 합이 6*255 라는 결과를 얻을 수 있으며, 따라서 분기점이 전체 이미지를 순회함으로써 이러한 문자에 따라 획득될 수도 있다.
지문의 특이점은 두 개의 타입을 포함한다: 삼각형 포인트 및 중심 포인트. 지문의 특이점은 종단점 및 분기점의 그것과 같은 로컬 픽셀 분포 성질을 가지지 않는다. 특이점을 추출하는 것은 둘러싸는 방향 필드를 계산함으로써 획득되는데, 이것은 완성된 방법이라고 주지되며 본 명세서에서 불필요하게 반복되어 언급되지 않을 것이다.
도 7 에 도시된 바와 같이, 본 발명의 실시예 1 은 후속하는 방식으로 지문 특성을 표현한다.
단계 S31 은 지역적 통계 정보를 사용하여 특징점의 방향을 계산하는 단계이다. 기술자를 추출하고 후속하는 접합(splicing) 프로세스의 회전을 결정하기 위하여, 각각의 특징점에는 안정한 방향이 필요하다. 소위 안정한 방향이란 해당 포인트의 방향을 나타낼 수 있는 방향을 의미한다. 종래의 알고리즘은 특징점의 경사도 방향을 특징점의 방향으로 취하지만, 지문 이미지에 왜곡이 있으면 특징점의 경사도의 변화가 매우 뚜렷하게 나타날 것이다. 그러므로, 종래의 방법에서 특징점의 방향은 안정적으로 결정되지 않는다. 본 발명의 실시예 1 에서 채용된 방법은 지역적 통계이고, 즉 경사도 필드에 따라서 특징점 주위의 특정 지역에 속하는 경사도 방향들에 통계 연산을 수행하여 특징점의 방향을 나타내는데, 이것은 도 8 에 도시된 바와 같으며 세부적인 내용들은 다음과 같이 설명된다.
단계 S311 은 통계적 지역을 선택하는 단계이다. 원형 지역이 통계적 지역으로서 선택될 수도 있으며, 예컨대 5 픽셀의 원형 지역을 가지고 특징점에 중심이 있는 원형 지역이 선택될 수 있고, 또는 다른 비원형 지역이 필요에 따라 선택될 수도 있다.
단계 S312 은 통계적 지역 내의 모든 특징점의 경사도 방향을 계산하는 단계이다. 특징점의 경사도 방향을 획득하기 위하여, 본 발명의 실시예 1 에서는 특징점의 방향이 해당 지역 내의 모든 특징점의 방향을 계산하여, 즉, 해당 지역 내의 모든 특징점의 경사도 방향을 계산함으로써 획득된다.
단계 S313 은 통계적 지역 내의 가중치를 결정하는 단계이다. 통계적 지역 내의 모든 특징점의 경사도 방향이 획득된 이후에, 통계 이론에 따라서 특징점으로부터 더 멀리 떨어진 점은 특징점에 더 적게 영향을 준다; 그렇지 않으면, 더 큰 영향을 줄 것이다. 그러므로, 가우시안 가중치부여와 같은 이론에 따라서, 즉 특징점에 중심이 있고 5 픽셀의 반경을 가지는 가우시안 분포를 사용하여 통계적 지역 내의 특징점의 경사도 방향에 가중치를 부여함으로써, 가중치부여 프로세스가 해당 통계적 지역 내의 정보에 수행된다.
단계 S314 는 통계적 지역 내의 경사도 방향 분포에 대해 통계 연산을 수행하는 단계이다. 통계적 지역 내의 경사도 방향 분포에 대해 통계적 연산을 수행하기 위하여, 본 발명의 실시예 1 에서는, 360°가 6 개의 그룹으로, 즉, 각각의 그룹 당 60°로 분할되고, 이제 모든 특징점의 경사도 방향이 통계적 지역 내의 각각의 특징점의 경사도 방향 및 가중치가 부여된 값에 따라서 6 개의 그룹에서 카운팅된다. 데이터의 6 개의 그룹은 해당 지역 내의 방향들에 대한 통계 정보를 나타낸다.
단계 S315 는 보간 연산을 경사도 분포 정보에 수행하는 단계이다. 통계 정보가 획득된 이후, 각각의 그룹이 60°이기 때문에, 특징점 방향의 소정 범위만이 획득된다. 정확한 특징점 방향을 획득하기 위하여, 보간 연산이 보간 알고리즘을 사용하여 방향 데이터 그룹에 수행되어 연속 방향 분포 함수를 얻을 수도 있다.
단계 S316 은 특징점 방향을 획득하는 단계이다. 최대 값이 획득된 방향 분포 함수에 따라서 획득되고, 이러한 최대 값은 특징점의 방향이다.
단계 S32 는 통계적 중요도를 가지는 기술자를 특징점에 추가하는 단계이다. 본 발명의 실시예 1 는 일 예로서 도 9 에 도시된 바와 같은 4-사분면 경사도 방법을 이용하고, 구체적인 단계들은 다음과 같다.
단계 S321 은 특정 특징점의 기술자 추출 지역을 선택하는 단계이다. 추출 지역은 여전히 원형 지역을 채용할 수 있는데, 하지만 원형 지역의 면적이 이전의 메인 경사도 방향의 지역의 면적보다 더 크다는 것에 주의해야 한다.
단계 S322 는 단계 S31 에서 결정된, 특징점의 방향에 따라 지역적 4-사분면을 결정하는 단계이다. 특징점의 위에서 획득된 방향에 따라서, 원형 지역이 분할될 수도 있다. 특징점의 방향은 수평 축의 양의 방향으로서 취해지고, 특징점이 원점이며, 이제 원형 지역은 평면 직각 좌표계의 분할 방법에 따라서 4 개의 사분면으로 분할되고, 회전 방정식은 다음과 같다:
Figure pct00006
여기에서
Figure pct00007
는 원래의 좌표이고,
Figure pct00008
은 회전된 이후의 좌표이며,θ는 특징점의 방향이다. 사분면 분할의 개략적인 도면이 도 10 에 도시된다.
단계 S323 은 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 및 보간 연산을 수행하는 단계이다. 본 명세서에서, 각각의 포인트의 경사도 방향은 특징점의 메인 경사도 방향을 감산해야 한다는 것에 주의해야 하는데, 이것은 상대성(relativity)을 보장하기 위한 것이다. 보간 연산은 경사도 방향에서 수행되고, 원형 지역 반경이 8 개의 픽셀인 것을 일 예로 들면, 원형 지역은 최초로 도 11 에 도시된 바와 같이 더욱 분할된다. 분할 기준은, 원형 지역이 반지름이 각각 1, 2, 3, 4, 5, 6 및 7 인 동심원에 따라 분할된다는 것이다. 해당 지역의 중간에 위치한 점은 인접한 두 개의 동심원의 점들에 보간될 필요가 있다.
단계 S324 는 각각의 사분면 내의 경사도 분포에 통계 연산을 수행하는 단계이다. 경사도 분포의 통계 연산이 하나의 사분면이 분할되고 보간이 완료된 지역에 대해 수행되고, 통계 방법은 특징점의 방향의 이전 통계의 방법과 동일하다. 각각의 사분면의 경사도 분포가 획득된 이후에, 각각의 사분면 내의 경사도 방향의 분포에 따라서, 모든 사분면에 포함되는 경사도 방향 분포는 1, 2, 3, 4 의 시퀀스에 따라서 기록되고, 이제 획득된 경사도의 전체 분포가 특징점의 기술자를 형성한다.
단계 S325 는 기술자를 정규화하는 단계이다. 측방향 매칭을 편하게 하기 위하여, 정규화 프로세스가 최종 기술자를 획득하기 위하여 해당 기술자에 수행될 수도 있다. 정규화 처리 이전의 기술자가 다음과 같다고 가정하면:
Figure pct00009
정규화 처리 이후의 기술자는 다음이 된다:
Figure pct00011
여기에서
Figure pct00012
이다.
단계 S33 은 삼각형 꼭지점 방향을 추출하는 단계이다.
S4, 지문 식별 결과를 획득하도록, 추출된 특징점에 따라서 지문 매칭을 수행하는 단계를 포함한다. 두 지문 이미지들의 유사도에 대해서는, 두 개의 표준인 특징점 유사도(minutia similarity) 및 이미지 콘텐츠 유사도(image content similarity)가 있다. 그러므로, 본 발명의 실시예 1 는 매칭을 위하여 도 12 에 도시되는 단계들을 채용할 수도 있다.
S41 은 지문 템플릿에 대한 특징점의 유사도를 계산하는 단계이다. 특징점의 유사도는 포괄적으로 다수의 결정 기준들을 혼합함으로써 결정된다. 첫째로, 기술자의 유사도 매칭이 수행된다. 이전의 기술자 형성 프로세스를 살펴보면, 기술자가 벡터의 방식으로 표현됨으로써, 유클리드 거리가 두 개의 특징점의 기술자의 유사도를 계산하기 위하여 사용될 수도 있으며, 즉 다음과 같다,
Figure pct00013
여기에서 ab는 두 개의 다른 특징점의 기술자들을 나타낸다. 정규화 처리가 획득된 기술자에 수행되었기 때문에, 유클리드 거리는 내적 연산과 등가이다:
Figure pct00014
즉, 내적이 더 작으면, 두 개의 특징점은 더 유사하다. 그러므로, 특징점의 임의의 쌍에 대하여, 이들의 특성 기술자의 유사도 점수가 계산될 수도 있고, 하나의 점수는 모든 특징점 쌍의 유사도 점수의 합에 통계 계산을 수행함으로써 결정될 수도 있다. 둘째로, 기술자의 좌표 위치의 유사도가 계산된다. 좌표 위치의 유사도란, 두 개의 이미지들이 변환된 이후에 이미지들이 정확하게 매칭될 수 있으면, 동일한 특징점이 대응하는 위치에 존재할 것이라는 것을 의미한다. 다시 말해서, 특징점의 좌표는 특정 값 미만임으로써, 대응하는 특징점의 좌표들 사이의 차분에 따라서, 즉 대응하는 특징점 쌍들의 좌표의 차분을 계산함으로써 유사도가 계산될 수도 있다. 점수는 차분의 크기에 따라서 결정되고, 예를 들어 차분이 10 이면 점수는 0 이고, 차분이 9 이면 점수는 1 이 되는 등이라고 가정할 수도 있다. 셋째로, 기술자 주위의 꼭지점 방향의 유사도가 계산된다. 특징점의 방향을 위의 소개된 계산으로 얻어내는 것은 어떤 지역 내의 모든 특징점의 경사도 방향에 통계 연산을 수행함으로써 달성되는데, 이것은 강한 안정성을 가지고, 동일한 특징점의 메인 방향은 작은 범위 내에 재배치될 수 있게 되며(지문 이미지의 왜곡을 고려), 따라서 대응하는 특징점 사이의 메인 경사도 방향들의 차분을 계산함으로써 유사도가 계산되고, 이러한 방법은 이전의 방법과 유사하다. 통계 연산은 위의 유사도의 총 점수에 대해 수행되어 특징점의 유사도를 획득한다. 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 단계 S402 가 수행된다.
S42 는 사전설정된 변환 파라미터에 따라서 지문을 조절하는 단계이다.
S43 은 중첩 지역의 유사도를 계산하는 단계이다. 위의 매칭 알고리즘들 모두가 특징점의 특성 포인트, 즉 로컬 특성 포인트에 기초하고 있으며, 이러한 방법의 가장 큰 단점은 글로벌 정보를 사용하여 매칭하기에는 너무 국부화된다는 것이며, 따라서 몇 가지 피할 수 없는 미스매치가 증가될 수도 있다. 예를 들어, 두 개의 이미지들은 전체적으로 유사하지 않지만, 매칭이 성공하였고 두 개의 이미지들의 국부적 부분들이 정확하게 유사한 것으로 보여질 수 있으므로, 오류에 의해서 매칭이 수락되는 현상이 발생한다. 이러한 경우에 대하여, 유사도를 계산하는 것은 이전의 획득된 경사도 필드 및 방향 필드를 해당 이미지의 콘텐츠로서 취함으로써 수행될 수도 있다. 첫째로, 입력 지문 이미지와 지문 템플릿의 중첩하는 지역이 계산되고, 그러면 경사도 필드의 차분 및 중첩 지역의 방향 필드의 차분이 계산된다. 입력 이미지와 큰 접합 이미지 사이의 중첩 지역의 면적이 결정될 수 없기 때문에, 차분은 중첩하는 픽셀 개수를 분할하여 평균 차분을 획득하고, 이러한 평균 차분이 이미지 콘텐츠의 유사도의 기준으로서 취해질 수 있다.
다음과 같은 단계들을 포함하는 특정한 구현형태가 도 13 에 도시된다.
S431 은 첫째로 입력 지문을 등록 결과에 따라서 변환하는 단계이다. 등록의 결과로서 강체(rigid body) 변환 행렬 H가 획득되고, 변환은 이러한 행렬에 따라서 입력 지문에 수행된다.
Figure pct00015
,
여기에서
Figure pct00016
는 입력 지문의 원래의 호모지니어스 좌표(homogeneous coordinate)이고,
Figure pct00017
는 입력 지문의 변환으로부터 획득된 호모지니어스 좌표이다.
S432 은 입력 지문과 템플릿 지문 사이의 중첩 지역의 경사도 필드의 필드 유사도를 계산하는 단계이다. 차분 동작이 변환에 의하여 획득된 새 지문과 템플릿 사이의 중첩 지역의 경사도 필드에 수행된다.
Figure pct00018
여기에서
Figure pct00019
Figure pct00020
는 입력 지문과 템플릿 지문의 중첩 지역의 경사도 필드의 값을 각각 나타내고,
Figure pct00021
은 중첩 지역의 픽셀들의 개수를 나타낸다.
S433 은 경사도 필드의 유사도가 역치를 만족시키는지 여부를 결정하는 단계이다. 위의 단계들로부터 얻어진 결과가 역치를 만족시키는지 여부가 결정되고, 만족시킨다면 다음 단계가 수행된다; 만일 만족시키지 않는다면, 현재의 매칭은 실패한 것이다.
S434 은 입력 지문 및 템플릿 지문 사이의 중첩 지역의 방향 필드의 유사도를 계산하는 단계이다, 이것은 경사도 필드의 유사도를 계산하는 것과 유사하고, 방향 필드의 유사도가 역치를 만족시키는지 여부가 결정되는데, 만일 만족시킨다면 다음 단계로 진행한다; 만족시키지 않으면, 현재의 매칭은 실패한 것이다.
S435 은 최고 유사도를 가지는 점수를 찾는 단계이다. 경사도 필드 및 방향 필드의 유사도 점수가 합산되어 최종 매칭 유사도 점수를 획득한다. 이전의 이미지 등록 프로세스가 모든 특징점, 즉 매칭의 모든 가능성을 등록하는 것을 채용하기 때문에, 각각의 등록 기법에서 유사도 점수가 획득된다. 최고 유사도를 가지는 점수가 그 외의 등록 방식들에 따라서 결과적으로 획득될 수 있는데, 이것은 입력 지문 및 템플릿 지문의 최종 점수로서 취해질 수 있어서, 입력 지문 및 템플릿 지문이 정확하게 매칭될 수 있다고 결정할 수 있으며, 이에 따라서 지문 식별의 결과가 획득된다.
본 발명의 실시예 1 에서 제공되는 방법에 따르면, 특징점의 방향이 통계 정보를 사용하여 계산되고, 통계적 중요도를 가지는 기술자가 특징점에 추가되며, 매칭 프로세스 도중에, 기술자를 사용한 특징점의 유사도를 계산하는 것과 중첩 지역의 방향 필드 및 경사도 필드의 정보를 사용한 지역 매칭이 추가되고, 그러므로, 종래의 알고리즘에서의 지문 특징의 표현이 불안정하고 약하게 특정되는 것을 피할 수 있고, 지문 식별의 정확도가 개선된다.
실시예 2:
본 발명의 실시예 2 는 지문 식별 장치를 제공한다. 도 14 에 도시된 바와 같이, 본 발명의 실시예 2 의 장치는 다음을 포함한다:
통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하도록 구성되는 추출 모듈(10); 및
지문 식별 결과를 획득하기 위하여 추출된 특징점에 따라서 지문 매칭을 수행하도록 구성되는 매칭 모듈(20).
지문 이미지가 입력된 이후에, 지문 식별 장치는 우선 지문에 전처리를 수행한다. 즉, 전처리가 실제 적용되기 이전에 입력 지문 이미지에 수행되고, 입력 지문 이미지는 원하는 형태로 변환된다.
세부사항들은 다음을 포함한다:
지문의 이미지 필드를 계산하는 것.
입력 이미지의 지문 부분을 식별하기 위하여, 이미지 필드가 우선 분석된다. 이미지 필드는 세기 필드, 경사도 필드 및 방향 필드 및 기타 등등을 포함한다. 소위 세기 필드는 지문 이미지의 어떤 포인트의 휘도 세기의 정보를 반영한다; 소위 경사도 필드는 함수가 가장 빠른 속도로 증가하는 방향인데, 여기에서 경사도는 벡터이며 경사도의 표현식은 다음과 같이 표현될 수 있다:
Figure pct00022
지문 이미지에서, 경사도는 지문 라인이 가장 가파른 방향을 나타내고, 경사도의 진폭은 지문 라인이 가장 가파른 각도를 나타낼 수 있으며, 경사도의 방향은 지문 라인의 방향을 가리킨다. 전체 지문의 라인 정보는 지문 이미지의 경사도 필드를 계산함으로써 획득될 수도 있다. 방향 필드는 지문이 중심에 대하여 회전하는 세기를 반영하는데, 이것은 지문 이미지에서 매우 중요한 물리적 파라미터이다.
지문 이미지의 세그먼트화.
지문 이미지를 세그먼트화한다는 것은, 지문 부분이 지문 이미지로부터 추출된다는 것, 즉 지문의 전경(foreground)로부터 배경을 분리한다는 것을 의미한다. 이미지의 세기 필드 및 경사도 필드가 단계 S21 에서 계산되기 때문에, 지문의 배경 및 전경은 세기 필드 및 경사도 필드를 분석함으로써 구별될 수도 있다.
지문 이미지 골격의 예비 형태를 추출하는 것.
소위 지문 이미지 골격의 예비 형태를 추출한다는 것은, 이미지를 이진화한다는 것을 의미한다. 지문 이미지의 텍스쳐와 배경 사이의 픽셀 차분이 상대적으로 뚜렷하기 때문에, 역치
Figure pct00023
를 선택할 수 있으며, 지문 이미지의 픽셀에 대하여 다음이 성립한다:
Figure pct00024
지문 이미지 골격을 세선화하는(thinning) 것. 세선화 알고리즘 룩업 테이블 방법 또는 기타 등등과 같은 일반적 알고리즘이 채용될 수도 있고, 이것은 본 명세서에서 불필요하게 반복하여 언급되지 않을 것이다.
지문을 전처리하여 획득된 지문 이미지는 그에 대해 특징점 추출이 수행될 수 있는 지문 형태이다. 그러나, 전체 이미지는 많은 필요 없는 정보를 포함하고 있고, 따라서 전형적인 특성, 즉 특성 포인트(characteristic point)들을 가지는 몇 가지 특징점(minutiae)이 특성 추출의 방법을 사용하여 지문 이미지로부터 추출될 필요가 있다. 특징점은 전형적인 지문 특성 포인트이고 분기점(bifurcation point), 종단점(endpoint) 및 특이점(singular point) 및 기타 등등과 같은 많은 타입을 가진다. 다른 타입의 특징점에 대해서는 다른 추출 방법이 사용된다. 종단점을 일 예로 들면, 종단점을 추출하기 위하여, 도 4 에 도시된 바와 같이 지문 이미지의 픽셀 값의 변화가 사용된다. 도 4 에서, 블랙 픽셀 포인트는 지문의 지문 라인이고 백색 픽셀 포인트는 배경 부분이다. 포인트 A가 종단점이어서, 포인트 A의 주위에 있는 8 개의 픽셀 포인트 중 한 개가 0의 픽셀 값을 가진다는 것을 도 4 로부터 알 수 있다. 전체 이미지가 이진(0 또는 255) 이미지이기 때문에, 전체 템플릿 내의 인접한 픽셀들 사이의 차분의 절대값은 0 이거나 255 이다. 위의 경우에 기초하여, 전체 템플릿 내의 인접한 픽셀들 사이의 차분의 절대값의 합은 2*255 이 된다는 것을 알 수 있다. 그러나, 이것이 종단점이 아니라면, 도 5 에 도시된 바와 같이 0 의 픽셀 값을 가지는 적어도 3 개의 픽셀 포인트들이 포함된다. 그러므로, 이미지의 종단점은 지문 이미지 내의 각각의 픽셀 포인트의 주위에 포함되는 인접한 픽셀들 사이의 차분의 합에 통계적 연산을 수행함으로써 획득될 수도 있다.
분기점을 추출하기 위해서 종단점의 그것과 동일한 추출 전략을 사용할 수도 있다. 분석을 통해서, 지문 이미지의 분기점의 주위에 포함되는 이미지 픽셀 분포가 도 6 에 도시된다는 것을 알 수 있는데, 즉 하나의 라인이 3 개 이상의 라인으로 분기되는 분기점이 어떤 사람의 지문에는 존재하지 않는다는 것을 알 수 있다. 계산에 의하여, A의 주위에 포함되는 인접한 픽셀들 사이의 차분의 절대값의 합이 6*255 라는 결과를 얻을 수 있으며, 따라서 분기점이 전체 이미지를 순회함으로써 이러한 문자에 따라 획득될 수도 있다.
지문의 특이점은 두 개의 타입을 포함한다: 삼각형 포인트 및 중심 포인트. 지문의 특이점은 종단점 및 분기점의 그것과 같은 로컬 픽셀 분포 성질을 가지지 않는다. 특이점을 추출하는 것은 둘러싸는 방향 필드를 계산함으로써 획득되는데, 이것은 본 명세서에서 불필요하게 반복되어 언급되지 않을 것이다.
추출 모듈(10)은 통계적 방법을 사용하여 입력 지문 이미지의 특징점을 추출하도록 구성된다. 도 15 에 도시된 바와 같이, 추출 모듈(10)은, 지역적 통계 정보를 사용하여 상기 특징점의 방향을 계산하도록 구성되는 제 1 계산 유닛(11); 상기 특징점의 방향에 따라, 통계적 중요도를 가지는 기술자를 상기 특징점에 추가하도록 구성되는 기술자 유닛(descriptor unit; 12); 및 상기 특징점의 삼각형 꼭지점 방향을 추출하도록 구성되는 꼭지점 방향 추출 유닛(13)을 포함한다. 도 16 에 도시된 바와 같이, 제 1 계산 유닛(11)은, 특정 특징점의 통계적 지역을 선택하도록 구성되는 제 1 선택 서브유닛(111); 상기 통계적 지역 내의 모든 특징점의 경사도 방향을 계산하고 가중치를 부여하도록 구성되는 계산 방향 서브유닛(112); 상기 통계적 지역 내의 모든 특징점의 상기 경사도 방향 및 가중치가 부여된 값에 따라, 상기 통계적 지역 내의 모든 특징점의 경사도 방향 분포에 대해 통계 연산(statistics)을 수행하도록 구성되는 통계 서브유닛(113); 방향 분포 함수를 획득하도록, 상기 경사도 방향 분포에 따라 보간 연산을 수행하도록 구성되는 제 1 보간 서브유닛(114); 및 상기 특징점의 방향을 획득하도록 상기 방향 분포 함수의 최대값을 찾아내고, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 통계적 지역을 선택하는 단계로 복귀하도록 구성되는 제 1 사이클링 서브유닛(115)을 포함한다. 도 17 에 도시된 바와 같이, 기술자 유닛(12)은, 특정 특징점의 기술자 추출 지역을 선택하도록 구성되는 제 2 선택 서브유닛(121); 상기 기술자 추출 지역 및 특징점의 방향에 따라 지역적 4-사분면(four-quadrant)을 결정하도록 구성되는 결정 서브유닛(122); 상기 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 보간 연산을 수행하도록 구성되는 제 2 보간 서브유닛(123); 및 상기 보간 연산을 수행한 상기 지역적 4-사분면의 경사도 분포에 대해 통계 연산을 수행하고, 상기 특징점의 기술자를 형성하며, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 기술자 추출 지역을 선택하는 단계로 복귀하도록 구성되는 제 2 사이클링 서브유닛(124)을 포함한다.
기술자를 추출하고 후속하는 접합(splicing) 프로세스의 회전을 결정하기 위하여, 각각의 특징점에는 안정한 방향이 필요하다. 소위 안정한 방향이란 해당 포인트의 방향을 나타낼 수 있는 방향을 의미한다. 종래의 알고리즘은 특징점의 경사도 방향을 특징점의 방향으로 취하지만, 지문 이미지에 왜곡이 있으면 특징점의 경사도의 변화가 매우 뚜렷하게 나타날 것이다. 그러므로, 종래의 방법에서 특징점의 방향은 안정적으로 결정되지 않는다. 본 발명의 실시예 2 에서, 추출 모듈(10)에 의하여 채택되는 방법은 지역적 통계이고, 즉 특징점의 방향을 나타내기 위하여 경사도 필드에 따라서 특징점 주위의 어떤 지역에 포함되는 경사도 방향에 통계적 연산을 수행하고, 세부사항들은 다음과 같이 설명된다.
제 1 선택 서브유닛(111)이 통계적 지역을 선택한다. 원형 지역이 통계적 지역으로서 선택될 수도 있으며, 예컨대 5 픽셀의 원형 지역을 가지고 특징점에 중심이 있는 원형 지역이 선택될 수 있고, 또는 다른 비원형 지역이 필요에 따라 선택될 수도 있다. 방향 계산 서브유닛(112)은 통계적 지역 내의 모든 특징점의 방향을 계산한다. 특징점의 경사도 방향을 획득하기 위하여, 본 발명의 실시예 2 에서는 특징점의 방향이 해당 지역 내의 모든 특징점의 방향을 계산하여, 즉, 해당 지역 내의 모든 특징점의 경사도 방향을 계산함으로써 획득된다. 통계 서브유닛(311)은 통계적 지역 내의 가중치를 결정한다. 통계적 지역 내의 모든 특징점의 경사도 방향이 획득된 이후에, 통계 이론에 따라서 특징점으로부터 더 멀리 떨어진 점은 특징점에 더 적게 영향을 준다; 그렇지 않으면, 더 큰 영향을 줄 것이다. 그러므로, 가우시안 가중치부여와 같은 이론에 따라서, 즉 특징점에 중심이 있고 5 픽셀의 반경을 가지는 가우시안 분포를 사용하여 통계적 지역 내의 특징점의 경사도 방향에 가중치를 부여함으로써, 가중치부여 프로세스가 통계 서브유닛(311)에 의하여 해당 통계적 지역 내의 정보에 수행된다. 제 1 보간 서브유닛(114)은 통계적 지역 내의 경사도 방향 분포에 대해 통계적 연산을 수행한다. 통계적 지역 내의 경사도 방향 분포에 대해 통계적 연산을 수행하기 위하여, 제 1 보간 서브유닛(114)은 360°를 6 개의 그룹으로, 즉, 각각의 그룹 당 60°로 분할하고, 이제 모든 특징점의 경사도 방향이 통계적 지역 내의 각각의 특징점의 경사도 방향 및 가중치가 부여된 값에 따라서 6 개의 그룹에서 카운팅된다. 데이터의 6 개의 그룹은 해당 지역 내의 방향들에 대한 통계 정보를 나타낸다. 제 1 사이클링 서브유닛(115)은 경사도 분포 정보에 보간 연산을 수행한다. 통계 정보가 획득된 이후, 각각의 그룹이 60°이기 때문에, 특징점 방향의 소정 범위만이 획득된다. 정확한 특징점 방향을 획득하기 위하여, 제 1 사이클링 서브유닛(115)은 보간 알고리즘을 사용하여 방향 데이터 그룹에 보간 연산을 수행하여 연속 방향 분포 함수를 획득하고, 이제 획득된 방향 분포 함수의 최대 값을 찾을 수 있으며, 최대 값이 특징점의 방향이다.
기술자 유닛(12)은 통계적 중요도를 가지는 기술자를 특징점에 추가한다. 본 발명의 실시예 2 는 4-사분면 경사도 방법을 일 예로서 사용한다. 세부적으로는, 제 2 선택 서브유닛(121)이 특정한 특징점의 기술자 추출 지역을 선택하는 것을 포함한다. 추출 지역은 여전히 원형 지역을 채용할 수 있는데, 하지만 원형 지역의 면적이 이전의 메인 경사도 방향의 지역의 면적보다 더 크다는 것에 주의해야 한다. 결정 서브유닛(122)은 제 1 계산 유닛(11)에 의하여 결정된 특징점의 방향에 따라서 지역적 4-사분면을 결정한다. 결정 서브유닛(122)은 원형 지역을 특징점의 위에서 획득된 방향에 따라서 분할할 수도 있다. 특징점의 방향은 수평 축의 양의 방향으로서 취해지고, 특징점이 원점이며, 이제 원형 지역은 평면 직각 좌표계의 분할 방법에 따라서 4 개의 사분면으로 분할되고, 회전 방정식은 다음과 같다:
Figure pct00025
여기에서
Figure pct00026
는 원래의 좌표이고,
Figure pct00027
은 회전된 이후의 좌표이며,
Figure pct00028
는 특징점의 방향이다. 사분면 분할의 개략적인 도면이 도 10 에 도시된다.
제 2 보간 서브유닛(123)은 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 보간 연산을 수행한다. 본 명세서에서, 각각의 포인트의 경사도 방향은 특징점의 메인 경사도 방향을 감산해야 한다는 것에 주의해야 하는데, 이것은 상대성(relativity)을 보장하기 위한 것이다. 보간 연산은 경사도 방향에서 수행되고, 원형 지역 반경이 8 개의 픽셀인 것을 일 예로 들면, 원형 지역은 최초로 도 11 에 도시된 바와 같이 더욱 분할된다. 분할 기준은, 원형 지역이 반지름이 각각 1, 2, 3, 4, 5, 6 및 7 인 동심원에 따라 분할된다는 것이다. 해당 지역의 중간에 위치한 점은 인접한 두 개의 동심원의 점들에 보간될 필요가 있다. 경사도 분포의 통계 연산이 하나의 사분면이 분할되고 보간이 완료된 지역에 대해 제 2 사이클링 서브유닛(124)에 의하여 수행되고, 통계 방법은 특징점의 방향의 이전 통계의 방법과 동일하다. 각각의 사분면의 경사도 분포가 획득된 이후에, 각각의 사분면 내의 경사도 방향의 분포에 따라서, 모든 사분면에 포함되는 경사도 방향 분포는 1, 2, 3, 4 의 시퀀스에 따라서 기록되고, 이제 획득된 경사도의 전체 분포가 특징점의 기술자를 형성한다. 제 2 사이클링 서브유닛(124)은 기술자를 정규화할 수 있다. 측방향 매칭을 편하게 하기 위하여, 정규화 프로세스가 최종 기술자를 획득하기 위하여 해당 기술자에 수행될 수도 있다. 정규화 처리 이전의 기술자가 다음과 같다고 가정하면:
Figure pct00029
Figure pct00030
정규화 처리 이후의 기술자는 다음이 된다:
Figure pct00031
여기에서,
Figure pct00032
이다.
꼭지점 방향 추출 유닛(13)은 특징점의 삼각형 꼭지점 방향을 추출한다.
매칭 모듈(20)은 지문 식별 결과를 획득하기 위하여 추출된 특징점에 따라서 지문 매칭을 수행한다. 도 18 에 도시된 바와 같이, 매칭 모듈(20)은, 특징점의 유사도를 계산하도록 구성되는 제 2 계산 유닛(21); 상기 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 상기 지문 이미지를 조절하도록 구성되는 조절 유닛(22); 중첩 지역의 유사도를 계산하도록 구성되는 제 3 계산 유닛(23); 및 상기 중첩 지역의 유사도가 사전설정된 제 2 역치를 만족시키면, 매칭에 성공했다고 결정하도록 구성되는 결정 유닛(24)을 포함한다.
두 지문 이미지들의 유사도에 대해서는, 두 개의 표준인 특징점 유사도(minutia similarity) 및 이미지 콘텐츠 유사도(image content similarity)가 있다. 그러므로, 매칭 모듈(20)은 매칭을 위하여 후속하는 방식을 채용할 수도 있다.
제 2 계산 유닛(21)은 지문 템플릿에 대한 특징점의 유사도를 계산한다. 특징점의 유사도는 포괄적으로 다수의 결정 기준들을 혼합함으로써 결정된다. 첫째로, 기술자의 유사도 매칭이 수행된다. 이전의 기술자 형성 프로세스를 살펴보면, 기술자가 벡터의 방식으로 표현됨으로써, 유클리드 거리가 두 개의 특징점의 기술자의 유사도를 계산하기 위하여 사용될 수도 있으며, 즉 다음과 같다,
Figure pct00033
여기에서 a b는 두 개의 다른 특징점의 기술자들을 나타낸다. 정규화 처리가 획득된 기술자에 수행되었기 때문에, 유클리드 거리는 내적 연산과 등가이다:
Figure pct00034
즉, 내적이 더 작으면, 두 개의 특징점은 더 유사하다. 그러므로, 특징점의 임의의 쌍에 대하여, 이들의 특성 기술자의 유사도 점수가 계산될 수도 있고, 하나의 점수는 모든 특징점 쌍의 유사도 점수의 합에 통계 계산을 수행함으로써 결정될 수도 있다. 둘째로, 기술자의 좌표 위치의 유사도가 계산된다. 좌표 위치의 유사도가란, 두 개의 이미지들이 변환된 이후에 이미지들이 정확하게 매칭될 수 있으면, 동일한 특징점이 대응하는 위치에 존재할 것이라는 것을 의미한다. 다시 말해서, 특징점의 좌표는 특정 값 미만임으로써, 대응하는 특징점의 좌표들 사이의 차분에 따라서, 즉 대응하는 특징점 쌍들의 좌표의 차분을 계산함으로써 유사도가 계산될 수도 있다. 점수는 차분의 크기에 따라서 결정되고, 예를 들어 차분이 10 이면 점수는 0 이고, 차분이 9 이면 점수는 1 이 되는 등이라고 가정할 수도 있다. 셋째로, 기술자 주위의 꼭지점 방향의 유사도가 계산된다. 특징점의 방향을 위의 소개된 계산으로 얻어내는 것은 어떤 지역 내의 모든 특징점의 경사도 방향에 통계 연산을 수행함으로써 달성되는데, 이것은 강한 안정성을 가지고, 동일한 특징점의 메인 방향은 작은 범위 내에 재배치될 수 있게 되며(지문 이미지의 왜곡을 고려), 따라서 대응하는 특징점 사이의 메인 경사도 방향들의 차분을 계산함으로써 유사도가 계산되고, 이러한 방법은 이전의 방법과 유사하다. 통계 연산은 위의 유사도의 총 점수에 대해 수행되어 특징점의 유사도를 획득한다. 특징점의 유사도가 사전설정된 제 1 역치를 만족시키는 경우, 조절 유닛(22)은 사전설정된 변환 파라미터에 따라서 지문을 조절한다. 그러면 제 3 계산 유닛(23)은 중첩 지역의 유사도를 계산한다. 위의 매칭 알고리즘들 모두가 특징점의 특성 포인트, 즉 로컬 특성 포인트에 기초하고 있으며, 이러한 방법의 가장 큰 단점은 글로벌 정보를 사용하여 매칭하기에는 너무 국부화된다는 것이므로, 몇 가지 피할 수 없는 미스매치가 증가될 수도 있다. 예를 들어, 두 개의 이미지들은 전체적으로 유사하지 않지만, 매칭이 성공하였고 두 개의 이미지들의 국부적 부분들이 정확하게 유사한 것으로 보여질 수 있으므로, 오류에 의해서 매칭이 수락되는 현상이 발생한다. 이러한 경우에 대하여, 유사도를 계산하는 것은 이전의 획득된 경사도 필드 및 방향 필드를 해당 이미지의 콘텐츠로서 취함으로써 수행될 수도 있다. 첫째로, 입력 지문 이미지와 지문 템플릿의 중첩하는 지역이 계산되고, 그러면 경사도 필드의 차분 및 중첩 지역의 방향 필드의 차분이 계산된다. 입력 이미지와 큰 접합 이미지 사이의 중첩 지역의 면적이 결정될 수 없기 때문에, 차분은 중첩하는 픽셀 개수를 분할하여 평균 차분을 획득하고, 이러한 평균 차분이 이미지 콘텐츠의 유사도의 기준으로서 취해질 수 있다.
중첩 지역의 유사도를 계산하는 제 3 계산 유닛(23)의 특정한 구현형태는 다음을 포함한다:
첫째로, 입력 지문을 등록(registration) 결과에 따라서 변환한다. 등록의 결과로서 강체(rigid body) 변환 행렬 H가 획득되고, 변환은 이러한 행렬에 따라서 입력 지문에 수행된다.
Figure pct00035
여기에서
Figure pct00036
는 입력 지문의 원래의 호모지니어스 좌표(homogeneous coordinate)이고,
Figure pct00037
는 입력 지문의 변환으로부터 획득된 호모지니어스 좌표이다.
입력 지문과 템플릿 지문 사이의 중첩 지역의 경사도 필드의 필드 유사도를 계산한다. 차분 동작이 변환에 의하여 획득된 새 지문과 템플릿 사이의 중첩 지역의 경사도 필드에 수행된다.
Figure pct00038
인데,
여기에서 S i t i 는 입력 지문과 템플릿 지문의 중첩 지역의 경사도 필드의 값을 각각 나타내고, n은 중첩 지역의 픽셀들의 개수를 나타낸다.
방향 필드의 유사도가 역치를 만족시키는지 여부를 결정하여, 만일 만족시키지 않는다면 현재의 매칭은 실패한 것이다; 만일 만족시킨다면, 입력 지문과 템플릿 지문 사이의 중첩 지역의 방향 필드의 유사도가 계산되는데, 이것은 경사도 필드의 유사도를 계산하는 것과 동일하다. 방향 필드의 유사도가 역치를 만족시키는지 여부가 결정되는데, 만일 만족시키지 않는다면 현재의 매칭은 실패한 것이고; 만일 만족시킨다면 경사도 필드와 방향 필드의 유사도 점수들이 합산되어 최종 매칭 유사도 점수를 얻는다. 이전의 이미지 등록 프로세스가 모든 특징점, 즉 매칭의 모든 가능성을 등록하는 것을 채용하기 때문에, 각각의 등록 기법에서 유사도 점수가 획득된다. 최고 유사도를 가지는 점수가 그 외의 등록 방식들에 따라서 결과적으로 획득될 수 있는데, 이것은 입력 지문 및 템플릿 지문의 최종 점수로서 취해질 수 있어서, 입력 지문 및 템플릿 지문이 정확하게 매칭될 수 있다고 결정할 수 있으며, 이에 따라서 지문 식별의 결과가 획득된다.
본 발명의 실시예 2 에서 제공되는 장치에 따르면, 특징점의 방향이 통계 정보를 사용하여 계산되고, 통계적 중요도를 가지는 기술자가 특징점에 추가되며, 매칭 프로세스 도중에, 기술자를 사용한 특징점의 유사도를 계산하는 것과 중첩 지역의 방향 필드 및 경사도 필드의 정보를 사용한 지역 매칭이 추가되고, 그러므로, 종래의 알고리즘에서의 지문 특징의 표현이 불안정하고 약하게 특정되는 것을 피할 수 있고, 지문 식별의 정확도가 개선된다.
앞선 설명들은 단지 본 발명의 바람직한 실시예들이고 본 발명을 한정하는 것이 아니며, 본 발명의 기술적 사상과 원리에 속하면서 이루어지는 임의의 변경, 균등물 치환, 개선 및 기타 등등은 모두 본 발명의 보호 범위에 포함된다.
산업상 이용가능성
본 발명의 실시예 1 에서 제공되는 방법에 따르면, 특징점의 방향이 통계 정보를 사용하여 계산되고, 통계적 중요도를 가지는 기술자가 특징점에 추가되며, 매칭 프로세스 도중에, 기술자를 사용한 특징점의 유사도를 계산하는 것과 중첩 지역의 방향 필드 및 경사도 필드의 정보를 사용한 지역 매칭이 추가되고, 그러므로, 종래의 알고리즘에서의 지문 특징의 표현이 불안정하고 약하게 특정되는 것을 피할 수 있고, 지문 식별의 정확도가 개선된다.

Claims (10)

  1. 지문 식별 방법으로서,
    통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하는 단계; 및
    지문 식별 결과를 획득하도록, 상기 추출된 특징점에 따라서 지문 매칭을 수행하는 단계를 포함하는, 지문 식별 방법.
  2. 제 1 항에 있어서,
    통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하는 상기 단계는,
    지역적 통계 정보(regional statistical information)를 사용하여 특징점의 방향을 계산하는 단계;
    상기 특징점의 방향에 따라, 통계적 중요도(statistical significance)를 가지는 기술자(descriptor)를 상기 특징점에 추가하는 단계; 및
    상기 특징점의 삼각형 꼭지점 방향을 추출하는 단계를 포함하는, 지문 식별 방법.
  3. 제 2 항에 있어서,
    지역적 통계 정보를 사용하여 특징점의 방향을 계산하는 상기 단계는,
    특정 특징점의 통계적 지역(statistical region)을 선택하는 단계;
    상기 통계적 지역 내의 모든 특징점의 경사도 방향(gradient direction)을 계산하고 가중치를 부여하는 단계;
    상기 통계적 지역 내의 모든 특징점의 상기 경사도 방향 및 가중치가 부여된 값에 따라, 상기 통계적 지역 내의 모든 특징점의 경사도 방향 분포에 대해 통계 연산(statistics)을 수행하는 단계;
    방향 분포 함수(direction distribution function)를 획득하도록, 상기 경사도 방향 분포에 따라 보간 연산을 수행하는 단계; 및
    상기 특징점의 방향을 획득하도록 상기 방향 분포 함수의 최대값을 찾아내고, 상기 입력 지문 이미지의 모든 특징점이 순회(traverse)할 때까지 특정 특징점의 통계적 지역을 선택하는 단계로 복귀하는 단계를 포함하는, 지문 식별 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    통계적 중요도를 가지는 기술자를 상기 특징점에 추가하는 상기 단계는,
    특정 특징점의 기술자 추출 지역(descriptor extracting region)을 선택하는 단계;
    상기 기술자 추출 지역 및 상기 특징점의 방향에 따라 지역적 4-사분면(four-quadrant)을 결정하는 단계;
    상기 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하여 보간 연산을 수행하는 단계; 및
    상기 보간 연산을 수행한 상기 지역적 4-사분면의 경사도 분포에 대해 통계 연산을 수행하고, 상기 특징점의 기술자를 형성하며, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 기술자 추출 지역을 선택하는 단계로 복귀하는 단계를 포함하는, 지문 식별 방법.
  5. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    추출된 특징점에 따라서 지문 매칭을 수행하는 상기 단계는,
    상기 특징점의 유사도를 계산하는 단계;
    상기 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 지문 이미지를 조절하는 단계;
    중첩 지역의 유사도를 계산하는 단계; 및
    상기 중첩 지역의 유사도가 사전설정된 제 2 역치를 만족시키면, 매칭에 성공했다고 결정하는 단계를 포함하는, 지문 식별 방법.
  6. 지문 식별 장치로서,
    통계적 방법을 사용하여 입력 지문 이미지의 특징점(minutia)을 추출하도록 구성되는 추출 모듈; 및
    지문 식별 결과를 획득하도록, 상기 추출된 특징점에 따라서 지문 매칭을 수행하도록 구성되는 매칭 모듈을 포함하는, 지문 식별 장치.
  7. 제 6 항에 있어서,
    상기 추출 모듈은,
    지역적 통계 정보를 사용하여 상기 특징점의 방향을 계산하도록 구성되는 제 1 계산 유닛;
    상기 특징점의 방향에 따라, 통계적 중요도를 가지는 기술자를 상기 특징점에 추가하도록 구성되는 기술자 유닛(descriptor unit); 및
    상기 특징점의 삼각형 꼭지점 방향을 추출하도록 구성되는 꼭지점 방향 추출 유닛을 포함하는, 지문 식별 장치.
  8. 제 7 항에 있어서,
    상기 제 1 계산 유닛은,
    특정 특징점의 통계적 지역을 선택하도록 구성되는 제 1 선택 서브유닛;
    상기 통계적 지역 내의 모든 특징점의 경사도 방향을 계산하고 가중치를 부여하도록 구성되는 계산 방향 서브유닛;
    상기 통계적 지역 내의 모든 특징점의 상기 경사도 방향 및 가중치가 부여된 값에 따라, 상기 통계적 지역 내의 모든 특징점의 경사도 방향 분포에 대해 통계 연산(statistics)을 수행하도록 구성되는 통계 서브유닛;
    방향 분포 함수를 획득하도록, 상기 경사도 방향 분포에 따라 보간 연산을 수행하도록 구성되는 제 1 보간 서브유닛; 및
    상기 특징점의 방향을 획득하도록 상기 방향 분포 함수의 최대값을 찾아내고, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 통계적 지역을 선택하는 단계로 복귀하도록 구성되는 제 1 사이클링 서브유닛을 포함하는, 지문 식별 장치.
  9. 제 6 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 기술자 유닛은,
    특정 특징점의 기술자 추출 지역을 선택하도록 구성되는 제 2 선택 서브유닛;
    상기 기술자 추출 지역 및 특징점의 방향에 따라 지역적 4-사분면(four-quadrant)을 결정하도록 구성되는 결정 서브유닛;
    상기 지역적 4-사분면의 모든 특징점의 경사도 방향을 계산하고, 보간 연산을 수행하도록 구성되는 제 2 보간 서브유닛; 및
    상기 보간 연산을 수행한 상기 지역적 4-사분면의 경사도 분포에 대해 통계 연산을 수행하고, 상기 특징점의 기술자를 형성하며, 상기 입력 지문 이미지의 모든 특징점이 순회할 때까지 특정 특징점의 기술자 추출 지역을 선택하는 단계로 복귀하도록 구성되는 제 2 사이클링 서브유닛을 포함하는, 지문 식별 장치.
  10. 제 6 항 내지 제 8 항 중 어느 한 항에 있어서,
    상기 매칭 모듈은,
    특징점의 유사도를 계산하도록 구성되는 제 2 계산 유닛;
    상기 특징점의 유사도가 사전설정된 제 1 역치를 만족시키면, 상기 지문 이미지를 조절하도록 구성되는 조절 유닛;
    중첩 지역의 유사도를 계산하도록 구성되는 제 3 계산 유닛; 및
    상기 중첩 지역의 유사도가 사전설정된 제 2 역치를 만족시키면, 매칭에 성공했다고 결정하도록 구성되는 결정 유닛을 포함하는, 지문 식별 장치.

KR1020167021522A 2014-08-14 2014-10-13 지문 식별 방법 및 장치 KR101882894B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201410401491.0A CN104156707B (zh) 2014-08-14 2014-08-14 指纹识别方法及其指纹识别装置
CN201410401491.0 2014-08-14
PCT/CN2014/088491 WO2016023264A1 (zh) 2014-08-14 2014-10-13 指纹识别方法及其指纹识别装置

Publications (2)

Publication Number Publication Date
KR20160106686A true KR20160106686A (ko) 2016-09-12
KR101882894B1 KR101882894B1 (ko) 2018-07-27

Family

ID=51882204

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167021522A KR101882894B1 (ko) 2014-08-14 2014-10-13 지문 식별 방법 및 장치

Country Status (5)

Country Link
US (1) US9824258B2 (ko)
EP (1) EP3091479B1 (ko)
KR (1) KR101882894B1 (ko)
CN (1) CN104156707B (ko)
WO (1) WO2016023264A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509943B2 (en) 2017-01-20 2019-12-17 Samsung Electronics Co., Ltd. Method of processing fingerprint information

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104156707B (zh) 2014-08-14 2017-09-22 深圳市汇顶科技股份有限公司 指纹识别方法及其指纹识别装置
CN104463129B (zh) * 2014-12-17 2018-03-02 浙江维尔科技股份有限公司 一种指纹注册方法及装置
CN105447437B (zh) * 2015-02-13 2017-05-03 比亚迪股份有限公司 指纹识别方法和装置
CN105205439B (zh) * 2015-02-13 2017-05-03 比亚迪股份有限公司 指纹重叠区域面积的计算方法及电子装置
US9971928B2 (en) * 2015-02-27 2018-05-15 Qualcomm Incorporated Fingerprint verification system
CN104951760B (zh) * 2015-06-12 2018-04-10 南京信息工程大学 一种基于方向场细节点描述子的指纹分类方法
CN105138959A (zh) * 2015-07-28 2015-12-09 苏州南光电子科技有限公司 一种基于图像处理的指纹匹配及控制方法
KR101639986B1 (ko) * 2015-10-07 2016-07-15 크루셜텍 (주) 지문 등록 및 인증 속도 향상을 위한 지문 정보 프로세싱 방법 및 그 장치
CN108491707B (zh) 2016-05-30 2020-01-14 Oppo广东移动通信有限公司 一种解锁控制方法及终端设备和介质产品
CN106056081B (zh) 2016-05-30 2018-03-27 广东欧珀移动通信有限公司 一种解锁控制方法及终端设备
CN107545217B (zh) * 2016-06-28 2021-07-30 比亚迪半导体股份有限公司 指纹匹配方法、指纹匹配装置和指纹识别芯片
CN106250876B (zh) * 2016-08-19 2019-10-22 深圳市金立通信设备有限公司 一种指纹识别方法及终端
CN106682622A (zh) * 2016-12-28 2017-05-17 大唐电信(成都)信息技术有限公司 一种基于ic卡的指纹识别算法
CN107392847B (zh) * 2017-06-07 2021-01-22 西安电子科技大学 一种基于细节点和距离图像的指纹图像拼接方法
CN107316027B (zh) * 2017-06-27 2020-05-15 倪燕平 一种共享设备系统及用于共享设备的指纹识别方法
CN109598182B (zh) * 2017-09-30 2020-12-25 比亚迪股份有限公司 指纹比对方法和装置
CN107977653B (zh) * 2017-12-22 2022-08-09 云南大学 复数滤波器及pi值相结合的多尺度奇异点检测方法
CN109145810A (zh) * 2018-08-17 2019-01-04 中控智慧科技股份有限公司 指纹细节点检测方法、装置、设备、系统及存储介质
CN109446954A (zh) * 2018-10-17 2019-03-08 长安大学 一种基于超短二值描述子的快速指纹匹配方法和装置
CN109829383B (zh) * 2018-12-29 2024-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置和计算机设备
CN111695386B (zh) * 2019-03-15 2024-04-26 虹软科技股份有限公司 一种指纹图像增强、指纹识别和应用程序启动方法
SE543565C2 (en) * 2019-11-06 2021-03-30 Precise Biometrics Ab A method and system for fingerprint verification and enrollment with secure storage of templates
CN112487867B (zh) * 2020-11-03 2024-04-12 杭州电子科技大学 基于增强三角剖分的视觉约束指纹识别方法
CN112906705B (zh) * 2021-03-26 2023-01-13 北京邮电大学 一种基于g-akaze的图像特征匹配算法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213395A (ja) * 2003-01-06 2004-07-29 Sony Corp 指紋照合装置および方法、記録媒体、並びに、プログラム
KR100617292B1 (ko) * 2003-11-14 2006-08-30 한국전자통신연구원 지문 인식 방법 및 그 장치
KR20060133676A (ko) * 2005-06-21 2006-12-27 포스데이타 주식회사 융선 방향 정보를 이용한 지문이미지의 특이점 및 중심점추출 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613014A (en) 1994-10-12 1997-03-18 Martin Marietta Corp. Fingerprint matching system
US6546122B1 (en) * 1999-07-29 2003-04-08 Veridicom, Inc. Method for combining fingerprint templates representing various sensed areas of a fingerprint to derive one fingerprint template representing the fingerprint
CN100385451C (zh) * 2005-08-11 2008-04-30 中国科学院自动化研究所 基于局部三角结构特征集的形变指纹识别方法
CN101030246A (zh) * 2007-04-09 2007-09-05 黄东运 一种指纹的识别方法
KR101430167B1 (ko) * 2007-12-14 2014-09-23 삼성전자주식회사 보안 시스템 및 그에 따른 보안 인증 방법, 상대 특징 정보생성 방법, 단말 시스템 및 스마트 카드
CN101499130B (zh) * 2008-01-30 2012-06-27 深圳市普罗巴克科技股份有限公司 一种指纹识别方法和指纹识别系统
CN101515286B (zh) * 2009-04-03 2012-04-11 东南大学 基于图像特征多级过滤的图像匹配方法
CN103020945B (zh) * 2011-09-21 2016-02-10 中国科学院电子学研究所 一种多源传感器的遥感图像配准方法
US8965069B2 (en) * 2011-09-30 2015-02-24 University Of Louisville Research Foundation, Inc. Three dimensional minutiae extraction in three dimensional scans
CN102663401B (zh) * 2012-04-18 2013-11-20 哈尔滨工程大学 一种图像特征提取和描述方法
GB2507539A (en) 2012-11-02 2014-05-07 Zwipe As Matching sets of minutiae using local neighbourhoods
CN103425986B (zh) * 2013-08-31 2016-08-10 西安电子科技大学 基于边缘邻域加权的乳腺肿块图像特征提取方法
CN104156707B (zh) 2014-08-14 2017-09-22 深圳市汇顶科技股份有限公司 指纹识别方法及其指纹识别装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213395A (ja) * 2003-01-06 2004-07-29 Sony Corp 指紋照合装置および方法、記録媒体、並びに、プログラム
KR100617292B1 (ko) * 2003-11-14 2006-08-30 한국전자통신연구원 지문 인식 방법 및 그 장치
KR20060133676A (ko) * 2005-06-21 2006-12-27 포스데이타 주식회사 융선 방향 정보를 이용한 지문이미지의 특이점 및 중심점추출 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509943B2 (en) 2017-01-20 2019-12-17 Samsung Electronics Co., Ltd. Method of processing fingerprint information

Also Published As

Publication number Publication date
EP3091479B1 (en) 2019-09-25
CN104156707A (zh) 2014-11-19
WO2016023264A1 (zh) 2016-02-18
KR101882894B1 (ko) 2018-07-27
US9824258B2 (en) 2017-11-21
EP3091479A1 (en) 2016-11-09
CN104156707B (zh) 2017-09-22
US20160314338A1 (en) 2016-10-27
EP3091479A4 (en) 2017-11-08

Similar Documents

Publication Publication Date Title
KR101882894B1 (ko) 지문 식별 방법 및 장치
US11837017B2 (en) System and method for face recognition based on dynamic updating of facial features
CN109767463B (zh) 一种三维点云自动配准方法
WO2020107717A1 (zh) 视觉显著性区域检测方法及装置
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN110070567B (zh) 一种地面激光点云配准方法
US20150347804A1 (en) Method and system for estimating fingerprint pose
CN104200461A (zh) 基于互信息图像选块和sift特征的遥感图像配准方法
CN101794372A (zh) 基于频域分析的步态特征表示及识别方法
US20180168446A1 (en) Method of detecting boundary between iris and sclera
CN108334875A (zh) 基于自适应多阈值的静脉特征提取方法
CN104867137A (zh) 一种基于改进ransac算法的图像配准方法
CN108256454B (zh) 一种基于cnn模型的训练方法、人脸姿态估测方法及装置
CN112001244B (zh) 计算机辅助虹膜比对方法及装置
Liang et al. An algorithm for concrete crack extraction and identification based on machine vision
CN116778537B (zh) 一种指背静脉图像识别过程中指甲的检测与处理方法
CN108665470B (zh) 一种交互式轮廓提取方法
CN109285204B (zh) 一种指纹与指静脉比特级融合的生物密钥生成方法
CN116385440A (zh) 一种弧形刀片视觉检测方法
CN114463534A (zh) 一种目标关键点检测方法、装置、设备及存储介质
CN111062343B (zh) 基于平均曲率和正态分布变换的三维人耳识别方法
CN114283157A (zh) 一种基于椭圆拟合的椭圆形物体分割方法
CN107506400A (zh) 一种基于认知特征和流形排序的图像检索方法
KR20220118650A (ko) 눈 특징점 기반의 실시간 시선 추적 장치 및 방법
KR100564762B1 (ko) 지문 정보를 이용한 사용자 인증방법 및 그 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant