KR100789607B1 - 지문 인식 장치 및 방법 - Google Patents

지문 인식 장치 및 방법 Download PDF

Info

Publication number
KR100789607B1
KR100789607B1 KR1020050054313A KR20050054313A KR100789607B1 KR 100789607 B1 KR100789607 B1 KR 100789607B1 KR 1020050054313 A KR1020050054313 A KR 1020050054313A KR 20050054313 A KR20050054313 A KR 20050054313A KR 100789607 B1 KR100789607 B1 KR 100789607B1
Authority
KR
South Korea
Prior art keywords
fingerprint
image
partial
fingerprint image
partial fingerprint
Prior art date
Application number
KR1020050054313A
Other languages
English (en)
Other versions
KR20060134547A (ko
Inventor
김택수
김호원
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050054313A priority Critical patent/KR100789607B1/ko
Priority to PCT/KR2006/002296 priority patent/WO2006135203A1/en
Priority to US11/424,477 priority patent/US20060285729A1/en
Publication of KR20060134547A publication Critical patent/KR20060134547A/ko
Application granted granted Critical
Publication of KR100789607B1 publication Critical patent/KR100789607B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

본 발명은 지문 인식 장치와 그 방법에 관한 것이다.
본 발명은 슬라이드 타입의 지문 센서로 읽어들인 부분 지문 영상들 간의 상대적인 슬라이딩 정보로서 속도정보와 방향정보를 구하고, 각 부분 지문 영상에서 ROI(Region Of Interest) 픽셀들을 찾아 지문 융선의 포함정도를 검사하며, 상기 슬라이딩 속도와 방향, 지문 융선의 포함 정도를 토대로 최적의 좌표계 이동 지점을 계산하고, 계산된 이동 지점을 상기 슬라이딩 속도와 방향에 적용하여 각 부분 지문 영상들을 영상 좌표계를 기준으로 정합(composition)함으로써 하나의 지문 영상을 구성하고 지문을 인식한다. 본 발명의 지문 인식장치와 그 방법에 따르면, 슬라이딩 시의 스큐드(skewed) 발생에도 불구하고 소기의 희망하는 지문 영상을 정확하게 구성함으로써 지문 정합 및 인식의 신뢰성을 높인다.
지문, 지문 센서, 지문 인식, 슬라이드 타입 지문 센서

Description

지문 인식 장치 및 방법{APPARATUS AND METHOD OF FINGERPRINT RECOGNITION}
도1은 슬라이드 방식의 지문 센서 외관 구조의 예를 나타탠 도면
도2는 슬라이드 방식의 지문 센서에 의해서 구해지는 국부적인 지문 영상의 예를 나타낸 도면
도3은 장축 방향의 슬라이딩시 지문 영상의 예를 나타낸 도면
도4는 장축 방향의 스큐드 슬라이딩시 지문 영상의 예를 나타낸 도면
도5는 스큐드 슬라이딩에서 정합된 지문 영상을 이동시키는 예를 나타낸 도면
도6은 본 발명에 따른 지문 인식 장치의 블럭 구성도
도7은 본 발명에 따른 국부 지문 영상의 예를 나타낸 도면
도8은 본 발명에 따른 지문 인식 방법의 플로우차트
<도면의 주요 부분에 대한 부호의 설명>
10: 지문 센서 20: 지문 영상 처리부
30: 슬라이딩 정보 추출부 40: 메모리부
50: 이동 계산부 60: 정합부
70: 지문 인식부 80: ROI 추출부
본 발명은 지문 인식 시스템에 관한 것이다.
보안 및 방범 시스템 기술에서 건조물의 출입자나 특정 기기의 사용자 등에 대한 정당성을 인증하기 위한 수단으로 생체 정보를 이용하는 방법이 사용된다. 인증을 위한 생체 정보로 홍채정보나 지문정보가 사용되며, 홍채 인식에 기반한 인증방법을 비롯하여 지문 인식에 기반한 인증방법에 이르기까지 다양한 생체인식 기반의 인증방법이 활용되고 있다. 이러한 생체 정보 기반의 인증 시스템은 건조물의 출입자에 대한 인증뿐만 아니라, 정보의 보호나 개인의 신분 증명을 위한 방법으로서, 기존의 패스워드 방식이나 ID 카드 방식 대신 사용된다.
지문 인식에 기반한 인증을 위한 시스템에서는 지문 정보를 획득하기 위한 수단과, 획득한 지문 정보에서 특징을 추출하는 수단, 그리고 추출된 특징을 분석하여 기 등록된 지문정보와의 비교를 통해 정당성을 인증하는 수단을 포함한다.
이와 같은 지문 인식 시스템은 인증을 위한 센서의 기구적 간결성과 인증 알고리즘의 인식 정밀도가 높다는 등의 장점이 있기 때문에 PDA나 휴대폰 등과 같은 이동 단말기에도 적용되어 사용되고 있다.
지문 정보의 획득을 위한 수단으로 지문 인식 센서가 사용된다. 지문 인식 센서는 광학식, 열감지식, 반도체식으로 분류되며, 이동 단말기의 경우에는 공간적 제약 때문에 주로 반도체식 센서가 장착되고 있다. 반도체식 센서는 공간형(area type)과 슬라이드형(slide type)으로 분류될 수 있다. 그렇지만 공간형 지문 인식 센서는 이 센서가 탑재되는 이동 단말기에서 차지하는 공간이 크기 때문에, 상대적으로 차지하는 공간이 작은 슬라이드형 지문 인식 센서가 주로 이동 단말기에 장착되어 효과를 발휘하게 된다.
슬라이드 방식의 지문 센서는 손가락을 슬라이딩(sliding)하는 방식으로 국부적인 지문 영상들을 읽어들인 후, 이 국부 지문 영상을 하나의 영상으로 정합(composition)하여 온전한 지문 영상을 구한 것을 바탕으로 지문 인식을 수행한다.
종래의 부분 지문 영상 정합 방법들은 지문 센서로부터 입력되는 부분 지문 영상을 기 정합된 지문 영상에 중첩(overlap)시켜 중첩된 영역의 상대적인 밝기값 매칭을 통해 기 정합된 지문 영상을 갱신(update)하는 순차적 정합(sequential composition) 방식을 택하고 있다.
그렇지만 슬라이딩 방식의 지문 인식 기법에서는 부분적인 지문 영상들을 구하고 이들을 정합하여 하나의 지문 영상을 구성하기 때문에, 지문 인식을 위하여 사용자가 지문 센서에 손가락을 대고 슬라이딩하는 동작의 형태에 따라 인식 성능과 결과가 크게 좌우된다. 특히, 슬라이딩 시 스큐드(skewed) 슬라이딩이 이루어 지는 경우에는 부분 지문 영상들을 하나의 영상으로 정합하기가 매우 어려워진다.
또한, 일반적으로 이동 단말기에 적용되는 지문 인식 시스템은 제한된 컴퓨팅 리소스 때문에 지문 인식을 위해서 입력되는 영상의 크기를 미리 정해진 일정 크기로 제한을 하고, 제한된 영상 크기에 최적화되어 동작을 해야 하기 때문에, 위와 같은 스큐드 슬라이딩이 발생하게 되는 경우에는 스큐드된 정도의 예측이 불가능하여 사용 메모리 공간에 대한 예측이 불가능하게 되고, 이에 따른 메모리 자원 사용의 효율성이 저하되는 문제점도 따른다.
본 발명의 목적은 부분 지문 영상의 정합(composition)을 기반으로 하여 지문을 인식하는 시스템에서, 지문 인식을 위한 슬라이딩 시, 스큐드 슬라이딩에도 불구하고 정확한 지문 인식을 수행할 수 있도록 한 지문 인식장치 및 그 방법을 제공하는데 있다.
본 발명의 다른 목적은 부분 지문 영상의 정합(composition)을 기반으로 하여 지문을 인식하는 시스템에서, 순차적 정합방법에서 사용자의 슬라이딩 습관에 의해 좌우되는 스큐드 발생 시, 부분 지문 영상들 간의 슬라이딩 속도와 방향을 검출한 정보를 토대로 하여 해당 부분 지문 영상을 최적 좌표계로 이동시켜 부분 지문 영상 정합을 이루도록 함으로써 정확한 지문 인식을 수행할 수 있도록 한 지문 인식장치 및 그 방법을 제공하는데 있다.
본 발명의 또 다른 목적은 부분 지문 영상의 정합(composition)을 기반으로 하여 지문을 인식하는 시스템에서, 지문 인식을 위한 슬라이딩 시, 인접하는 이웃 부분 지문 영상들 간의 상대적인 슬라이딩 속도와 방향을 구하고, 이를 토대로 부분 지문 영상의 정합을 위한 최적 좌표계를 계산하여 해당 부분 지문 영상들의 정합을 이루도록 함으로써, 정합과 인식에 소요되는 계산시간과 메모리 사용의 비효율성 문제를 해결함과 함께, 지문 융선 정보량을 극대화하고 스큐드 슬라이딩에 대한 지문 인식 성공률을 향상시킬 수 있도록 한 지문 인식장치 및 그 방법을 제공하는데 있다.
본 발명의 지문 인식장치는, 지문 영상 취득수단, 지문 영상 취득수단으로부터 입력되는 부분 지문 영상들 간의 상대적인 슬라이딩 속도와 방향을 계산하는 수단, 상기 지문 영상 취득수단으로부터 입력되는 부분 지문 영상의 지문 융선 정보를 추출하는 수단, 상기 부분 지문 영상들과 그 슬라이딩 정보 및 지문 융선 정보를 저장하는 수단, 상기 저장된 부분 지문 영상 및 그 슬라이딩 정보, 지문 융선 정보를 이용하여 각 부분 지문 영상의 이동 정도를 계산하는 수단, 상기 계산된 이동 정도를 이용하여 저장수단에 저장된 부분 지문 영상들을 하나의 지문 영상으로 정합하는 수단 및, 정합된 지문 영상을 토대로 지문 인식을 수행하는 수단을 포함하여 이루어지는 것을 특징으로 한다.
본 발명의 지문 인식방법은, 부분 지문 영상을 취득하는 단계, 상기 취득된 부분 지문 영상들 간의 상대적인 슬라이딩 속도 및 방향과 지문 융선 정보를 구하는 단계, 상기 속도 및 방향과 지문 융선 정보를 이용하여 부분 지문 영상 정합을 위한 이동 정도를 계산하는 단계, 상기 계산된 이동 정보를 반영하여 부분 지문 영상들을 정합하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
[실시예]
도1은 슬라이드 방식의 지문 센서 외관 구조의 예를 보여준다. 여기서는 이동 단말기(101)에 슬라이드 방식의 지문 센서(102)를 탑재한 구조를 보여주고 있다. 지문 센서(102)는 사용자가 손가락을 접촉시켜 슬라이딩시킴으로써 부분적이며 연속하는 부분 지문 영상을 취득한다.
도2는 슬라이드 방식의 지문 센서에 의해서 구해지는 국부적인 지문 영상의 예를 보여준다. 사용자가 엄지 손가락(103)을 지문 센서(102)에 대고 소정의 속도로 슬라이딩시켜 줌으로써 부분적이며 연속하는 지문 영상들(104~107)이 구해진다.
도2에서 보여지는 바와 같이, 사용자의 지문 영상은 부분적이며 인접하고 서로 연속하는 형태로 슬라이스되어 순차적으로 구해진다. 지문 센서(102)에서 읽어들인 부분 지문 영상들은 하나의 지문 영상으로 정합되며, 하나의 지문 영상으로 정합된 온전한 지문 영상이 기 등록된 지문 영상(데이터 베이스일 수도 있다)과 비교되어 해당 사용자의 정당성을 입증하는 수단으로 사용될 것이다.
본 발명에서는 이와 같이 순차 정합 방식을 기반으로 하는 슬라이딩 부분 지문 영상들을 슬라이딩 시의 스큐드(skewed)와 관계없이 정확하게 정합하고 인식하는 수단을 제공할 것이다.
도3 및 도4는 사용자의 슬라이딩 각도에 따른 정합 지문 영상의 예를 보여준다. 도3은 지문 센서의 장축 방향의 슬라이딩 지문 영상의 예를 보여주며, 도4는 스큐드 슬라이딩 시의 지문 영상의 예를 보여준다.
슬라이드 센서를 이용한 순차적 정합 방식의 경우, 도3 및 도4에 나타낸 바와 같이 장축 방향으로의 슬라이딩 외에 단축 방향으로의 슬라이딩이 존재하면 지문 센서로부터 얻어진 지문 정보의 최적화 표현에 제약이 따르게 된다. 순차적 정합 방식에서는 다음 슬라이딩 방향을 미리 알 수 없기 때문에 스큐드 슬라이딩이 발생할 경우 도4에 나타낸 바와 같이 최종적으로 정합된 지문 영상은 주어진 전체 지문 영상 크기를 넘어설 수 있다. 이러한 경우 전체 지문 영상 크기를 넘어선 부 분에 대한 지문 융선 정보는 최종 지문 영상에 표현할 수 없게 된다.
그러므로, 순차적 정합 방식에서 도4에 나타낸 바와 같이 스큐드 슬라이딩 영상의 정보량을 최대화하기 위해서는 결과적으로 정합된 지문 영상의 ROI(Region Of Interest) 픽셀들이 가지는 지문 융선에 대한 정보량과 ROI 자체의 위치 정보를 이용하여 정합된 지문 영상을 이동시켜야 한다. 본 발명은 이러한 최적 이동 정도의 계산과 그 것을 이용한 최적 이동을 통해서 지문 융선 정보량을 극대화함으로써 지문 인식의 성공률을 높일 수 있는 방법과 장치를 제공하는 것이다.
또한, 순차적 정합 방식에서 스큐드 슬라이딩이 발생할 경우 최종적으로 정합된 영상을 보고 정합된 영상의 최적 이동 지점을 정하게 될 것이다. 이렇게 함으로써, 스큐드된 정도의 예측 및 확인이 가능하게 될 것이고, 순차적 정합을 위해 사용될 메모리 공간에 대한 예측 가능성을 확보함으로써 메모리 사용의 효율성을 높이게 될 것이다. 이외에도 순차적 정합에 대한 계산 시간 외에 최종적으로 정합된 영상을 새로운 메모리 공간으로 이동시키기 위한 계산 시간의 추가 소요를 최소화하게 될 것이다.
특히, 제한된 컴퓨팅 리소스를 가지는 이동 단말에서 계산 시간과 메모리 사용량을 감축함으로써 지문인식 성능을 향상시킬 수 있게 하고, 슬라이드 센서를 이용한 스큐드 슬라이딩에서의 지문 영상 정합 문제를 해결한다.
이를 위하여, 본 발명에서는 입력되는 인접 부분 지문 영상들 간의 상대적인 슬라이딩 속도와 방향을 먼저 계산한다. 그리고, 각 부분 지문 영상에서 지문 융선 정보량을 구하기 위한 ROI 픽셀들을 찾아 지문 융선의 포함 정도를 추출 및 검사한 다. 이와 같이 얻어진 부분 지문 영상들 간의 슬라이딩 속도와 방향, 그리고 지문 융선 정보를 이용해서 최적의 좌표계 이동 지점(Biasing Point)를 계산한다.
마지막 단계로, 상기 계산된 이동 지점을 상기 슬라이딩 속도와 방향에 적용하여 각각의 부분 지문 영상들을 영상 좌표계를 기준으로 정합함으로써 하나의 완성된 지문 영상을 생성하고 이 것을 이용해서 지문 인식을 수행함으로써, 기존의 순차적 정합 방법에 비하여 적은 계산 시간과 메모리 사용으로 스큐드 슬라이딩에 대해 최적의 정합 영상을 생성하게 된다.
도5는 스큐드 슬라이딩에서 정합된 지문 영상을 이동시키는 예를 보여주고 있다. 이동 전의 지문 영상에서 심한 스큐드 슬라이딩이 발생하였고, 이에 따라 해당 지문 영상에서 구할 수 있는 융선 정보량이 손상되었음을 알 수 있다. 그렇지만, 후에 설명할 본 발명에 따른 슬라이딩 속도 및 방향 탐색정보, 부분 지문 영상에서의 ROI, 즉 지문 융선 정보량을 토대로 영상 좌표계를 기준으로 해당 부분 지문 영상들을 이동시킴으로써, 이동 후의 지문 영상에서 보여지는 바와 같이 지문 인식에 필요 충분한 양으로 지문 융선 정보량의 극대화를 기하게 된다.
도6은 본 발명에 따른 지문 인식 장치의 구성을 보여준다. 도6에 나타낸 지문 인식장치는 이동 단말기에 탑재될 수 있다. 본 발명에 따른 지문 인식장치는 지문 영상을 취득하기 위한 지문 센서(10), 상기 지문 센서(10)로 읽어들인 사용자의 부분 지문 영상들을 처리하기 위한 지문 영상 처리부(20), 상기 지문 영상 처리부(20)로부터의 부분 지문 영상들 간의 상대적인 슬라이딩 정보를 추출하기 위한 슬라이딩 정보 추출부(30) 및 부분 지문 영상에서 지문 융선 정보량을 추출하기 위한 ROI 추출부(80), 상기 부분 지문 영상들과 각각의 슬라이딩 정보 및 ROI 정보를 저장하는 메모리부(40), 상기 메모리부(40)에 저장된 부분 지문 영상들과 슬라이딩 정보, ROI 정보를 이용하여 지문 영상 정합을 위한 최적 이동 정도의 계산을 수행하는 이동 계산부(50), 상기 최적 이동 계산 결과를 바탕으로 부분 지문 영상들을 하나의 지문 영상으로 구성하는 정합부(60), 그리고 정합된 지문 영상을 이용해서 해당 지문 영상의 인식을 수행하는 지문 인식부(70)를 포함하여 구성된다.
지문 센서(10)는 슬라이드 타입의 반도체식 지문 센서가 사용된다. 슬라이드 타입의 반도체식 지문 센서는 사용자가 센서의 인식창에 손가락을 대고 소정의 속도로 슬라이딩시켜 줄 때 지문을 스캔하여 부분 지문 영상의 형태로 지문을 읽어들이게 된다.
지문 센서(10)에서 읽어들인 부분 지문 영상은 지문 영상 처리부(20)에 입력된다. 지문 영상 처리부(20)는 지문 센서(10)의 샘플링 구동을 수행함과 함께, 읽어들인 부분 지문 영상들을 디지털 신호로 변환하여 화소(pixel) 기반의 지문 인식 수행의 기반을 제공하게 된다. 또한, 지문 영상 처리부(20)는 후에 설명하겠지만 기준 영상과 목표 영상에 대하여 슬라이딩 속도와 방향에 대한 탐색 이전에 평균 밝기값이 같아지도록 영상의 전 영역에 대해서 동일한 이득(gain)을 적용하여 밝기값을 조정하는 처리도 수행한다.
슬라이딩 정보 추출부(30)는 부분 지문 영상들의 슬라이딩 정보로서 그 속도와 방향을 추출한다. 즉, 인접하며 연속되는 두 부분 지문 영상들 간의 상대적인 속도정보와 방향정보를 추출하게 된다.
ROI 추출부(80)는 입력된 부분 지문 영상에서 지문 융선이 존재하는 ROI 픽셀들을 계산한다. 이를 위하여, 부분 지문 영상을 일정한 크기의 블록으로 나누고 각 블록에서의 지문 융선의 분포를 보고 ROI 등록 여부를 결정하게 된다.
메모리부(40)는 순차적으로 입력되는 부분 지문 영상들과 각각의 부분 지문 영상들에 대한 슬라이딩 정보 및 상기 ROI 정보를 저장한다.
이동 계산부(50)는 사용자의 슬라이딩 동작이 마무리 되면, 상기 메모리부(40)에 저장된 부분 지문 영상들 간의 상대적인 슬라이딩 정보, ROI 정보를 이용하여 실제 영상 정합 과정없이 전체 부분 지문 영상이 정합되었을 때의 지문 영상의 ROI 정보와 지문 융선 정보량을 계산하고, 최적의 이동 정보를 얻어 낸다.
정합부(60)는 상기 최적 이동 정보를 토대로 각각의 부분 지문 영상들을 하나의 지문 영상으로 정합하며, 지문 인식부(70)는 정합된 최종 지문 영상을 이용해서 해당 사용자 지문에 대한 인식 및 인증 처리를 수행하게 된다.
도7은 본 발명에 따른 국부 지문 영상의 예를 보여준다. 도7에는 두 개의 부분 지문 영상이 표현되고 있는데, 이들은 서로 인접하며 연속하는 부분 지문 영상들이다. 제 1 부분 지문 영상(110)은 지문 센서(10)로부터 입력되는 현재의 부분 지문 영상이고, 제 2 부분 지문 영상(120)은 지문 센서(10)로부터 입력되었던 이전의 부분 지문 영상이다. 여기서, 현재의 부분 지문 영상과 이전의 부분 지문 영상이라 함은 다음의 두 가지 경우 중의 하나를 의미한다.
첫째는 실시간 스큐드 보정 및 정합이 이루어지는 경우에서는 현재 입력되는 부분 지문 영상이 현재의 부분 지문 영상이고, 이전 시점에서 이미 입력되어 있던 부분 지문 영상이 이전의 부분 지문 영상에 해당한다.
둘째는 스큐드 보정 및 정합이 모든 부분 지문 영상의 입력 완료 후에 일괄적으로 수행되는 경우, 여러 개의 부분 지문 영상들 중에서 선택된 하나의 부분 지문 영상을 현재의 부분 지문 영상으로 한다면, 그 선택된 부분 지문 영상 입력 직전의 시점에서 입력된 부분 지문 영상을 이전의 부분 지문 영상으로 하는 경우이다.
어느 경우나, 이후 설명될 부분 지문 영상의 스큐드 보정 기반의 정합 및 인식 방법이 동일하게 적용될 것이다.
제 1 부분 지문 영상(110)을 기준 영상으로 하면 제2 부분 지문 영상(120)은 목표 영상이 된다. 반대로, 제 2 부분 지문 영상(120)을 기준 영상으로 하면 제 1 부분 지문 영상(110)은 목표 영상이 된다. 본 발명에서는 부분 지문 영상들 간의 상대적인 슬라이딩 정보의 추출 및 보정을 위하여, 목표 영상(120) 내의 일부 영역을 목표-탐색 슬라이스(121)로, 기준 영상(110) 내의 일부 영역을 기준 슬라이스(111)로 각각 설정한다. 상기, 목표 영상-탐색 슬라이스, 기준 영상-기준 슬라이스를 이용하는 상세한 방법은 후에 설명될 것이다.
도8은 본 발명에 따른 지문 인식 방법의 플로우차트이다.
제 1 단계(S10)는 부분 지문 영상을 취득하는 단계이며, 제 2 단계(S20)는 입력된 부분 지문 영상이 최초 입력인가를 판단하는 단계이다. 제 3 단계(S30)는 입력된 부분 지문 영상이 두번째 이후의 부분 지문 영상일 경우 앞서 입력된 부분 지문 영상과의 상대적인 슬라이딩 정보를 추출하는 단계이다. 제 4 단계(S40)는 부 분 지문 영상에서 지문 융선 정보량을 구하기 위한 ROI를 추출하는 단계이고, 제 5 단계(S50)는 추출된 부분 지문 영상과 슬라이딩 정보 및 해당 ROI 정보를 메모리부(40)에 저장하는 단계이다. 제 6 단계(S60)는 계속하여 지문 센서 입력이 있는가를 판단하는 단계이며, 이 단계에서 더 이상의 지문 센서 입력이 없는 경우 제 7 단계(S70)로 이행하여, 상기 부분 지문 영상들간의 최적 이동 지점의 계산을 수행한다. 제 8 단계(S80)는 최적 이동 지점을 토대로 스큐드 보정된 정보를 반영하여, 각각의 부분 지문 영상들을 하나의 온전한 지문 영상으로 구성하는 지문 영상 정합 및 그 인식 단계이다.
상기 도8에서 표현된 지문 인식방법을 첨부된 도면을 참조하여 더욱 상세하게 살펴보면 다음과 같다.
사용자의 슬라이딩 동작이 시작되고, 지문 센서(10)로부터 최초의 부분 지문 영상 입력이 감지됨에 따라 본 발명에 따른 지문 인식 시스템이 동작한다.
부분 지문 영상의 획득은 지문 센서(10)로부터 입력을 감지하여 센서에서 슬라이딩이 감지될 경우 지문 센서(10)로부터 입력된 부분 지문 영상을 미리 지정된 메모리부(40)의 소정 영역에 저장함으로써 이루어진다.
최초의 부분 지문 영상이 입력될 경우에는 슬라이딩 정보를 추출할 수 없으므로 다음 부분 지문 영상 입력이 들어오기를 기다린다.
입력된 부분 지문 영상이 둘 이상일 경우 슬라이딩 정보 추출을 수행한다.
즉, 현재 입력된 부분 지문 영상 T(N)과 메모리에 저장된 바로 이전 단계에서 입력된 부분 지문 영상 T(N-1)을 읽어 들여 두 부분 지문 영상간의 상대적인 슬 라이딩 방향과 속도 정보를 추출한다. 슬라이딩 방향과 속도는 인접하는 두 부분 지문 영상들 간의 중첩 영상의 밝기값의 비교를 통해서 추출한다.
이를 위하여, 하나의 영상을 기준 영상으로 하고, 다른 하나의 영상을 목표 영상으로 하여, 기준 영상과 목표 영상간의 중첩 픽셀들의 밝기값의 차이가 최소가되는 지점을 찾는다. 여기서, 기준 영상과 목표 영상은 지문 센서(10)로부터 입력되는 연속적인 부분 지문 영상이며, 같은 영상 크기를 갖는다. 이러한 인접 부분 지문 영상들 간의 밝기값의 최소 지점 탐색을 효율적으로 수행하기 위하여, 목표 영상의 일부 특정 영역을 탐색 슬라이스로 설정하고, 기준 영상의 일부 특정 영역을 기준 슬라이스로 설정한다.
예를 들면, 도7에서 제 1 부분 지문 영상(110)의 특정 영상 영역을 기준 슬라이스(111)로 잡고, 제 2 부분 지문 영상(120)의 특정 영상 영역을 탐색 슬라이스(121)로 잡고, 제 2 부분 지문 영상(120)을 지문 센서(10)의 장축(X) 및 단축(Y) 방향으로 움직여 가면서, 기준 슬라이스(111)과 중첩되는 각 픽셀들의 밝기값을 구하고, 그 차이가 최소가 되는 지점을 탐색한다.
도6에 표현된 메모리부(40) 상의 부분 지문 영상을 예로 들어 설명하면, T(N-1)과 T(N)을 읽어들이고, T(N)을 장축(X) 및 단축(Y) 방향으로 움직여 가면서 T(N-1)의 기준 슬라이스와 중첩되는 각 픽셀들의 밝기값 차이가 최소가 되는 지점을 탐색하는 것이다. 즉, 목표 영상을 기준 영상에 중첩시켰을 때 기준 슬라이스 영상에 일대일 중첩된 목표 영상의 각 픽셀들과 기순 슬라이스 영상의 각 픽셀들 간의 밝기값 차이가 최소가 되는 지점을 탐색하는 것이다.
다음으로, 중첩 영역의 밝기값 차이가 최소가 될 때 기준 슬라이스 좌표계와 목표 슬라이스 좌표계 간의 상대적인 픽셀 이동 정도를 계산하여 슬라이딩의 속도와 방향을 계산한다. 즉, 기준 슬라이스 영상을 기준으로 중첩 영역의 밝기값 차이가 최소가 될 때의 목표 영상의 상대적인 장축(X) 및 단축(Y) 방향으로의 이동 정도를 픽셀 단위로 계산함으로써, 두 부분 지문 영상들 간의 상대적인 속도 및 방향을 구할 수 있는 것이다.
이와 같이 인접하는 두 부분 지문 영상은 공통된 중첩 영역을 가질 수도 있고, 사용자의 슬라이딩 속도가 지문 센서의 샘플링 속도보다 빠를 경우 중첩 영역을 가지지 않을 수도 있다.
그리고, 상기 기준 슬라이스 영상(111)의 위치와 크기는 가변적이거나 고정적일 수 있는데, 슬라이딩 방향과 속도를 구하는 도중에는 기준 영상(110)에서 위치와 크기가 고정되며, 이전 단계에서 얻은 부분 지문 영상의 슬라이딩 속도와 방향 정보에 따라 새로운 부분 지문 영상이 지문 센서(10)로부터 입력되었을 때는 그 위치와 크기를 가변적으로 조정한다. 이는, 새로운 부분 지문 영상에 대하여 더욱 적응적인 탐색과 슬라이딩 정보 추출을 효율적으로 하기 위함이다. 또한, 이와 같은 슬라이딩 속도와 방향에 대한 탐색 이전에, 기준 영상과 목표 영상의 평균 밝기값이 같아지도록 영상의 전 영역에 걸쳐서 동일한 이득(gain)을 적용하여 밝기값의 조정을 선행함으로써, 상기 영상 탐색의 효율과 정확도를 높여준다.
다음에는 ROI 추출부(80)에서, 상기 입력된 부분 지문 영상을 일정한 크기으 블록으로 나누고, 각각의 블록에서의 지문 융선의 분포를 보고 ROI 등록 여부를 결 정한다. 즉, 입력된 부분 지문 영상에서 지문 융선이 존재하는 ROI 픽셀들을 계산하는 것이다.
다음에는, 상기 계산된 슬라이딩 속도와 방향정보, 그리고 그 때의 밝기값 차이 정보와 함께 ROI 등록 정보를 입력된 부분 지문 영상과 동기화하여 메모리부(40)에 저장한다.
위와 같은 일련의 과정을 마지막 부분 지문 영상이 입력될 때까지 반복하여, 모든 부분 지문 영상들 T(1), T(2),...,T(N-1),T(N)과 그 부분 지문 영상들과 인접하는 지문 영상들 간의 상대적인 슬라이딩 정보인 속도와 방향을 추출하고, 지문 융선 정보량 계산을 위한 ROI 등록정보를 메모리부(40)에 저장한다.
사용자의 슬라이딩 동작이 마무리 되면, 이동 계산부(50)에서는 메모리부(40)에 저장된 각 부분 지문 영상의 슬라이딩 정보(속도, 방향)를 이용해서 실제 영상 정합 과정없이 전체 부분 지문 영상이 정합되었을 때의 지문 영상의 ROI 정보와 지문 융선 정보량을 계산한다. 즉, 실제 영상 정합 과정을 수행하기 전에 가상으로 정합될 영상의 ROI 위치 정보와 지문 융선 정보량을 계산하는 것이다. 여기서, 정합될 전체 지문 영상의 지문 융선 정보량은 각 부분 지문 영상 내에 포함된 ROI 픽셀들의 지문 융선 정보량을 각 부분 지문 영상의 상대적인 속도와 방향 정보를 이용하여 예측하며, 이러한 예측을 모든 부분 지문 영상들에 대해서 적용하여 누적하면 실제적인 정합 과정없이 전체 지문 영상의 지문 융선 정보량을 계산할 수 있다.
그리고, 상기 가상으로 얻어진 정합될 지문 영상의 ROI 위치 정보와 지문 융 선 정보량을 기반으로, 주어진 정합 영상 크기를 정합될 전체 지문 영상에 중첩하여 이동시키면서, 그 중첩된 영역의 정보량이 최대가 되는 지점을 찾는다. 상기 중첩된 영역의 정보량이 최대가 되는 지점과 주어진 정합 영상의 기준 위치와의 상대적인 이동 정도를 계산하여 도5에 나타낸 바와 같은 최적의 이동 정보(최적 이동 지점)를 구한다. 즉, 예측된 지문 융선 정보량과 ROI 픽셀들의 위치 정보를 기반으로, 주어진 정합 영상 크기를 정합될 전체 지문 영상에 중첩하여 이동시키면서, 중첩된 영역의 정보량이 최대가 되는 지점을 찾아, 주어진 정합 영상의 기준 위치와의 상대적 이동 정도를 계산하여 상기 정합될 전체 지문 영상의 이동 정도를 구하는 것이다. 여기서, 상대적 이동 정도는 지문 센서의 장축과 단축 방향을 모두 포함한다.
본 발명에서는 인접하는 두 부분 지문 영상들이 상대적인 슬라이딩 방향과 속도가 계산된 후에 바로 정합되지 않고, 정합될 전체 지문 영상의 지문 융선 정보량이 주어진 영상 크기에서 극대화 될 수 있도록, 정합될 전체 지문 영상의 이동 정도를 계산한 후, 최적의 지문 이동 정보와 슬라이딩 방향과 속도를 이용하여 일괄적으로 정합된다. 여기서, 상기 연속되는 모든 인접 부분 지문 영상들 간의 슬라이딩 방향과 속도 정보는 사용자의 슬라이딩 시작 시점에서 지문 센서(10)로부터 입력되는 부분 지문 영상에서 시작하여, 사용자의 슬라이딩 종료 시점에 지문 센서(10)로부터 입력되는 부분 지문 영상까지 순차적으로 발생하는 부분 지문 영상들의 조합에서 각각 구해지는 상대적인 슬라이딩 방향과 속도이다.
이와 같이 스큐드 슬라이딩에 대한 보정이 끝나면, 지문 영상 정합부(60)에 서는 상기 슬라이딩 속도와 방향 정보를 이용하여 메모리부(40)에 저장된 부분 지문 영상들을 하나의 지문 영상으로 정합한다. 이 때, 인접하는 부분 지문 영상의 슬라이딩 속도와 방향 정보를 이용하여, 이후에 정합될 부분 지문 영상과의 중첩되는 영역을 제외한 지문 영상 영역에 한하여 정합함으로써 불필요한 계산 시간을 줄이고 전체 정합 영상을 구성할 수 있다.
정합이 완료되면 지문 인식부(70)로 상기 정합된 영상, 슬라이딩 정보, 그리고 정합된 영상의 ROI 정보가 전송되며, 지문 인식부(70)는 하나의 온전한 지문 영상의 특징정보를 추출하고, 이 특징정보를 토대로 하여 해당 사용자의 진정성을 확인, 인증하게 된다.
본 발명은 슬라이드 방식의 지문 센서를 이용한 지문 인식에서, 사용자의 슬라이딩 정보를 입력된 부분 지문 영상 정보만을 이용하여 하나의 완성된 지문 영상으로 생성하며, 이 때 사용자의 스큐드 슬라이딩에서 발생할 수 있는 지문 융선 정보의 손실을 효과적으로 해결함으로써 지문 인식 성공률을 향상 시킬 수 있다.
또한 스큐드 슬라이딩에 대한 방향 정보를 지문 인식 알고리즘(지문 인식부)에 제공함으로써, 지문 인식 시간의 증가없이 스큐드 슬라이딩 시에도 안정적인 지문 인식 성능을 확보할 수 있고, 사용자의 다양한 슬라이딩 습관에 대처할 수 있다.
본 발명은 컴퓨팅 리소스가 제한된 이동 단말 환경에서 슬라이드 방식의 지문 센서로부터 입력되는 부분 지문 영상들을 정합 오류를 최소화하면서 인식할 수 있고, 슬라이딩 방식의 지문 센서를 탑재하였을 때 사용자의 슬라이딩 습관에 따른 스큐드 슬라이딩에도 불구하고 정확한 지문 정합 및 인식을 가능하게 한다.

Claims (22)

  1. 부분 지문 영상들 간의 이동 속도, 위치의 변화량을 이용하여 부분 지문 영상들을 하나의 지문 영상으로 정합하여 인식하는 장치에 있어서,
    부분 지문 영상을 취득하는 수단;
    취득된 현재의 부분 지문 영상과 직전의 부분 지문 영상 중의 어느 하나에 탐색 슬라이스를 설정하고, 다른 하나에 기준 슬라이스를 설정하여, 기준 슬라이스와 탐색 슬라이스 간의 중첩 영역의 밝기 값을 비교하여 부분 지문 영상들 간의 상대적인 슬라이딩 속도와 방향을 검출하는 수단;
    취득된 부분 지문 영상 내에 포함된 ROI(Region Of Interest) 픽셀들의 지문 융선 정보량(지문 융선을 포함하는 정도)을 각 부분 지문 영상의 상대적인 속도와 방향을 이용하여 예측하고, 모든 부분 지문 영상들에 대하여 상기 예측 결과를 누적하여 전체 지문 영상의 지문 융선 정보량을 추출하는 수단;
    취득된 부분 지문 영상, 슬라이딩 속도와 방향, 지문 융선 정보량을 저장하는 수단;
    지문 융선 정보량과 부분 지문 영상 내의 ROI 위치 정보를 기반으로, 주어진 정합 영상 크기를 정합될 전체 지문 영상에 중첩하여 그 중첩된 영역의 정보량이 최대가 되는 지점을 찾아 주어진 정합 영상의 기준 위치와의 상대적 이동 정도를 계산함으로써, 부분 지문 영상 정합을 위한 각 부분 지문 영상들의 최적 좌표계 이동 지점을 산출하는 수단;
    최적 좌표계 이동 지점을 스라이딩 속도와 방향에 적용하여 각 부분 지문 영상을 하나의 좌표계를 기준으로 정합하는 수단; 및,
    정합된 지문 영상을 토대로 인식을 수행하는 수단;
    을 포함하여 이루어지는 것을 특징으로 하는 지문 인식장치.
  2. 제 1 항에 있어서, 상기 슬라이딩 속도와 방향은, 기준 슬라이스를 기준으로 중첩 영역의 밝기 값 차이가 최소가 될 때의 탐색 슬라이스의 장축 및 단축 방향으로의 이동 정도를 픽셀 단위로 계산하여 구하는 것을 특징으로 하는 지문 인식장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 부분 지문 영상들 간의 이동 속도, 위치의 변화량을 이용하여 부분 지문 영상들을 하나의 지문 영상으로 정합하여 인식하는 방법에 있어서,
    부분 지문 영상을 취득하는 단계;
    취득된 현재의 부분 지문 영상과 직전의 부분 지문 영상 중의 어느 하나에 탐색 슬라이스를 설정하고, 다른 하나에 기준 슬라이스를 설정하여, 기준 슬라이스와 탐색 슬라이스 간의 중첩 영역의 밝기 값을 비교하여 부분 지문 영상들 간의 상대적인 슬라이딩 속도와 방향을 검출하는 단계;
    취득된 부분 지문 영상 내에 포함된 ROI(Region Of Interest) 픽셀들의 지문 융선 정보량(지문 융선을 포함하는 정도)을 각 부분 지문 영상의 상대적인 속도와 방향을 이용하여 예측하고, 모든 부분 지문 영상들에 대하여 상기 예측 결과를 누적하여 전체 지문 영상의 지문 융선 정보량을 추출하는 단계;
    지문 융선 정보량과 부분 지문 영상 내의 ROI 위치 정보를 기반으로, 주어진 정합 영상 크기를 정합될 전체 지문 영상에 중첩하여 그 중첩된 영역의 정보량이 최대가 되는 지점을 찾아 주어진 정합 영상의 기준 위치와의 상대적 이동 정도를 계산함으로써, 부분 지문 영상 정합을 위한 각 부분 지문 영상들의 최적 좌표계 이동 지점을 산출하는 단계;
    최적 좌표계 이동 지점을 스라이딩 속도와 방향에 적용하여 각 부분 지문 영상을 하나의 좌표계를 기준으로 정합하는 단계; 및,
    정합된 지문 영상을 토대로 인식을 수행하는 단계;
    를 포함하여 이루어지는 것을 특징으로 하는 지문 인식방법.
  8. 삭제
  9. 제 7 항에 있어서, 상기 슬라이딩 속도와 방향은 지문 센서의 장축 방향과 단축 방향 모두에 대하여 구하는 것을 특징으로 하는 지문 인식방법.
  10. 삭제
  11. 삭제
  12. 삭제
  13. 제 7 항에 있어서, 상기 기준 슬라이스를 기준으로 중첩 영역의 밝기값 차이가 최소가 될 때의 탐색 슬라이스의 상대적인 장축 및 단축 방향으로의 이동 정도를 픽셀 단위로 계산하여 슬라이딩 방향과 속도를 구하는 것을 특징으로 하는 지문 인식방법.
  14. 제 7 항에 있어서, 상기 기준 슬라이스는 기준 슬라이스가 설정된 부분 지문 영상 내에서 그 위치와 크기가 고정되거나, 그 위치와 크기가 가변적으로 조정되는 것을 특징으로 하는 지문 인식방법.
  15. 제 7 항에 있어서, 상기 기준 슬라이스와 탐색 슬라이스가 설정된 부분 지문 영상은 슬라이딩 속도와 방향의 탐색 이전에, 평균 밝기값이 동일해지도록 영상의 전 영역에 대해서 동일한 이득을 적용하여 밝기값을 조정하는 것을 특징으로 하는 지문 인식방법.
  16. 제 7 항에 있어서, 상기 지문 융선 정보량은 부분 지문 영상을 블록 단위로 분할하고, 각 블록에서의 지문 융선의 분포를 참조하여 추출하는 것을 특징으로 하는 지문 인식방법.
  17. 제 7 항에 있어서, 상기 부분 지문 영상의 정합은, 예측된 지문 융선 정보량과 ROI 픽셀들의 위치 정보를 기반으로, 주어진 정합 영상 크기를 정합될 전체 지문 영상에 중첩하여 이동시키면서, 중첩된 영역의 지문 융선 정보량이 최대가 되는 지점을 찾아, 주어진 정합 영상의 기준 위치와의 상대적 이동 정도를 계산한 후, 최적 좌표계 이동 지점과 슬라이딩 방향, 속도를 이용하여 일괄적으로 부분 지문 영상들을 정합하는 것을 특징으로 하는 지문 인식방법.
  18. 삭제
  19. 삭제
  20. 제 7 항에 있어서, 상기 각 부분 지문 영상은 인접하는 부분 지문 영상들의 슬라이딩 속도와 방향 정보를 이용하여, 이후에 정합될 부분 지문 영상과의 중첩 부분을 제외한 영역에 한해서 전체 정합 영상에 정합되는 것을 특징으로 하는 지문 인식 방법.
  21. 삭제
  22. 삭제
KR1020050054313A 2005-06-15 2005-06-23 지문 인식 장치 및 방법 KR100789607B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020050054313A KR100789607B1 (ko) 2005-06-23 2005-06-23 지문 인식 장치 및 방법
PCT/KR2006/002296 WO2006135203A1 (en) 2005-06-15 2006-06-15 Fingerprint recognition system and method
US11/424,477 US20060285729A1 (en) 2005-06-15 2006-06-15 Fingerprint recognition system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050054313A KR100789607B1 (ko) 2005-06-23 2005-06-23 지문 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20060134547A KR20060134547A (ko) 2006-12-28
KR100789607B1 true KR100789607B1 (ko) 2007-12-27

Family

ID=37812908

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050054313A KR100789607B1 (ko) 2005-06-15 2005-06-23 지문 인식 장치 및 방법

Country Status (1)

Country Link
KR (1) KR100789607B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183867A1 (ko) * 2016-04-18 2017-10-26 주식회사 유니온커뮤니티 생체의 심장 박동에 따른 지문 이미지의 미세한 밝기 변화에 기초하여 위조지문을 판별할 수 있는 위조지문 판별 장치 및 그 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202215289A (zh) * 2020-10-14 2022-04-16 王建華 用於指紋圖像識別的方法、設備及計算機可讀介質
CN114578989A (zh) * 2022-01-18 2022-06-03 清华大学 基于指纹变形的人机交互方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216116A (ja) 2001-01-16 2002-08-02 Nec Soft Ltd 指紋画像の入力方法、指紋画像の入力装置、プログラム、携帯型情報機器
KR20050010102A (ko) * 2003-07-18 2005-01-27 학교법인연세대학교 손가락의 슬라이딩/롤링에 따른 지문영상획득방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216116A (ja) 2001-01-16 2002-08-02 Nec Soft Ltd 指紋画像の入力方法、指紋画像の入力装置、プログラム、携帯型情報機器
KR20050010102A (ko) * 2003-07-18 2005-01-27 학교법인연세대학교 손가락의 슬라이딩/롤링에 따른 지문영상획득방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017183867A1 (ko) * 2016-04-18 2017-10-26 주식회사 유니온커뮤니티 생체의 심장 박동에 따른 지문 이미지의 미세한 밝기 변화에 기초하여 위조지문을 판별할 수 있는 위조지문 판별 장치 및 그 방법

Also Published As

Publication number Publication date
KR20060134547A (ko) 2006-12-28

Similar Documents

Publication Publication Date Title
US20060285729A1 (en) Fingerprint recognition system and method
JP5574515B2 (ja) 生体認証デバイス及び方法
US8699763B2 (en) Biometric information processing device, biometric information processing method and computer-readable storage medium storing a biometric information processing program
US20100158319A1 (en) Method and apparatus for fake-face detection using range information
US8634604B2 (en) Method and system for enhanced image alignment
KR101632912B1 (ko) 지문 인식을 이용한 사용자 인증 방법
US7035444B2 (en) System for fingerprint authentication based of ridge shape
KR100905675B1 (ko) 지문인식 장치 및 방법
JP5040835B2 (ja) 生体情報読取装置、生体情報読取方法および生体情報読取プログラム
CN106940802B (zh) 用于使用生物测量学信息的认证的方法和设备
KR100789607B1 (ko) 지문 인식 장치 및 방법
US20170220845A1 (en) Method and fingerprint sensing system for analyzing biometric measurements of a user
US10430629B2 (en) Non-transitory computer-readable medium storing information processing program and information processing device
KR100397916B1 (ko) 지문 등록 및 인증방법
KR100789608B1 (ko) 지문 인식 장치 및 방법
KR100745338B1 (ko) 지문 인식 장치 및 방법
JP5861530B2 (ja) 利用者検知装置、方法、及びプログラム
US8358803B2 (en) Navigation using fourier phase technique
KR20170041593A (ko) 지문 등록 및 인증 속도 향상을 위한 방법 및 장치
JP2818317B2 (ja) 指紋登録照合方法
FR3127307B1 (fr) Enrôlement digital avec vérification
JP2003162721A (ja) 指紋認証方法および装置
JPH06119432A (ja) ムービング・ウィンドウ指紋照合方法及びその装置
JP2003271964A (ja) 指紋認証方法及び装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20100929

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee