KR20220050125A - 비접촉 지문 이미지의 슬랩 분할 - Google Patents

비접촉 지문 이미지의 슬랩 분할 Download PDF

Info

Publication number
KR20220050125A
KR20220050125A KR1020227000049A KR20227000049A KR20220050125A KR 20220050125 A KR20220050125 A KR 20220050125A KR 1020227000049 A KR1020227000049 A KR 1020227000049A KR 20227000049 A KR20227000049 A KR 20227000049A KR 20220050125 A KR20220050125 A KR 20220050125A
Authority
KR
South Korea
Prior art keywords
finger
slab
image
individual
mask
Prior art date
Application number
KR1020227000049A
Other languages
English (en)
Inventor
이 딩
앤 진송 왕
송타오 레스터 리
Original Assignee
탈레스 Dis 프랑스 Sas
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탈레스 Dis 프랑스 Sas filed Critical 탈레스 Dis 프랑스 Sas
Publication of KR20220050125A publication Critical patent/KR20220050125A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1312Sensors therefor direct reading, e.g. contactless acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 슬랩 이미지를 분할하고 정확하게 라벨링된 개별 지문을 생성하기 위한 방법과 관련되며, 상기 방법은 다음의 단계를 포함한다: 제어된 조명 조건 하에서 비접촉식 지문 판독기로부터 입력 이미지를 수신하는 단계, 입력 이미지 내 전경 슬랩 마스크로서 수신된 이미지의 변화량을 계산하여 슬랩 영역을 추정하는 단계, 각각의 손가락의 경계부를 찾음으로써 개별 손가락을 식별하는 단계, 복수의 손가락 및 기하학적 제한부를 검증하는 단계, 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하는 단계, 포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역을 식별하는 단계, 및 개별 지문을 출력하는 단계.

Description

비접촉 지문 이미지의 슬랩 분할
본 발명은 비접촉 지문 이미지를 위한 슬랩 분할(slap segmentation)의 방법 및 장치와 관련된다.
더 구체적으로, 비접촉 지문 판독기에 의해 비접촉 지문 이미지가 캡처된다. 비접촉식 지문 판독기가 최근 몇 년 동안 등장하고 있다. 장치에 닿는 지문만 인식하는 기존의 라이브스캔 지문 판독기와 달리 비접촉식 지문 판독기는 장치에 제공된 모든 손가락/슬랩/손바닥의 사진을 캡처한다. 각각의 개별 지문의 위치와 유효 영역을 식별하기 위해 캡처된 슬랩 이미지가 자동으로 분할될 필요가 있다.
생체 데이터, 가령, 지문이 데이터 보안, 국경 통제, 법 집행, 금융, 의료 등의 영역에서 점점 더 중요한 역할을 하고 있다. AFIS(Automatic Fingerprint Identification System)에서 식별은 지문의 고유한 패턴, 즉, 손가락 끝의 표면 상의 융기와 골에 의존한다. 기존의 지문 이미지는 10-인쇄 카드 상의 잉크 인상에서 얻거나 터치-기반 지문 캡처 장치, 가령, 광학 판독기 및 정전식 판독기에 의해 캡처된다. 최근에는, 보다 빠른 지문 획득, 등록 및 매칭에 대한 요구가 증가함에 따라, 대상자의 손가락과 장치가 물리적으로 접촉하지 않고도, 지문 이미지가 편리하게 캡처될 수 있게 하는 비접촉식 지문 판독기가 개발되었다. 방식의 변경에도 불구하고, 접촉식 지문 획득과 비접촉식 지문 획득은 캡처된 이미지로부터, 구체적으로, 일반적으로 4개의 손가락, 즉, 검지, 중지, 약지, 소지의 좌/우 슬랩을 배치하거나 잉크가 있는 카드나 지문 판독기 상에 두 엄지 모두를 배치함으로써 동시에 캡처된 복수의 플랫 지문을 지칭하는 슬랩 이미지로부터, 원하는 개별 지문을 어떻게 정확히 분할할 것인가라는 한 가지 핵심 단계를 공유한다.
잉크가 있는 카드와 접촉식 지문 판독기의 특성을 고려할 때, 기존 접촉식 슬랩 분할 방식은 주로 형태, 질감, 배향 및 기하학적 제약을 사용하여 각각의 지문을 식별할 수 있다.
접촉 지문 이미지를 분할하는 이러한 방법은 다음 문헌에서 발견된다: US 7,072,496 B2, Craig I.Watson, "Slap Fingerprint Segmentation Evaluation II - Procedures and Results". NIST Interagency/Internal Report (NISTIR) - 7553, 2009, Brad Ulery, et al., "Slap Fingerprint Segmentation Evaluation 2004 Analysis Report". NIST Interagency/Internal Report (NISTIR) - 7209, 2005, Sklansky, J., "Finding the Convex Hull of a Simple Polygon". Pattern Recognition Letters, Vol 1 Issue 2, pp 79-83, 1982, Christian Wolf, et al.. "Text Localization, Enhancement and Binarization in Multimedia Documents". International Conference on Pattern Recognition, volume 4, pages 1037-1040, 2002, Yong-Liang Zhang, Gang Xiao, Yan-Miao Li, Hong-Tao Wu, and Ya-Ping Huang. 2010. Slap Fingerprint Segmentation for Live-Scan Devices and Ten-Print Cards. In Proceedings of the 2010 20th International Conference on Pattern Recognition (ICPR '10).
비접촉식 지문 판독기는 개방 공간에서 대상과 어떠한 접촉도 없이 고해상도 카메라를 통해 슬랩 이미지(slap image)를 캡처하며, 이는 훨씬 빠르고 훨씬 편리하지만 대상의 방식 변경으로 인해 많은 경우에서 접촉식 지문 이미지에 대한 종래의 슬랩 분할 알고리즘을 실패하게 만든다.
실제로, 비접촉식 판독기의 슬랩 이미지에서 손가락이 서로 명확하게 분리되지 않는 경우가 매우 일반적이다. 이는 서로 다른 손가락의 지문이 서로 잘 분리된다는 강력한 가정하에 개발된 터치 기반 장치의 전통적인 슬랩 분할 알고리즘에서 가장 어려운 시나리오이다.
또한 안내의 유무에 관계없이, 이미징될 대상인 슬랩이 다양한 포즈로 장치 위에 배치되어 캡처된 이미지에서 슬랩의 외관, 가령, 회전, 방향 및 위치가 극적으로 변경될 수 있다.
마지막으로, 터치 기반의 슬랩 이미지에 비해, 비접촉식 이미지는 전체 슬랩을 포착하는데, 이는, 손바닥 위쪽이 지문과 유사한 패턴을 보일 수 있기 때문에 질감 정보에 의존하는 전통적인 방법에서 문제가 된다.
따라서, 다양한 손 형태, 손 포즈, 대상의 거리에 적응할 것으로 예상되는 비접촉식 지문 판독기로 캡처된 슬랩 이미지에서 개별 지문 각각을 정확하게 식별하고 분할할 수 있는 새로운 방법 및 장치를 설계하는 것이 바람직하다.
또한, 추가의 대안적이고 유리한 솔루션이 해당 기술 분야에서 바람직할 것이다.
본 발명은 비접촉식으로 획득된 슬랩 이미지에 적용 가능한 분할 방법을 제안하는 것을 목적으로 삼는다.
본 발명은, 가장 넓은 의미로, 슬랩 이미지를 분할하고 정확하게 라벨링된 개별 지문을 생성하기 위한 방법과 관련되며, 상기 방법은 다음의 단계를 포함한다:
제어된 조명 조건 하에서 비접촉식 지문 판독기로부터 입력 이미지를 수신하는 단계,
입력 이미지 내 전경 슬랩 마스크로서 수신된 이미지의 변화량을 계산하여 슬랩 영역을 추정하는 단계,
각각의 손가락의 경계부를 찾음으로써 개별 손가락을 식별하는 단계,
복수의 손가락 및 기하학적 제한부를 검증하는 단계,
형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하는 단계,
포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역을 식별하는 단계,
개별 지문을 출력하는 단계.
본 발명은 비접촉식 지문 식별 시스템의 하드웨어 기능과 소프트웨어 기능 모두를 결합하는 효율적인 고유한 솔루션이다. 본 발명에서는 변화량(variance)을 계산하기 위해 단지 두 개의 이미지만 필요하고 문제를 해결하기 위해 최소한의 하드웨어 설정만 필요하다.
바람직하게는, 하드웨어 측면에서, 제어된 조명 조건 하에서 획득된 이미지는 섬광 조명이 있을 때와 없을 때 획득된 이미지이다.
그런 다음 방법의 소프트웨어 부분이 동일한 대상의 두 개의 슬랩 이미지(slap image)를 수신하는데, 즉, 하나는 섬광 조명이 켜졌을 때 이미지이고, 다른 하나는 섬광 조명이 꺼졌을 때의 이미지이며, 그런 다음 장치가 캡처된 이미지 및 처리된 개별 지문 이미지를 전송, 처리, 및 저장할 수 있다. 소프트웨어 측면에서, 제안된 알고리즘은 각각의 개별 지문의 위치를 적응적으로 추정할 수 있고, 그런 다음 이들의 위치 정보를 생성할 수 있다.
바람직한 실시예에 따르면, 개별 손가락 식별 단계는 수학식 Thres(x,y)= α(x,y)+pα(x,y)(β(x,y)-q)에 따라 - α(x,y)는 로컬 다이나믹 인수이고, β(x,y)는 전역 다이나믹 인수이며, p,q는 지정된 파라미터임 - , 전역 다이나믹과 로컬 다이나믹을 모두 계산함으로써 다이나믹 레인지를 계산함으로써, 전경 슬랩 마스크에 의해 조명된 원본 이미지에 적용되는 적응적 이진화 하위단계를 포함하고, 이 적응적 이진화 하위단계는 개별 손가락의 마스크를 출력한다.
이러한 적응적 임계값(adaptive threshold)을 사용함으로써 개별 손가락의 검출이 자동화될 수 있다.
본 발명의 바람직한 특징에 따라, 형태 및 기하학적 정보에 기초한 포즈 및 배향의 계산 단계는 손가락의 손가락 끝점을 검출하기 위한 볼록성 체크(convexity check)하는 단계를 포함한다.
이는 슬랩의 배향을 결정하는 단순한 방법이다.
본 발명의 바람직한 실시예에 따르면, 형태 및 기하학적 정보에 기초한 포즈 및 배향의 계산 단계는 각각의 개별 손가락 마스크의 중앙선을 정의하는 하위단계, 손가락 이미지 상의 손가락 중앙선의 방향을 따른 경사(gradient)를 계산하는 하위단계, 손가락 끝점까지 특정 거리 내 최대 경사를 갖는 수직 선을 찾음으로써 제1 손가락 결합부를 검출하는 하위단계를 포함하고, 손가락 끝 마스크가 상기 제1 손가락 결합부와 손가락 끝점 사이에 뻗어 있는 영역에 의해 정의된다.
경사를 사용함으로써, 캡처된 손가락의 상이한 기하학적 특징부의 위치를 자동으로 찾을 수 있다.
본 발명은 또한, 상이한 조명 상태를 가지며, 사용자의 지문의 획득을 위한 상이한 조명 상태 하에서 판독기 근처의 비접촉 위치에서 슬랩/손가락의 이미지를 획득하도록 구성된 적어도 비접촉식 지문 판독기에 연결된 비접촉식으로 획득된 지문 이미지 프로세서와 관련되며, 상기 프로세서는 제어되는 조명 조건 하에서 비접촉식 지문 판독기로부터 수신된 슬랩 이미지를 분할하고 정확하게 라벨링된 개별 지문을 생성하도록 구성되고, 상기 프로세서는 수신된 이미지에서 변화량을 계산하여 슬랩 영역을 입력 이미지 내 전경 슬랩 마스크로서 추정하고, 각각의 손가락의 경계부를 찾음으로써 개별 손가락을 식별하며, 복수의 손가락 및 기하학적 제한부를 검증하고, 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하고, 포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역을 식별하며, 개별 지문을 출력하도록 구성된다.
이러한 프로세서는 비접촉식 지문 판독기로부터 수신된 슬랩 이미지를 분할하기 위한 본 발명의 방법을 구현할 수 있게 한다.
바람직하게는, 프로세서는, 수학식 Thres(x,y)= α(x,y)+pα(x,y)(β(x,y)-q)에 따라 - α(x,y)는 로컬 다이나믹 인수이고, β(x,y)는 전역 다이나믹 인수이며, p,q는 지정된 파라미터임 - , 전역 다이나믹과 로컬 다이나믹 모두의 다이나믹 레인지를 계산함으로써, 전경 슬랩 마스크에 의해 조명된 원본 이미지에 적용된 적응적 이진화를 수행하도록 구성되며, 이 적응적 이진화는 개별 손가락의 마스크를 출력한다.
또한 바람직하게는, 프로세서는 손가락의 손가락 끝점을 검출하기 위해 볼록성 체크를 이용해 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하도록 구성된다.
바람직한 실시예에 따르면, 프로세서는, 각각의 개별 손가락 마스크의 중앙선을 정의하고, 손가락 이미지 상의 손가락 중앙선의 방향에 따른 경사를 계산하며, 손가락 끝점까지의 특정 거리 내 최대 경사를 갖는 수직선을 찾음으로써 제1 손가락 결합부를 검출하는 것에 의해, 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하도록 구성되고, 손가락 끝 마스크가 상기 제1 손가락 결합부와 손가락 끝점 사이에 뻗어 있는 영역에 의해 정의된다.
상기 목적 및 관련 목적을 이루기 위해, 하나 이상의 실시예는 청구항에 완전히 기재되고 특히 지시된 특징들을 포함한다.
이하의 설명 및 첨부된 도면은 특정 예시적 양태를 상세히 제공하며 실시예의 원리가 채용될 수 있는 다양한 방식 중 일부만 나타낸다. 그 밖의 다른 이점 및 신규한 특징은 도면과 함께 고려될 때 다음의 상세한 설명으로부터 명백해질 것이고 개시된 실시예는 이러한 모든 양태 및 그 등가물을 포함하도록 의도된다.
도 1은 비접촉식 지문 분할 시스템의 개략도를 나타낸다.
도 2는 이미지 처리 작업 흐름을 나타내는 흐름도를 보여준다.
도 3은 전경 슬랩 마스크 추정을 예시하는 흐름도를 보여준다.
도 4는 전경 마스크 추정의 예를 보여준다.
도 5는 개별 손가락 식별을 예시하는 흐름도를 보여준다.
도 6은 손가락 간격 식별을 예시한다.
도 7은 개별 손가락 식별을 예시한다.
도 8은 지문 포즈 추정 및 손가락 끝 식별을 예시하는 흐름도를 보여준다.
도 9는 개별 손가락 끝 식별을 예시한다.
도 10은 최종 지문 생성 프로세스를 예시하는 흐름도를 도시한다.
도 11은 최종 개별 지문 분할의 예를 보여준다.
본 발명의 보다 완전한 이해를 위해, 본 발명은 이제 첨부된 도면을 참조하여 상세히 설명될 것이다. 상세한 설명은 본 발명의 바람직한 실시예로서 고려되는 것을 예시하고 설명할 것이다. 물론, 형태 또는 세부사항의 다양한 수정 및 변경이 본 발명의 정신을 벗어나지 않고 용이하게 이루어질 수 있음을 이해해야 한다. 따라서, 본 발명은 여기에 도시되고 설명된 정확한 형태 및 세부 사항으로 제한되지 않으며, 여기에 개시되고 이하 청구되는 바와 같은 본 발명의 전체보다 적은 것으로도 제한되지 않을 수 있다. 동일한 요소는 다른 도면에서 동일한 참조로 지정되었다. 명확성을 위해, 본 발명의 이해에 유용한 요소 및 단계만이 도면에 도시되었고 설명될 것이다.
본 발명은 소프트웨어 시스템 또는 하드웨어 시스템을 사용하여 구현될 수 있다. 도 1은 CPU, FPGA, DSP 또는 GPU를 포함하지만 이에 제한되지 않는 적어도 제어기(16)를 포함하는 제안된 비접촉식 지문 분할 시스템(1)의 개략도이다. 제어기는 모든 다른 모듈, 즉, 이미지 I/O(11 및 14), 프로세서(12)에 의한 처리, 및 이미지 메모리(13) 내 저장을 관리한다.
I/O 포트(11 및 14)의 세트의 비제한적 예를 들면 USB 2/3, Firewire, Thunderbolt, SATA, DMA, 이더넷 또는 인터넷이 있다. 이들 포트(11 및 14)는 비접촉식 지문 판독기(10)로부터 입력 슬랩 이미지를 취하고, 출력 지문(15)을 다른 장치/시스템으로 전송한다.
이미지 프로세서(12)는 임의의 프로그래밍 언어, 비제한적 예를 들면, C/C++, JAVA, Python, Assembly 또는 JavaScript에 의해 구현될 수 있다. 이미지 프로세서(12) 또는 처리 모듈은 본 발명에 따른 슬랩 이미지로부터 개별 지문 ROI(15)를 식별하고 추출한다.
이미지 메모리(13)는 RAM, ROM, SSD, 하드 드라이브 또는 NAS를 포함하지만 이에 국한되지 않는다. 이미지 메모리(13) 또는 저장 모듈은 중간 결과 및 최종 출력 지문을 저장한다.
도 2는 본 발명에서 제안된 이미지 처리 작업 흐름, 즉 슬랩 이미지를 분할하고 정확하게 라벨링되는 개별 지문 ROI를 생성하는 방법을 예시하는 흐름도이다. 제1 단계(S0)에서, 제어된 조명 조건 하에서 비접촉식 지문 판독기(10)로부터 슬랩 이미지가 수신된다. 입력 이미지 내 슬랩 영역은 초기에 단계 S1에서 수신된 이미지의 변화량을 계산함으로써 전경 슬랩 마스크로서 추정됩니다. 이후, 단계 S2에서는 각각의 손가락의 경계부를 찾음으로써 개별 손가락이 식별되고, 그 동안, 다수의 손가락 및 기하학적 제한부가 검증된다. 다음 단계 S3에서는, 각각의 손가락에 대해, 형태 및 기하학적 정보를 기초로 포즈 및 배향이 계산된다. 단계 S4에서, 포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역이 식별된다. 그런 다음 개별 지문 ROI(15)이 출력된다. 손가락 끝 영역은 회전된 사각형 ROI로 설명되며, 분할된 지문 이미지와 사각형 ROI의 좌표는 모두 저장소에 저장되거나 다른 시스템으로 전송된다.
도 3은 도 2의 단계 S1에서 설명된 바와 같이 슬랩/전경 영역 식별을 위한 프로세스를 예시하는 흐름도이다. 비접촉식 지문 판독기는 단계 I0에서 예를 들어 섬광 조명을 사용하여 제어된 조명 조건에서 슬랩 이미지를 캡처한다. 특정 조명 조건 하에서, 전경 슬랩 영역은 배경 영역과 비교하여 상이한 이미지에서 더 큰 조명 변화량을 보일 것이다. 이들 발견을 기반으로, 이미지의 단계 I1에서 변화량이 계산되고 상이한 이미지 영역에 대한 적응 임계값을 설정한다.
그런 다음 임계값보다 큰 변화량을 갖는 픽셀을 전경 슬랩 영역으로, 다른 픽셀을 배경 영역으로 둔다. 슬랩 마스크의 픽셀 값 M(x,y)은 다음 수학식으로 결정할 수 있다:
Figure pct00001
, 여기서 ID(x,y)는 픽셀 변화량이고, T(x,y) 는 픽셀 (x,y)에 대한 적응적 임계값이다. 이와 같이 단계 I2에서 전경 슬랩 영역의 초기 슬랩 마스크가 획득된다. 그러나 초기 슬랩 마스크는 불균일한 조명 조건과 노이즈 배경으로 인해 잘못된 추정을 많이 포함할 수 있다. 따라서 모폴로지 연산(morphology operation)이 단계 I3에서 적용된다. 이는 섬광이 켜진 상태에서 슬랩 이미지(IF)로부터 추출된 도 4에 도시된 바와 같은 정확한 슬랩 영역 마스크(SM)를 얻기 위해 구멍을 채우고 초기 마스크에서 잘못된 노이즈 영역을 제거하기 위한 개폐를 포함한다.
도 5는 단일 손가락 식별을 위한 프로세스를 예시하는 흐름도이다. 비접촉식 지문 판독기(10)의 장점 중 하나로서, 장치에 어떠한 물리적인 접촉 없이 슬랩이 판독기 위에 위치할 수 있으며, 이는 슬랩 이미지 획득 속도 및 편의성을 향상시키는 데 도움이 된다. 그러나 부작용으로서, 비접촉식 지문 판독기(10)는 이미지 획득을 위한 손가락의 위치의 제약이 훨씬 적다. 그래서, 손가락이 캡처 시에 회전되거나, 기울여지거나, 구부러질 수 있으며, 4-손가락 슬랩 이미지에서 손가락들이 서로 매우 가까이 위치할 수 있다.
결과적으로, 손가락이 잘 분리되어 있다고 가정하는 전통적인 슬랩 분할 방법은 비접촉식 지문 시스템에서 대부분의 경우 실패한다. 따라서 효과적인 지문 ROI를 식별하는 데 가장 어려운 부분은 각각의 개별 지문을 식별하는 것이다.
본 발명의 단일 손가락 식별 방법은 2개의 이미지가 수신되는 첫 번째 단계를 포함하는데, 하나는 원본 이미지(IF)이고 다른 하나는 도 3에 설명된 바와 같이 획득된 전경 마스크(SM)이다.
도 6은 하단 이미지(FS)에서, 특히 손가락이 서로 인접할 때 두 이미지로부터 결정될 필요가 있는 손가락 사이의 간격을 보여준다.
첫 번째 단계 F1에서, 전경 마스크를 제한부(constraint)로 하여 원본 이미지(IF)에 적응적 이진화(adaptive binarization) 방법이 적용된다. 이 방법에서 이진화에 대한 임계값은 다음 수학식 Thres(x,y)= α(x,y) + pα(x,y)(β(x,y)-q) 으로 나타내는 바와 같이 전역 다이나믹과 로컬 다이나믹 모두의 다이나믹 레인지를 계산함으로써 결정되며, α(x,y)는 각각의 픽셀 (x,y)에 대한 로컬 다이나믹 인수, 즉, 픽셀 (x,y)를 중심으로 갖는 슬라이딩 윈도우 내부의 평균 값이고, x 및 y는 픽셀의 좌표이다. β(x,y)는 전체 이미지의 변화량에 기초하여 계산된 전역 다이나믹 인수이고, p 및 q는 양의 상수 값이고, p는 이미지의 최대 표준 편차와 동일 - 즉, 8비트 그레이스케일 이미지의 경우 128 - 하며, q는 상이한 적용예에 따라 [0.1, 0.6]의 범위에서 사전-설정된 바이어스와 동일하다. 이 이진화를 통해 도 6의 하단 이미지 FS와 같이 손가락을 구분하는 선을 정의할 수 있다.
그런 다음, 도 7에 도시된 바와 같이 각각의 개별 손가락을 식별하기 위해, 전체 슬랩을 둘러싸는 볼록 껍질(convex hull)이 먼저 단계 F2에서 발견되는데, 이는 손가락 끝을 검출하는 데 도움을 준다. 그런 다음, 단계 F3에서 손가락의 기부(base)/결합부(joint)를 찾기 위해 볼록 껍질 내부에서 볼록성이 체크된다. 일반적으로 볼록성 결함, 즉 슬랩에 속하지 않고 볼록 껍질 내부에 위치하는 영역이 먼저 계산된다. 이 경우 두 손가락 사이의 영역과 슬랩의 양 측부에 있는 영역을 말한다. 따라서 볼록 껍질의 대응하는 가장자리까지 최대 거리를 갖는 볼록성 결함 내 점들, 즉 손가락의 기부/결합부가 이미지 TD에 의해 도시되는 것처럼 검출된다. 마침내, 이미지 FD로 예시되는 바와 같이 손가락 끝의 위치와 손가락 기부를 결합함으로써 각각의 개별 손가락이 최종적으로 식별되고 대응하는 마스크 FM가 단계 F4에서 각각에 대해 생성된다.
단계 F4에서 각각의 개별 손가락이 식별된 후 손가락 끝의 위치가 정확히 검출되어야 한다.
도 8은 손가락 포즈 추정 및 손가락 끝 분할을 위한 본 발명에 따른 프로세스를 도시하는 흐름도이다. 도 9는 포즈 추정 및 손가락 끝 식별을 예시한다.
손가락 포즈는 개별 손가락 마스크에서 도 9에 개략적으로 도시된 바와 같이 단계 T1에서 손가락 마스크의 중심선을 찾아서 추정된다. 손가락이 직선이 아닌 특수한 경우에는 중심선의 평균 각도가 추정된다.
단계 T1의 결과를 바탕으로, 손가락 이미지 FI에서 손가락 중심선의 방향을 따른 경사가 계산된 후 손가락 포즈 추정의 단계 T2에서 손가락 끝점까지 특정 거리 내에서 최대 경사를 갖는 수직 선을 찾음으로써 제1 손가락 결합부가 검출될 수 있다. 손가락 끝 마스크 TM을 결정할 수 있다.
도 10은 최종 개별 지문 이미지를 생성하는 과정을 도시한 흐름도이다.
첫 번째 단계 P1에서 입력 이미지들이 입력되는데, 하나는 슬랩 지문 이미지(IF), 다른 하나는 개별 손가락 끝 마스크 세트(TM)이며, 슬랩 이미지(IF)와 손가락 끝 마스크(TM)를 결합하여 개별 지문 이미지를 생성한다.
단계 P2에서, 랜덤 노이즈를 제거하기 위해 개별 지문 이미지에 적용되는 적어도 이미지 평활화 및 노이즈 제거 작업을 포함하는 후처리가 수행된다. 유리하게는 구조적 노이즈를 제거하고 지문의 가장자리를 매끄럽게 하기 위해 획득된 지문 이미지에 추가적인 형태학적 변환(morphological transformation)이 적용된다. 그런 다음 도 11에서와 같이 최종 개별 지문 FIF가 생성된다.
상기의 상세한 설명에서, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 해당 분야의 통상의 기술자가 본 발명을 실시할 수 있도록 충분히 상세하게 설명된다. 따라서, 상기 상세한 설명은 제한적인 의미로 받아들여서는 안 되며, 본 발명의 범위는 첨부된 청구범위에 의해서만 정의되고, 적절하게 해석되며, 청구범위가 부여되는 등가물의 전체 범위와 함께 정의된다.

Claims (9)

  1. 슬랩 이미지를 분할하고 정확하게 라벨링된 개별 지문을 생성하기 위한 방법으로서, 상기 방법은
    제어된 조명 조건 하에서 비접촉식 지문 판독기로부터 입력 이미지를 수신하는 단계,
    입력 이미지 내 전경 슬랩 마스크로서 수신된 이미지의 변화량을 계산하여 슬랩 영역을 추정하는 단계,
    각각의 손가락의 경계부를 찾음으로써 개별 손가락을 식별하는 단계,
    복수의 손가락 및 기하학적 제한부를 검증하는 단계,
    형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하는 단계,
    포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역을 식별하는 단계,
    개별 지문을 출력하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 제어된 조명 조건 하에서 획득된 이미지는 섬광 조명이 있을 때와 없을 때 획득된 이미지인, 방법.
  3. 제1항에 있어서, 개별 손가락 식별 단계는 수학식 Thres(x,y)= α(x,y)+pα(x,y)(β(x,y)-q)에 따라 ― α(x,y)는 로컬 다이나믹 인수이고, β(x,y)는 전역 다이나믹 인수이며, p,q는 지정된 파라미터임 ― , 전역 다이나믹과 로컬 다이나믹을 모두 계산함으로써 다이나믹 레인지를 계산함으로써, 전경 슬랩 마스크에 의해 조명된 원본 이미지에 적용되는 적응적 이진화 하위단계를 포함하고, 이 적응적 이진화 하위단계는 개별 손가락의 마스크를 출력하는, 방법.
  4. 제1항에 있어서, 형태 및 기하학적 정보에 기초한 포즈 및 배향의 계산 단계는 손가락의 손가락 끝점을 검출하기 위한 볼록성 체크(convexity check)하는 단계를 포함하는, 방법.
  5. 제1항에 있어서, 형태 및 기하학적 정보에 기초한 포즈 및 배향의 계산 단계는 각각의 개별 손가락 마스크의 중앙선을 정의하는 하위단계, 손가락 이미지 상의 손가락 중앙선의 방향을 따른 경사(gradient)를 계산하는 하위단계, 손가락 끝점까지 특정 거리 내 최대 경사를 갖는 수직 선을 찾음으로써 제1 손가락 결합부를 검출하는 하위단계를 포함하고, 손가락 끝 마스크가 상기 제1 손가락 결합부와 손가락 끝점 사이에 뻗어 있는 영역에 의해 정의되는, 방법.
  6. 상이한 조명 상태를 가지며, 사용자의 지문의 획득을 위한 상이한 조명 상태 하에서 판독기 근처의 비접촉 위치에서 슬랩/손가락의 이미지를 획득하도록 구성된 적어도 비접촉식 지문 판독기에 연결된 비접촉식으로 획득된 지문 이미지 프로세서로서,
    상기 프로세서는 제어되는 조명 조건 하에서 비접촉식 지문 판독기로부터 수신된 슬랩 이미지를 분할하고 정확하게 라벨링된 개별 지문을 생성하도록 구성되고,
    상기 프로세서는 수신된 이미지에서 변화량을 계산하여 슬랩 영역을 입력 이미지 내 전경 슬랩 마스크로서 추정하고, 각각의 손가락의 경계부를 찾음으로써 개별 손가락을 식별하며, 복수의 손가락 및 기하학적 제한부를 검증하고, 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하고, 포즈, 배향, 및 기하학적 정보에 따라 각각의 검출된 손가락 상의 유효한 손가락 끝 영역을 식별하며, 개별 지문을 출력하도록 구성되는, 프로세서.
  7. 제6항에 있어서, 수학식 Thres(x,y)= α(x,y)+pα(x,y)(β(x,y)-q)에 따라 ― α(x,y)는 로컬 다이나믹 인수이고, β(x,y)는 전역 다이나믹 인수이며, p,q는 지정된 파라미터임 ― , 전역 다이나믹과 로컬 다이나믹 모두의 다이나믹 레인지를 계산함으로써, 전경 슬랩 마스크에 의해 조명된 원본 이미지에 적용된 적응적 이진화를 수행하도록 구성되며, 이 적응적 이진화는 개별 손가락의 마스크를 출력하는, 프로세서.
  8. 제6항에 있어서, 상기 프로세서는 손가락의 손가락 끝점을 검출하기 위해 볼록성 체크를 이용해 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하도록 구성되는, 프로세서.
  9. 제6항에 있어서, 상기 프로세서는, 각각의 개별 손가락 마스크의 중앙선을 정의하고, 손가락 이미지 상의 손가락 중앙선의 방향에 따른 경사를 계산하며, 손가락 끝점까지의 특정 거리 내 최대 경사를 갖는 수직선을 찾음으로써 제1 손가락 결합부를 검출하는 것에 의해, 형태 및 기하학적 정보에 기초하여 포즈 및 배향을 계산하도록 구성되고, 손가락 끝 마스크가 상기 제1 손가락 결합부와 손가락 끝점 사이에 뻗어 있는 영역에 의해 정의되는, 프로세서.
KR1020227000049A 2019-07-01 2020-06-29 비접촉 지문 이미지의 슬랩 분할 KR20220050125A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/458,955 2019-07-01
US16/458,955 US11017198B2 (en) 2019-07-01 2019-07-01 Slap segmentation of contactless fingerprint images
PCT/EP2020/068289 WO2021001322A1 (en) 2019-07-01 2020-06-29 Slap segmentation of contactless fingerprint images

Publications (1)

Publication Number Publication Date
KR20220050125A true KR20220050125A (ko) 2022-04-22

Family

ID=71575346

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227000049A KR20220050125A (ko) 2019-07-01 2020-06-29 비접촉 지문 이미지의 슬랩 분할

Country Status (7)

Country Link
US (1) US11017198B2 (ko)
EP (1) EP3994608A1 (ko)
JP (1) JP2022538127A (ko)
KR (1) KR20220050125A (ko)
CN (1) CN114127798A (ko)
CA (1) CA3145441A1 (ko)
WO (1) WO2021001322A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112560813B (zh) * 2021-02-19 2021-05-25 深圳阜时科技有限公司 窄条形指纹的识别方法、存储介质及电子设备
CN113781516B (zh) * 2021-11-11 2022-06-21 湖南汇视威智能科技有限公司 一种高空抛物检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7072496B2 (en) * 2002-12-20 2006-07-04 Motorola, Inc. Slap print segmentation system and method
US20080298648A1 (en) * 2007-05-31 2008-12-04 Motorola, Inc. Method and system for slap print segmentation
WO2011059496A1 (en) * 2009-11-11 2011-05-19 Cross Match Technologies, Inc. Apparatus and method for determining sequencing of fingers in images to a two-finger scanner of fingerprint images
WO2012048177A1 (en) * 2010-10-08 2012-04-12 Advanced Optical Systems, Inc. Contactless fingerprint acquisition and processing
AU2015317344B2 (en) * 2014-09-18 2021-04-08 Sciometrics Llc Mobility empowered biometric appliance a tool for real-time verification of identity through fingerprints
US9424458B1 (en) * 2015-02-06 2016-08-23 Hoyos Labs Ip Ltd. Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
WO2018031900A1 (en) * 2016-08-12 2018-02-15 3M Innovative Properties Company Independently processing plurality of regions of interest

Also Published As

Publication number Publication date
US20210004560A1 (en) 2021-01-07
CA3145441A1 (en) 2021-01-07
WO2021001322A1 (en) 2021-01-07
JP2022538127A (ja) 2022-08-31
US11017198B2 (en) 2021-05-25
CN114127798A (zh) 2022-03-01
EP3994608A1 (en) 2022-05-11

Similar Documents

Publication Publication Date Title
JP6650946B2 (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP2020074174A5 (ko)
AU2017370720B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR101017798B1 (ko) 평균 곡률을 이용하는 지정맥 인증 방법 및 장치
JP6467852B2 (ja) 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
US20080298648A1 (en) Method and system for slap print segmentation
JP6648639B2 (ja) 生体情報処理装置、生体情報処理方法および生体情報処理プログラム
WO2008054940A2 (en) Print matching method and apparatus using pseudo-ridges
KR20220050125A (ko) 비접촉 지문 이미지의 슬랩 분할
KR102335907B1 (ko) 지문 이미지들에 적용가능한 이미지들을 개선하는 방법
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
Methani et al. Pose invariant palmprint recognition
Oldal et al. Biometric Authentication System based on Hand Geometry and Palmprint Features.
WO2023028947A1 (zh) 掌静脉非接触式三维建模方法、装置及认证方法
Nivas et al. Real-time finger-vein recognition system
JP2019121187A (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN116469133A (zh) 一种任意角度手掌的掌纹roi提取方法及相关设备
EP1586073B1 (en) Method for determining the bearing surface in skin print images
Elohor et al. Implementation of a Security System, Using Captured Fingervein, Applying the Concepts of Machine Learning
Venkatesh et al. Advanced Filter and Minutia Matching For Fingerprint Recognition
Hashem et al. Foot Features Extraction Based Shape Geometry
Chate et al. Person Verification using Fusion of Palm Geometry and Palm Print
Jabber Authentication Method Based on Hashes Fingerprint For fast retrieval

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination