KR20170097638A - 주의 중심점을 기반으로 한 가이드식 지문등록 - Google Patents

주의 중심점을 기반으로 한 가이드식 지문등록 Download PDF

Info

Publication number
KR20170097638A
KR20170097638A KR1020177014268A KR20177014268A KR20170097638A KR 20170097638 A KR20170097638 A KR 20170097638A KR 1020177014268 A KR1020177014268 A KR 1020177014268A KR 20177014268 A KR20177014268 A KR 20177014268A KR 20170097638 A KR20170097638 A KR 20170097638A
Authority
KR
South Korea
Prior art keywords
fingerprint
finger
user
point
image
Prior art date
Application number
KR1020177014268A
Other languages
English (en)
Other versions
KR101872367B1 (ko
Inventor
하미드 사르베
데이비드 팅달
카르스텐 융커
닐스 모아크
Original Assignee
핑거프린트 카드즈 에이비
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 핑거프린트 카드즈 에이비 filed Critical 핑거프린트 카드즈 에이비
Publication of KR20170097638A publication Critical patent/KR20170097638A/ko
Application granted granted Critical
Publication of KR101872367B1 publication Critical patent/KR101872367B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1335Combining adjacent partial images (e.g. slices) to create a composite input or reference pattern; Tracking a sweeping finger movement
    • G06K9/00026
    • G06K9/0008
    • G06K9/001
    • G06K9/036
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1376Matching features related to ridge properties or fingerprint texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1172Identification of persons based on the shapes or appearances of their bodies or parts thereof using fingerprinting

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Input (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

지문감지 시스템에서, 주의 중심(COA)점이 결정된다. COA점은 센서가 획득한 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점이다. 이 COA점 결정은 지문등록절차에서 사용자를 가이드하는데 이용된다.

Description

주의 중심점을 기반으로 한 가이드식 지문등록{GUIDED FINGERPRINT ENROLMENT BASED ON CENTER OF ATTENTION POINT}
본 명세서에서 실시예들은 지문감지 시스템에서 지문의 등록과 관련된 방법 및 수단에 관한 것이다.
생체측정 감지 분야에서, 지문의 사용은 가장 광범위하게 사용되는 기술들 중 하나로 진화해 왔다. 이런 사실은 이동통신 기술 분야, 가령, 스마트폰과 같은 지능형 모바일 디바이스들의 사용를 고려함으로써 나타내지고 예시화될 수 있다. 이 분야에서, 장치들 그 자체에 액세스하기 위해 보안이 증가되고 또한 데이터 통신망을 통해 이용될 수 있는 뱅킹 서비스와 같은 원격 서비스들에 보안 액세스를 제공하기 위한 요구가 늘고 있다.
지문감지에 의한 이런 보안 액세스를 가능하게 하기 위해, 사용자는 추후 사용을 위해서 실제 액세스하기로 결심한 경우 검증절차시에 사용자의 지문과 직접적으로 관련된 정보가 등록되는 소위 등록절차에 참여해야 한다. 이런 등록절차 동안, 사용자는 일반적으로 전체 지문, 또는 지문의 적어도 대부분이 기록될 때까지 손가락을 지문센서에 수차례 대도록 재촉받는다.
종래 기술의 지문등록의 예가 미국 특허출원 공개공보 2014/0003677 및 2014/0003679에 기술되어 있다. 이들 공개공보에 기술된 시스템에서, 등록절차 동안, 지문의 일부가 여전히 기록되어야 한다고 사용자에게 알려주는 정보의 형태로 피드백이 사용자에게 제공된다.
그러나, 종래 기술의 등록절차로는 결함들이 있다. 예컨대, 상기 인용된 공개공보에 기술된 시스템들을 포함한 이전의 공지의 등록방법들은 일반적으로 지문을 등록할 사용자를 위해 무엇이 자연스럽고 편한한 느낌인지를 고려함이 없이 모든 사용자들에 대해 동일한 지문면적을 등록하는 것을 목적으로 하는 일반화된 등록방식을 적용한다. 따라서, 이런 접근들은 사용자들이 연이은 검증절차들에 결코 사용하지 않을 지문의 일부를 등록하게 안내하기 때문에 차선(次善)이다. 이런 종래 기술의 방법들과 시스템들은 일반적으로 사용자가 등록동안 사용하게 지시된 지문의 일부보다는 사용자가 본능적으로 검증을 위해 지문의 또 다른 부분을 이용할 수 있기 때문에 검증절차 동안 꽤 많은 오거부(誤拒否)를 받는다.
상술한 결함들 중 적어도 일부를 완화하기 위해, 지문감지 시스템에서의 방법이 제 1 태양의 실시예로 본 명세서에 제공된다. 지문감지 시스템은 지문센서를 포함하고 상기 방법은 주의 중심(COA, Center Of Attention)점의 결정을 포함한다. COA점은 센서가 획득한 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점이다. 이 COA를 결정한 다음 손가락 위치 안내정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 사용자를 지문등록절차에 가이드한다.
즉, 소정의 사용자에 대해 COA점을 초기에 추정하고 등록 데이터가 연이어 가이드식 지문등록 동안 관심있는 기준점으로서 COA점을 이용함으로써, 지문센서의 전반적인 사용자 경험이 개선된다. 이것이 그 경우인데, 등록 및 지문이 검증될 경우 임의의 연이은 검증절차 모두에 대해 사용자가 자연스럽게 느끼는 손가락의 일부를 이용할 것이기 때문이다.
다양한 실시예에서, COA점의 결정은 지문센서로부터 사용자의 손가락에 대한 복수의 제 1 지문이미지들을 획득하는 단계를 포함한다. 복수의 제 1 지문이미지들을 획득하는 동안, 상기 복수의 제 1 지문이미지들이 2차원의 제 1 스티치 이미지들에 스티치된다. 제 1 스티치 이미지의 중력중심점을 계산하고 상기 중력중심점을 COA점에 할당함으로써 COA점이 결정된다. 더욱이, 이 실시예에서, 지문등록절차에서 사용자를 가이드하는 것은 지문센서로부터 사용자의 손가락에 대한 복수의 제 2 지문이미지들을 획득하는 단계를 포함한다. 복수의 제 2 지문이미지들을 획득하는 동안, 상기 복수의 제 2 지문이미지들이 2차원의 제 2 스티치 이미지에 스티치된다. 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 상기 복수의 제 2 지문이미지들에서 손가락의 지문이미지가 소정위치에서 획득되면 최대값을 갖는 COA점 부근의 제 2 스티치 이미지내 추가 지문면적 양을 제공하는 센서와 관련된 손가락의 소정위치가 계산된다. 게다가, 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 사용자에게 가이드 정보가 제공되고, 상기 가이드 정보는 계산된 소정위치를 나타낸다.
지문등록절차에서 사용자를 가이드하는 것은 몇몇 실시예에서 제 2 스티치 이미지를 이용해 업데이트된 COA의 계산을 포함할 수 있다. 예컨대, 제 2 스티치 이미지에서 특이점의 위치에 대해 검색할 수 있고, 검색이 긍정적이면, 업데이트된 COA점의 계산에 상기 특이점 위치를 이용할 수 있다.
제 2 스티치 이미지내 추가 지문면적 양이 커버리지 스코어(S):
Figure pct00001
의 계산을 포함한 알고리즘에서 결정될 수 있고, 여기서 G는 가우시안 커넬이고, σ는 가우시안 커넬의 표준편차이며, M(x,y)는 제 2 스티치 이미지에 해당하는 이진수 값 범위이며, x 및 y는 제 2 스티치 이미지에 있는 픽셀 위치이고, S에 기반한 종결기준에 도달하면 등록절차가 종결된다.
제 2 태양으로, 지문센서, 프로세서 및 메모리를 포함한 지문감지 시스템이 제공된다. 상기 메모리는 상기 프로세서에 의해 실행될 수 있는 명령어를 포함하고 이로써 프로세서는 센서가 획득한 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점인 주의 중심(COA)점을 결정하고, 손가락 위치 안내정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 사용자를 지문등록절차에 가이드함으로써 지문감지 시스템을 제어하도록 동작된다.
다른 태양으로, 제 2 태양의 지문감지 시스템을 포함한 통신장치, 지문감지 시스템에 있는 적어도 하나의 프로세서 상에 실행될 경우 상기 지문감지 시스템이 제 1 태양에 따른 방법을 실행하는 명령어들을 포함한 컴퓨터 프로그램, 및 마지막 태양으로, 컴퓨터 프로그램을 포함한 캐리어가 제공된다.
이들 다른 태양들의 효과 및 이점은 제 1 태양과 연계해 상기에 요약된 바와 같다.
본 발명의 내용에 포함됨.
도 1a는 지문감지 시스템의 블록도를 개략 도시한 것이다.
도 1b는 이동통신장치의 블록도를 개략 도시한 것이다.
도 1c는 스마트 카드의 블록도를 개략 도시한 것이다.
도 2a는 방법의 흐름도이다.
도 2b는 방법의 흐름도이다.
도 3은 스티치식 이미지와 COA점을 개략 도시한 것이다.
도 4는 센서와 관련한 손가락 위치를 개략 도시한 것이다.
도 5는 지문이미지에서 특이점들을 개략 도시한 것이다.
도 1a는 기능 블록도 형태로 지문감지 시스템(100)을 개략 도시한 것이다. 기능 블록은 프로세서(102), 2차원 지문센서(104), 및 메모리(106)를 포함하고, 상기 시스템(100)은 가이드 정보 공급자(108)와 연결된다. 프로세서는 지문감지 시스템(100)을 제어하도록 동작할 수 있고, 하기에 예로 든 바와 같이 프로세서(102)가 시스템(100)을 제어할 수 있는 소프트웨어 명령어 및 데이터를 포함한 적절한 컴퓨터 프로그램(141)을 포함한 메모리(104)에 연결된다. 지문센서(104)에 대해, 이는 당업자가 인식하는 바와 같이 광학적, 정전용량적, 초음파적 등과 같은 임의의 적절한 타입일 수 있다. 지문센서(104)는 정사각형 또는 직사각형 모양의 픽셀 매트릭스, 가령 208×80 픽셀 크기를 갖는 정전용량 센서를 포함할 수 있고, 각 픽셀은 256 그레이 스케일의 해상도를 갖는다. 지문센서는 일반적으로 이미지 데이터, 즉 지문 데이터가 다양한 속도로 프로세서(102)에 판독되게 하는 판독회로(도면에 미도시됨)를 포함한다.
지문감지 시스템(100)은 도 1a에 개략적으로 도시된 바와 같이 개개의 부품들을 포함할 수 있고 상기 시스템은 하나의 유닛에 프로세서(102) 및 메모리(106)의 기능들을 결합함으로써 또한 실행될 수 있다. 이는 또한 센서(104)가 필수적인 프로세서 및 메모리 능력을 포함하는 구현을 가질 수 있다.
가이드 정보 공급자(108)에 대해, 수단은 사용자가 지문감지 시스템(100)과 상호작용할 경우 피드백을 사용자에게 제공할 수 있다. 피드백은 하기에서 그래픽 형태의 시각적 출력으로 예시될 것이나, 가이드 정보 공급자(108)로부터 피드백은 시각, 음향 및 터치 중 어느 하나인 감각적 출력을 제공할 수 있는 수단일 수 있음에 유의해야 한다.
도 1b는 휴대폰, 스마트폰, 태블릿, 개인용 컴퓨터, 랩탑 컴퓨터 또는 임의의 유사한 타입의 장치와 같은 이동통신장치(110)를 기능 블록도의 형태로 개략 도시한 것이다. 이동통신장치(110)는 센서(104)를 포함해 도 1a의 지문감지 시스템(100)의 기능들을 포함한다. 이동통신장치(110)는 프로세서(112), 메모리(114), 무선회로(116) 및 터치감지 디스플레이(118)를 포함한다. 도 1b에 나타낸 바와 같이, 지문감지 시스템(100)은 프로세서(112)와 메모리(114)의 일부를 이루고 터치감지 디스플레이(118)에 연결된다. 즉, 프로세서(112)는 하기에 예시된 바와 같이 지문감지 시스템(100)의 동작 동안 사용자에게 그래픽 출력을 제공함으로써 가이드 정보 공급자(108)로서 동작하도록 구성된다. 말할 필요도 없이, 프로세서(112)는 본원의 범위를 벗어나는 식으로 무선회로(116)를 통해 이동통신 시스템에서 동작시키도록 이동통신장치를 제어하게 구성된다.
지문감지 시스템이 구현될 수 있는 또 다른 수단은 도 1c에서 기능 블록도로 개략적으로 나타낸 바와 같이 스마트 카드(140)이다. 스마트 카드(140)는 센서(104)를 포함한 도 1a의 지문감지 시스템(100)의 기능들을 포함한다. 스마트 카드(140)는 프로세서(142), 메모리(144), 및 근거리 무선통신(NFC), 회로, 블루투스® 회로 등과 같은 임의의 적절한 타입으로 될 수 있는 무선회로(146)를 포함한다. 도 1c에 나타낸 바와 같이, 지문감지 시스템(100)은 프로세서(142) 및 메모리(144)의 일부를 이룬다. 즉, 프로세서(142)는 하기에 예시된 바와 같이 소프트웨어 명령어에 의해 지문감지 시스템(100)을 제어한다. 도 1b의 통신장치(110)와 대조적으로, 가령, 발광다이오드(LED) 또는 오디오 제공수단 형태의 가이드 정보 공급자가 스마트 카드(140)의 변형들에 설비될 수 있으나, 스마트 카드에는 디스플레이가 설비되어 있지 않다. 도 1b의 통신장치(110)와 유사하게, 스마트 카드(140)에 있는 프로세서(142)는 본원의 범위에서 벗어나는 식으로 무선회로(146)를 통해 통신 시스템에, 가령 스마트 카드가 은행카드 또는 신용카드인 경우 결제 시나리오에서, 동작하도록 스마트 카드(140)를 제어하게 구성된다.
도 2a와 도 1a, 1b, 1c를 참조하면, 지문감지 시스템, 가령 도 1a, 1b, 1c의 지문감지 시스템(100)에서의 방법을 더 상세히 설명한다. 상기 방법은 후술된 바와 같은 많은 동작들을 포함한다. 도 2의 방법의 동작들은 센서(104)와 같은 센서와 상호작용하고 가령 가이드 정보 공급자(108)를 통해 가이드 정보의 제공을 제어하는 프로세서, 가령, 프로세서들(102, 112 또는 142) 중 어느 하나에 실행되는 소프트웨어 명령어들에 의해 구현된다. 상기 방법의 실행 동안 메모리(106) 또는 메모리(114)와 같은 메모리가 이용된다.
동작(201)
주의 중심(COA)점이 결정된다. COA점은 센서가 얻은 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점이다.
동작(203)
손가락 위치 가이드 정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 지문등록절차로 사용자는 가이드 받는다.
도 2a에 도시된 방법의 실시예들은 도 2b에 도시된 바와 같은 동작들을 포함할 수 있다. 동작들은 차례대로 도시되어 있으나, 동작들의 상세한 설명으로부터 명백한 바와 같이 임의의 개수의 동작들이 나란히 수행될 수 있음을 알아야 한다. 이들 실시예에서, 동작(201)에 기술된 바와 같이 COA점의 결정은 하기의 동작들(211에서 215)을 포함한다.
동작(211)
지문센서로부터 사용자의 손가락에 대한 복수의 제 1 지문이미지들이 획득된다.
동작(213)
복수의 제 1 지문이미지들의 획득 동안, 상기 복수의 제 1 지문이미지들은 첫번째 2차원 스티치 이미지로 스티치된다.
동작(215)
COA점은 제 1 스티치 이미지의 중력중심(COG)점을 계산하고 상기 중력중심점을 COA점에 할당함으로써 결정된다. x 및 y 방향의 COG(CoGx,CoGy)는 다음과 같이 계산될 수 있다:
Figure pct00002
여기서, M(x,y)는 제 2 스티치 이미지에 해당하는 이진수 값 범위이며, x 및 y는 제 2 스티치 이미지에 있는 픽셀 위치이다.
도 3은 참조부호(304)로 예로 든 복수의 지문이미지들이 제 1 스티치 이미지(302)로 스티치된 일예를 도시한 것이다. 계산된 COA(306)가 또한 도 3에 나타나 있다.
이들 실시예에서, 동작(203)에 기술된 바와 같이, 지문등록절차로 사용자를 가이드하는 것은 이어진 동작들(217에서 223)을 포함한다.
동작(217)
지문센서로부터 사용자의 손가락의 복수의 제 2 지문이미지들이 획득된다.
동작(219)
복수의 제 2 지문이미지들을 획득하는 동안, 상기 복수의 제 2 지문이미지들은 2차원의 제 2 스티치 이미지로 스티치된다.
동작(221)
복수의 제 2 지문이미지들의 획득 및 스티칭 동안, 센서에 대한 손가락의 소정위치가 계산된다. 이 소정위치는 상기 소정위치에서 손가락의 복수의 제 2 지문이미지들에서 지문이미지가 획득되면 최대값을 갖는 COA점 부근의 제 2 스티치 이미지에 추가 지문면적 양이 제공되는 그런 것이다.
동작(223)
복수의 제 2 지문이미지들의 획득 및 스티칭 동안, 가이드 정보가 사용자에게 제공되고, 이 가이드 정보는 계산된 소정위치를 나타낸다. 예컨대, 가이드 정보는 제 2 스티치 이미지의 지문범위, 제 2 스티치이미지의 실제 범위의 이진수 맵, 및 센서에 대한 손가락의 위치를 나타내는 가짜 손가락의 디스플레이된 이미지를 나타낸 임의의 매트릭스 블록들일 수 있다.
몇몇 실시예에서, 복수의 제 2 지문이미지들의 획득 전에, 즉, 동작(211에서 215) 전에, 사용자가 각 터치 간에 손가락을 움직이면서 반복해서 센서를 터치하게 명령이 제공될 수 있다. 이런 명령은 디스플레이 상에 디스플레이되는 명령 메시지 또는 그래픽처럼 간단할 수 있다. 이들 실시예에서, 복수의 제 1 지문이미지들의 획득 및 스티칭 동안, 센서에 대해 비대칭으로 위치된 손가락에 해당하는 어떤 획득된 지문이미지는 폐기된다. 그런 후, 동작(215)에서, 복수의 제 1 지문이미지들이 제 1 임계치보다 수치상 더 클 경우에 COA의 결정과 함께 동작이 계속된다. 이들 실시예에서, 획득된 지문이미지가 폐기되면, 손가락이 센서에 대해 비대칭적으로 위치된 것을 나타내는 피드백 정보가 사용자에게 제공될 수 있다. 즉, 이런 실시예의 이점은 지문등록절차 경험이 거의 없는 사용자를 고려함으로써 예로 들 수 있다. 이런 무경험 사용자는 가령, 상술한 바와 같이 지문범위 증가 면에서 매번 손가락이 센서를 터치하는 사이에 이동량이 사용자에게 다시 제공되는 가이드 정보에 어떻게 맵핑되는지 알지 못할 수 있다. 이런 접근은 "훈련모드접근"으로 간주될 수 있는데, 사용자가 손가락을 센서에 대해 바람직하지 못한 비대칭 위치에 댈 경우 그리고 해당 지문이미지가 폐기된 것을 사용자에게 알리기 때문이다.
몇몇 실시예에서, 지문이미지가 센서에 대해 비대칭으로 위치된 손가락에 해당하는지 여부에 대해 판단이 내려질 수 있다. 이 판단은 센서보더로부터 획득한 데이터에 해당하는 지문이미지의 데이터를 분석하는 단계와 지문이미지 데이터가 센서보더로부터 빠진 것이면 센서에 대해 손가락이 비대칭으로 위치된 것이라 판단하는 단계를 포함할 수 있다.
몇몇 실시예에서, 복수의 제 1 지문이미지들의 획득 전에, 즉, 동작(211에서 215) 전에, 사용자가 각 터치 간에 손가락을 움직이면서 반복해서 센서를 터치하게 명령이 제공될 수 있다. 이런 명령은 디스플레이 상에 디스플레이되는 명령 메시지 또는 그래픽처럼 간단할 수 있다. 이들 실시예에서, 동작(215)에서, 복수의 제 1 지문이미지들이 제 2 임계치보다 수치상 더 클 경우에 COA의 결정과 함께 동작이 계속된다. 즉, 이런 실시예는 함께 스티치될 수 있는 최소 개수의 지문이미지들이 있다면 COA가 추정되는 "훈련없는" 접근으로 간주될 수 있다.
몇몇 실시예에서, 지문등록절차에서, 즉, 동작(203)에서, 사용자의 가이드는 제 2 스티치 이미지를 이용해 업데이트된 COA점을 계산하는 단계를 포함할 수 있다. 이들 실시예에서, 제 2 스티치 이미지에서 특이점 위치에 대해 검색이 행해지고, 검색이 긍정적이면, 상기 특이점 위치가 업데이트된 COA점의 계산에 사용된다. 특이점의 예들은 코어, 루프, 전체 중심, 델타 및 텐트형 아치를 포함한다. 도 5는 특이점(507,508)이 도시된 지문(510)을 나타낸다. 특이점(507)은 델타이고 특이점(508)은 코어점이다.
특이점의 위치를 이용해 COA가 업데이트된 실시예들은 하기를 포함할 수 있다. 초기 COA점은 차선일 수 있는데, 이는 COA가 위치된 영역이 소수의 인식가능한 지문패턴들을 포함하는 것이 가능하기 때문이다. 다량의 인식가능한 패턴들을 전달하는 영역을 포함하기 위해, 전체점들(가령, 코어, 델타 또는 루프의 위치)이 COA의 추정에 포함될 수 있다. 전체점들을 포함하는 이들 패턴들은 고도의 정보 영역들을 포함하고 따라서 등록데이터로서 포함하는 게 유용하다. 이들을 포함하기 위해, 초기 COA는 하기의 수식에 따라 가중치 파라미터로서 0≤k≤1과 함께 중력중심(A)과 전체점(B) 간에 점(COAupd)으로 이동된다. 즉 업데이트된다:
COAUpd = (kA + (k-1)B)
몇몇 실시예에서, 제 2 스티치 이미지에서 추가 지문면적 양은 커버리지 스코어(S)의 계산을 포함하는 알고리즘에서 결정된다:
Figure pct00003
여기서, G는 가우시안 커넬이고, σ는 가우시안의 표준편차이며, M(x,y)는 제 2 스티치 이미지에 해당하는 이진수 값 범위이며, x 및 y는 제 2 스티치 이미지에 있는 픽셀 위치이고, S에 기반한 종결기준에 도달하면 등록절차가 종결된다. 종결기준은 S가 커버리지 스코어 임계치 이상, 제 2 스티치 이미지에서 획득 및 스티치된 N개의 마지막 지문이미지들에 대해 S의 증가, 제 2 스티치 이미지에서 지문이미지들의 개수가 제 3 임계치 이상, 제 2 스티치 이미지에 스티치될 수 없는 연속적으로 획득한 지문이미지들의 개수가 제 4 임계치 이상, 및 품질 임계치보다 낮은 이미지 품질을 갖는 것이 발견된 연속적으로 획득한 지문이미지들의 개수가 제 5 임계치 이상인 것을 포함해 다른 많은 기준들 중 어느 하나 일 수 있다.
즉, 이들 실시예에서, 소정의 손가락 위치의 동작(221)에서 계산 동안, 커버리지 스코어(S)는 하기의 방식으로 사용된다: 예상치와 표준편차(σ)로서 COA를 갖고 커버리지 마스크(M)로 곱해진 가우시안 커넬은 등록절차를 위한 진행 척도를 제공한다. 핵심은 COA에 가까운 영역들이 강조되도록 덮이는 면이 가우시안 커넬로 가중화된다는 것이다. 이는 등록이 연이은 검증에 사용되고 따라서 시스템의 생체측정 성능을 향상시키는 손가락 영역을 포함하는 것을 보장한다. 커버리지 마스크 M(x,y)는 마스크 내 각 점에 대해 픽셀의 강도가 지문 또는 배경정보를 표현하는지 나타내는 이진수 값 마스크이다.
도 1a로 돌아가서, 지문감지 시스템(100)의 실시예를 좀 더 상세히 설명한다. 도 1a는 지문센서(104), 프로세서(102), 및 메모리(106)를 포함한 지문감지 시스템(100)을 나타내며, 상기 메모리(106)는 상기 프로세서(102)에 의해 실행될 수 있는 명령어들을 포함하고 이로써 상기 프로세서(102)는:
- 주의 중심(COA)점을 결정하고,
- 손가락 위치 가이드 정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 사용자를 지문등록절차로 가이드함으로써 지문감지 시스템(100)을 제어하도록 동작하며, 상기 COA점은 센서가 획득한 손가락의 지문이미지 중심 부근에 있을 것 같은 사용자의 손가락 상의 위치이다.
프로세서(102)에 의해 실행될 수 있는 명령어들은 컴퓨터 프로그램(141) 형태의 소프트웨어일 수 있다. 컴퓨터 프로그램(141)은 캐리어(142)에 또는 캐리어에 의해 포함될 수 있고, 상기 캐리어는 컴퓨터 프로그램(141)을 메모리(106) 및 프로세서(102)에 제공할 수 있다. 캐리어(142)는 전자신호, 광학신호, 무선신호 또는 컴퓨터 판독가능한 저장매체를 포함한 임의의 적절한 형태일 수 있다.
몇몇 실시예에서, 프로세서(102)는:
- 지문센서로부터 사용자의 손가락에 대한 복수의 제 1 지문이미지들을 획득하고,
- 복수의 제 1 지문이미지를 획득하는 동안, 상기 복수의 제 1 지문이미지들을 2차원의 제 1 스티치 이미지에 스티칭하며,
- 제 1 스티치 이미지의 중력중심점을 계산하고 상기 중력중심점을 COA점에 할당함으로써 COA점을 결정함으로써 지문감지 시스템(100)을 제어하도록 동작하며, 지문등록절차에서 사용자를 가이드하는 단계는:
- 지문센서로부터 사용자의 손가락에 대한 복수의 제 2 지문이미지들을 획득하는 단계;
- 복수의 제 2 지문이미지들을 획득하는 동안, 상기 복수의 제 2 지문이미지들을 2차원의 제 2 스티치 이미지에 스티칭하는 단계;
- 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 상기 복수의 제 2 지문이미지들에서 손가락의 지문이미지가 소정위치에서 획득되면 최대값을 갖는 COA점 부근의 제 2 스티치 이미지내 추가 지문면적 양을 제공하는 센서와 관련된 손가락의 소정위치를 계산하는 단계, 및
- 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 사용자에게 가이드 정보를 제공하는 단계를 포함하고, 상기 가이드 정보는 계산된 소정위치를 나타낸다.
몇몇 실시예에서, 프로세서(102)는 복수의 제 1 지문이미지를 획득하기 전에:
- 각 터치 간에 손가락을 움직이면서 사용자가 센서를 반복적으로 터치하게 명령어를 제공하고,
- 복수의 제 1 지문이미지들을 획득하고 스티칭하는 동안, 센서에 대해 비대칭적으로 위치된 손가락에 해당하는 어떤 획득된 지문이미지를 폐기하며,
- 복수의 제 1 지문이미지들이 제 1 임계치보다 수치상 더 크면 COA점의 결정을 계속함으로써 지문감지 시스템(100)을 제어하도록 동작한다.
몇몇 실시예에서, 프로세서(102)는:
- 획득된 지문이미지가 폐기되면, 손가락이 센서에 대해 비대칭적으로 위치된 것을 나타내는 피드백 정보를 사용자에게 제공함으로써 지문감지 시스템(100)을 제어하도록 동작한다.
몇몇 실시예에서, 프로세서(102)는:
- 센서보더로부터 획득된 데이터와 일치하는 지문이미지의 데이터를 분석하고 지문이미지 데이터가 센서보더로부터 빠진 경우이면 손가락이 센서에 대해 비대칭적으로 위치된 것이라 판단하는 것을 포함해,
- 지문이미지가 센서에 대해 비대칭적으로 위치된 손가락에 해당하는지 여부를 판단함으로써 지문감지 시스템(100)을 제어하도록 동작한다.
몇몇 실시예에서, 프로세서(102)는 복수의 제 1 지문이미지를 획득하기 전에:
- 각 터치 간에 손가락을 움직이면서 사용자가 센서를 반복적으로 터치하게 명령어를 제공하고,
- 복수의 제 1 지문이미지들이 제 2 임계치보다 수치상 더 크면 COA점의 결정을 계속함으로써 지문감지 시스템(100)을 제어하도록 동작한다.
몇몇 실시예에서, 프로세서(102)는 지문등록절차로 사용자를 가이드하는 것이:
- 제 2 스티치 이미지를 이용해 업데이트된 COA점을 계산하는 것을 포함하도록 지문감지 시스템(100)을 제어하게 동작한다.
몇몇 실시예에서, 프로세서(102)는:
- 제 2 스티치 이미지에서, 특이점 위치에 대해 검색하고, 검색이 긍정적이면, 업데이트된 COA점의 계산시 특이점 위치를 이용함으로써 지문감지 시스템(100)을 제어하게 동작한다.
몇몇 실시예에서, 특이점은:
- 코어;
- 루프;
- 전체 중심;
- 델타; 및
- 텐트형 아치 중 어느 하나이다.
몇몇 실시예에서, 프로세서(102)는 제 2 스티치 이미지에서 추가 지문면적의 양이 커버리지 스코어(S):
Figure pct00004
의 계산을 포함한 알고리즘에서 결정되게 지문감지 시스템(100)을 제어하도록 동작하며, 여기서 G는 가우시안 커넬이고, σ는 가우시안 커넬의 표준편차이며, M(x,y)는 제 2 스티치 이미지에 해당하는 이진수 값 범위이며, x 및 y는 제 2 스티치 이미지에 있는 픽셀 위치이고, S에 기반한 종결기준에 도달하면 등록절차가 종결된다.
몇몇 실시예에서, 프로세서(102)는 종결기준이:
- S가 커버리지 스코어 임계치 이상;
- 제 2 스티치 이미지에서 획득 및 스티치된 N개의 마지막 지문이미지들에 대해 S의 증가;
- 제 2 스티치 이미지에서 지문이미지들의 개수가 제 3 임계치 이상;
- 제 2 스티치 이미지에 스티치될 수 없는 연속적으로 획득한 지문이미지들의 개수가 제 4 임계치 이상; 및
- 품질 임계치보다 낮은 이미지 품질을 갖는 것이 발견된 연속적으로 획득한 지문이미지들의 개수가 제 5 임계치 이상인 것 중 어느 하나 이게 지문감지 시스템(100)을 제어하도록 동작한다.
몇몇 실시예에서, 프로세서(102)는 가이드 정보가:
- 제 2 스티치 이미지의 지문 커버리지를 도시한 블록도들의 매트릭스;
- 제 2 스티치 이미지의 실제 커버리지의 이진맵; 및
- 센서에 대한 손가락의 위치를 나타내는 가짜 손가락의 디스플레이된 이미지 중 어느 하나이게 지문감지 시스템(100)을 제어하도록 동작한다.

Claims (16)

  1. 지문센서(104)를 포함한 지문감지 시스템(100)에서의 방법으로서,
    - 센서가 획득한 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점인 주의 중심(COA)점을 결정하는 단계(201); 및
    - 손가락 위치 안내정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 사용자를 지문등록절차에 가이드하는 단계(203)를 포함하는 지문감지 시스템에서의 방법.
  2. 제 1 항에 있어서,
    COA점의 결정은:
    - 지문센서로부터 사용자의 손가락에 대한 복수의 제 1 지문이미지들(304)을 획득하는 단계(211);
    - 복수의 제 1 지문이미지들을 획득하는 동안, 상기 복수의 제 1 지문이미지들을 2차원의 제 1 스티치 이미지들(302)에 스티칭하는 단계(213);
    - 제 1 스티치 이미지의 중력중심점(306)을 계산하고 상기 중력중심점을 COA점에 할당함으로써 COA를 결정하는 단계(215)를 포함하고,
    지문등록절차에 사용자를 가이드하는 것은:
    - 지문센서로부터 사용자의 손가락에 대한 복수의 제 2 지문이미지들을 획득하는 단계(217);
    - 복수의 제 2 지문이미지들을 획득하는 동안, 상기 복수의 제 2 지문이미지들을 2차원의 제 2 스티치 이미지에 스티칭하는 단계(219);
    - 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 상기 복수의 제 2 지문이미지들에서 손가락의 지문이미지가 소정위치에서 획득되면 최대값을 갖는 COA점 부근의 제 2 스티치 이미지내 추가 지문면적 양을 제공하는 센서와 관련된 손가락의 소정위치를 계산하는 단계(221); 및
    - 복수의 제 2 지문이미지들을 획득하고 스티칭하는 동안, 사용자에게 가이드 정보를 제공하는 단계(223)를 포함하고, 상기 가이드 정보는 계산된 소정위치를 나타내는 지문감지 시스템에서의 방법.
  3. 제 2 항에 있어서,
    복수의 제 1 지문이미지들을 획득하기 전에,
    - 각 터치 간에 손가락을 움직이면서 사용자가 센서를 반복적으로 터치하게 명령어를 제공하는 단계;
    - 복수의 제 1 지문이미지들을 획득하고 스티칭하는 동안, 센서에 대해 비대칭적으로 위치된 손가락에 해당하는 어떤 획득된 지문이미지를 폐기하는 단계; 및
    - 복수의 제 1 지문이미지들이 제 1 임계치보다 수치상 더 크면 COA점의 결정을 계속하는 단계를 포함하는 지문감지 시스템에서의 방법.
  4. 제 3 항에 있어서,
    - 획득된 지문이미지가 폐기되면, 손가락이 센서에 대해 비대칭적으로 위치된 것을 나타내는 피드백 정보를 사용자에게 제공하는 단계를 포함하는 지문감지 시스템에서의 방법.
  5. 제 3 항 또는 제 4 항에 있어서,
    - 센서보더로부터 획득된 데이터와 일치하는 지문이미지의 데이터를 분석하고 지문이미지 데이터가 센서보더로부터 빠진 경우이면 손가락이 센서에 대해 비대칭적으로 위치된 것이라 판단하는 것을 포함해,
    - 지문이미지가 센서에 대해 비대칭적으로 위치된 손가락에 해당하는지 여부를 판단하는 단계를 포함하는 지문감지 시스템에서의 방법.
  6. 제 2 항에 있어서,
    복수의 제 1 지문이미지들을 획득하기 전에,
    - 각 터치 간에 손가락을 움직이면서 사용자가 센서를 반복적으로 터치하게 명령어를 제공하는 단계; 및
    - 복수의 제 1 지문이미지들이 제 2 임계치보다 수치상 더 크면 COA점의 결정을 계속하는 단계를 포함하는 지문감지 시스템에서의 방법.
  7. 제 2 항 내지 제 6 항 중 어느 한 항에 있어서,
    지문등록절차로 사용자를 가이드하는 것은:
    - 제 2 스티치 이미지를 이용해 업데이트된 COA점을 계산하는 단계를 포함하는 지문감지 시스템에서의 방법.
  8. 제 7 항에 있어서,
    - 제 2 스티치 이미지에서, 특이점(507,508) 위치에 대해 검색하는 단계를 포함하고, 검색이 긍정적이면, 업데이트된 COA점의 계산시 특이점 위치를 이용하는 단계를 포함하는 지문감지 시스템에서의 방법.
  9. 제 8 항에 있어서,
    특이점은:
    - 코어;
    - 루프;
    - 전체 중심;
    - 델타; 및
    - 텐트형 아치 중 어느 하나인 지문감지 시스템에서의 방법.
  10. 제 2 항 내지 제 9 항 중 어느 한 항에 있어서,
    제 2 스티치 이미지에서 상기 추가 지문면적의 양이 커버리지 스코어(S):
    Figure pct00005

    의 계산을 포함한 알고리즘에서 결정되고, 여기서 G는 가우시안 커넬이고, σ는 가우시안 커넬의 표준편차이며, M(x,y)는 제 2 스티치 이미지에 해당하는 이진수 값 범위이며, x 및 y는 제 2 스티치 이미지에 있는 픽셀 위치이고, S에 기반한 종결기준에 도달하면 등록절차가 종결되는 지문감지 시스템에서의 방법.
  11. 제 10 항에 있어서,
    종결기준이:
    - S가 커버리지 스코어 임계치 이상;
    - 제 2 스티치 이미지에서 획득 및 스티치된 N개의 마지막 지문이미지들에 대해 S의 증가;
    - 제 2 스티치 이미지에서 지문이미지들의 개수가 제 3 임계치 이상;
    - 제 2 스티치 이미지에 스티치될 수 없는 연속적으로 획득한 지문이미지들의 개수가 제 4 임계치 이상; 및
    - 품질 임계치보다 낮은 이미지 품질을 갖는 것이 발견된 연속적으로 획득한 지문이미지들의 개수가 제 5 임계치 이상인 것 중 어느 하나인 지문감지 시스템에서의 방법.
  12. 제 2 항 내지 제 11 항 중 어느 한 항에 있어서,
    가이드 정보가:
    - 제 2 스티치 이미지의 지문 커버리지를 도시한 블록도들의 매트릭스;
    - 제 2 스티치 이미지의 실제 커버리지의 이진맵; 및
    - 센서에 대한 손가락의 위치를 나타내는 가짜 손가락의 디스플레이된 이미지 중 어느 하나인 지문감지 시스템에서의 방법.
  13. 지문센서(104), 프로세서(102,112,142) 및 상기 프로세서에 의해 실행될 수 있는 명령어를 포함한 메모리(106,114,144)를 포함한 지문감지 시스템(100)으로서,
    상기 프로세서는:
    - 센서가 획득한 손가락의 지문이미지의 중심 부근에 있을 것 같은 사용자의 손가락 상의 한 점인 주의 중심(COA)점을 결정하고,
    - 손가락 위치 안내정보를 사용자에게 제공하기 위해 결정된 COA점을 이용해 사용자를 지문등록절차에 가이드함으로써 지문감지 시스템을 제어하도록 동작되는 지문감지 시스템.
  14. 제 13 항의 지문감지 시스템(100) 및 터치감지 디스플레이(118)를 포함한 통신장치(110).
  15. 지문감지 시스템(100)에 있는 적어도 하나의 프로세서(102,112,142) 상에 실행될 경우 지문감지 시스템이 제 1 항 내지 제 12 항 중 어느 한 항에 따른 방법을 실행하게 하는 명령어를 포함한 컴퓨터 프로그램(141).
  16. 제 15 항의 컴퓨터 프로그램을 포함한 캐리어(142)로서, 상기 캐리어는 전기신호, 광학신호, 무선신호 및 컴퓨터 판독가능한 저장매체 중 하나인 캐리어.
KR1020177014268A 2014-12-19 2015-12-15 주의 중심점을 기반으로 한 가이드식 지문등록 KR101872367B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
SE1451598A SE1451598A1 (en) 2014-12-19 2014-12-19 Improved guided fingerprint enrollment
SE1451598-5 2014-12-19
PCT/SE2015/051344 WO2016099389A1 (en) 2014-12-19 2015-12-15 Guided fingerprint enrolment based on center of attention point

Publications (2)

Publication Number Publication Date
KR20170097638A true KR20170097638A (ko) 2017-08-28
KR101872367B1 KR101872367B1 (ko) 2018-06-28

Family

ID=56127079

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177014268A KR101872367B1 (ko) 2014-12-19 2015-12-15 주의 중심점을 기반으로 한 가이드식 지문등록

Country Status (6)

Country Link
US (1) US9477872B2 (ko)
JP (1) JP2017538224A (ko)
KR (1) KR101872367B1 (ko)
CN (1) CN105981043B (ko)
SE (1) SE1451598A1 (ko)
WO (1) WO2016099389A1 (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101961052B1 (ko) 2007-09-24 2019-03-21 애플 인크. 전자 장치 내의 내장형 인증 시스템들
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8485442B2 (en) 2009-07-02 2013-07-16 Biometric Payment Solutions Electronic transaction verification system with biometric authentication
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10482461B2 (en) 2014-05-29 2019-11-19 Apple Inc. User interface for payments
SE1451598A1 (en) * 2014-12-19 2016-06-20 Fingerprint Cards Ab Improved guided fingerprint enrollment
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
CN104881238A (zh) * 2015-06-25 2015-09-02 京东方科技集团股份有限公司 一种触控显示装置及其触控方法
US10621581B2 (en) 2016-06-11 2020-04-14 Apple Inc. User interface for transactions
CN114693289A (zh) 2016-06-11 2022-07-01 苹果公司 用于交易的用户界面
DK201670622A1 (en) 2016-06-12 2018-02-12 Apple Inc User interfaces for transactions
US10496808B2 (en) 2016-10-25 2019-12-03 Apple Inc. User interface for managing access to credentials for use in an operation
CN108874196B (zh) * 2017-05-15 2021-05-25 原相科技股份有限公司 触控传感器的感应量补偿方法及其触控面板
CN109858224A (zh) * 2017-09-09 2019-06-07 苹果公司 生物识别认证的实现
KR102301599B1 (ko) 2017-09-09 2021-09-10 애플 인크. 생체측정 인증의 구현
KR102185854B1 (ko) 2017-09-09 2020-12-02 애플 인크. 생체측정 인증의 구현
CN108197596B (zh) * 2018-01-24 2021-04-06 京东方科技集团股份有限公司 一种手势识别方法和装置
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11328352B2 (en) 2019-03-24 2022-05-10 Apple Inc. User interfaces for managing an account
KR102655532B1 (ko) * 2019-05-14 2024-04-09 삼성전자주식회사 디스플레이의 광을 이용하여 생체 정보를 획득하기 위한 전자 장치 및 방법
WO2021221553A1 (en) * 2020-04-30 2021-11-04 Fingerprint Cards Anacatum Ip Ab Method and system for enrolling a fingerprint
US11816194B2 (en) * 2020-06-21 2023-11-14 Apple Inc. User interfaces for managing secure operations
KR20220030474A (ko) * 2020-09-01 2022-03-11 삼성디스플레이 주식회사 지문 인증 장치, 이를 포함하는 표시 장치, 및 표시 장치의 지문 인증 방법
US11784956B2 (en) 2021-09-20 2023-10-10 Apple Inc. Requests to add assets to an asset account

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070107655A (ko) * 2004-08-09 2007-11-07 클래시프아이 엘티디. 3d 지문 인식을 위한 비접촉 광학 수단 및 방법
KR20130142723A (ko) * 2012-06-20 2013-12-30 동국대학교 산학협력단 발자국 에너지 이미지를 이용한 사용자 인식방법 및 그 장치
KR20140037777A (ko) * 2012-09-19 2014-03-27 크로스 매치 테크놀로지스 게엠베하 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5828773A (en) 1996-01-26 1998-10-27 Harris Corporation Fingerprint sensing method with finger position indication
GB2331613A (en) 1997-11-20 1999-05-26 Ibm Apparatus for capturing a fingerprint
JP2002288643A (ja) 2001-03-28 2002-10-04 Nec Yonezawa Ltd 指紋押捺位置の誘導方法及び指紋認証システム
US7116805B2 (en) * 2003-01-07 2006-10-03 Avagotechnologies Ecbu Ip (Singapore) Pte. Ltd. Fingerprint verification device
US7616787B2 (en) * 2003-10-01 2009-11-10 Authentec, Inc. Methods for finger biometric processing and associated finger biometric sensors
JP2006107366A (ja) * 2004-10-08 2006-04-20 Fujitsu Ltd 生体情報入力装置,生体認証装置,生体情報処理方法,生体情報処理プログラムおよび同プログラムを記録したコンピュータ読取可能な記録媒体
US20100232659A1 (en) * 2009-03-12 2010-09-16 Harris Corporation Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm
KR101092303B1 (ko) 2009-05-26 2011-12-13 주식회사 유니온커뮤니티 지문인식장치 및 그 지문 데이터 획득방법
US9342725B2 (en) * 2012-06-29 2016-05-17 Apple Inc. Image manipulation utilizing edge detection and stitching for fingerprint recognition
US9202099B2 (en) 2012-06-29 2015-12-01 Apple Inc. Fingerprint sensing and enrollment
US8913801B2 (en) * 2012-06-29 2014-12-16 Apple Inc. Enrollment using synthetic fingerprint image and fingerprint sensing systems
JP2017526056A (ja) * 2014-07-25 2017-09-07 クアルコム,インコーポレイテッド モバイルデバイス上での登録および認証
SE1451598A1 (en) * 2014-12-19 2016-06-20 Fingerprint Cards Ab Improved guided fingerprint enrollment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070107655A (ko) * 2004-08-09 2007-11-07 클래시프아이 엘티디. 3d 지문 인식을 위한 비접촉 광학 수단 및 방법
KR20130142723A (ko) * 2012-06-20 2013-12-30 동국대학교 산학협력단 발자국 에너지 이미지를 이용한 사용자 인식방법 및 그 장치
KR20140037777A (ko) * 2012-09-19 2014-03-27 크로스 매치 테크놀로지스 게엠베하 지문 스캐너를 기반으로 하여 신뢰할만한 높은 품질로 지문을 촬상하기 위한 방법 및 장치

Also Published As

Publication number Publication date
US9477872B2 (en) 2016-10-25
CN105981043A (zh) 2016-09-28
US20160180141A1 (en) 2016-06-23
JP2017538224A (ja) 2017-12-21
WO2016099389A1 (en) 2016-06-23
SE1451598A1 (en) 2016-06-20
CN105981043B (zh) 2017-11-24
KR101872367B1 (ko) 2018-06-28

Similar Documents

Publication Publication Date Title
KR101872367B1 (ko) 주의 중심점을 기반으로 한 가이드식 지문등록
RU2714096C1 (ru) Способ, оборудование и электронное устройство для обнаружения витальности лица
US9734379B2 (en) Guided fingerprint enrollment
US11080434B2 (en) Protecting content on a display device from a field-of-view of a person or device
KR102322683B1 (ko) 생체 정보의 위조를 식별하기 위한 전자 장치 및 방법
CN107665485B (zh) 用于显示图形对象的电子装置和计算机可读记录介质
KR102173123B1 (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
CN108694312B (zh) 用于存储指纹信息的电子设备和方法
CN106228168B (zh) 卡片图像反光检测方法和装置
TWI530884B (zh) 具有小寬幅生物感測器之分段式導引功能的電子設備及其導引方法
EP3526959B1 (en) Method of acquiring biometric data and electronic device therefor
KR20160072705A (ko) 생채 특징 패턴을 업데이트하는 방법 및 이를 위한 전자 장치
KR20160103398A (ko) 이미지의 품질 측정 방법 및 장치
KR20160145965A (ko) 잠금 화면 출력 제어 방법 및 이를 지원하는 전자 장치
CN106326853A (zh) 一种人脸跟踪方法及装置
CN103299342A (zh) 提供用于姿势识别的机制的方法和装置
CN109753883A (zh) 视频定位方法、装置、存储介质和电子设备
KR20190109654A (ko) 심장 박동을 측정하기 위한 전자 장치 및 방법
KR102457247B1 (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20150113572A (ko) 영상데이터를 획득하는 전자장치 및 방법
KR20170094895A (ko) 지문을 인식하기 위한 방법 및 전자 장치
KR102620195B1 (ko) 콘텐츠 출력 방법 및 이를 지원하는 전자 장치
KR101985658B1 (ko) 지문 데이터 획득 방법 및 그 장치
WO2024016809A1 (zh) 刷掌验证的引导方法、装置、终端、存储介质及程序产品
CN116343348A (zh) 活体检测方法和系统

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right