KR20180063774A - 지문 인식 방법, 장치, 프로그램 및 기록매체 - Google Patents

지문 인식 방법, 장치, 프로그램 및 기록매체 Download PDF

Info

Publication number
KR20180063774A
KR20180063774A KR1020167005169A KR20167005169A KR20180063774A KR 20180063774 A KR20180063774 A KR 20180063774A KR 1020167005169 A KR1020167005169 A KR 1020167005169A KR 20167005169 A KR20167005169 A KR 20167005169A KR 20180063774 A KR20180063774 A KR 20180063774A
Authority
KR
South Korea
Prior art keywords
fingerprint
feature
encoding
training
image
Prior art date
Application number
KR1020167005169A
Other languages
English (en)
Other versions
KR101992522B1 (ko
Inventor
타오 장
핑제 왕
쉥카이 장
Original Assignee
시아오미 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 시아오미 아이엔씨. filed Critical 시아오미 아이엔씨.
Publication of KR20180063774A publication Critical patent/KR20180063774A/ko
Application granted granted Critical
Publication of KR101992522B1 publication Critical patent/KR101992522B1/ko

Links

Images

Classifications

    • G06K9/00067
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00087
    • G06K9/627
    • G06K9/64
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Collating Specific Patterns (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 지문 인식 방법 및 장치에 관한 것으로서, 상기 방법은, 지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하는 단계 -상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수가 동일함- 와, 상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하는 단계 -상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수보다 작음- 와, 상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계를 포함한다. 본 발명의 기술 방안은 저 퀄리티의 지문 이미지에 대해 지문 인식을 진행할 때 정확도를 향상시킬 수 있다.

Description

지문 인식 방법 및 장치{FINGERPRINT RECOGNITION METHOD AND APPARATUS}
본 출원은 출원번호가 CN201510712896.0이고 출원일이 2015년 10월 28일인 중국 특허 출원에 기초하여 우선권을 주장하며 상기 중국 특허 출원의 모든 내용을 본 출원에 원용한다.
본 발명은 이미지 인식 기술 분야에 관한 것으로서, 특히 지문 인식 방법 및 장치에 관한 것이다.
1980년 내외로부터 지문 인식에 대해 연구를 진행한 이래, 1990년 후 지문 인식은 민수 분야이거나 군수 분야이거나를 막론하고 그 적용은 매우 보편화 되었다. 그러나, 관련 기술의 지문 인식에 있어서 일반적으로 사용자의 지문이 너무 건조해서는 안되고 지문 이미지 화질이 충분히 뚜렷해야만 지문의 전체적 특징점 및 국부적 특징점의 추출을 확보할 수 있다. 지문 이미지의 화질이 낮을 경우, 지문 상의 전체적 특징점 및 국부적 특징점을 인식할 수 없음으로 인해 결국은 지문 인식이 부정확해진다. 따라서, 이는 어느 정도 지문 인식 제품에 대한 사용자의 체험을 제한하고 있다.
관련 기술에 존재하는 문제를 해결하기 위하여, 본 발명의 실시예에서는 저 퀄리티의 지문 이미지에 대해 지문 인식을 진행할 때 정확도를 향상시킬 수 있는 지문 인식 방법 및 장치를 제공하는 것을 목적으로 한다.
본 발명의 실시예의 제1 양태에 따르면,
지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하는 단계 -상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수가 동일함- 와,
상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하는 단계 -상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수 보다 작음- 와,
상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계를 포함하는 지문 인식 방법을 제공한다.
일 실시예에 있어서, 상기 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며,
상기 방법은,
태그 미포함 지문 샘플을 통하여 상기 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하는 단계와,
상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 상기 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 상기 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하는 단계와,
상기 지문 재구성 데이터와 상기 태그 미포함 지문 샘플의 재구성 오차를 결정하는 단계와,
상기 재구성 오차에 따라 상기 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하는 단계와,
상기 재구성 오차가 최소값에 도달할 경우, 상기 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
상기 방법은,
태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하는 단계와,
상기 제1 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하는 단계와,
상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 분류기에 대한 트레이닝을 정지하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
상기 방법은,
태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하는 단계와,
상기 제2 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하며 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하는 단계와,
상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 분류기에 대한 트레이닝과 상기 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 방법은,
이미 트레이닝된 상기 자동 인코딩 및 디코딩 네트워크를 통하여 상기 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하는 단계와,
상기 제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 상기 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계는,
상기 제3지문 특징과 상기 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하는 단계와,
상기 코사인 거리가 상기 기 설정 임계값 보다 클 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문임을 결정하는 단계와,
상기 코사인 거리가 상기 기 설정 임계값 보다 작거나 같을 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 서로 다른 지문임을 결정하는 단계를 포함할 수 있다.
본 발명의 실시예의 제2 양태에 따르면,
지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하도록 구성되는 제 1 추출 모듈 -상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수가 동일함- 과,
상기 제1 추출 모듈에 의해 추출된 상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하도록 구성되는 차원 감소 처리 모듈 -상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수 보다 작음- 과,
상기 차원 감소 처리 모듈에 의해 차원 감소 후의 상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하도록 구성되는 인식 모듈을 포함하는 지문 인식 장치를 제공한다.
일 실시예에 있어서, 상기 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며, 상기 장치는,
태그 미포함 지문 샘플을 통하여 상기 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하도록 구성되는 제1 트레이닝 모듈과,
상기 제1 트레이닝 모듈에 의해 트레이닝되고 획득된 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 상기 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 상기 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하도록 구성되는 제1 재구성 모듈과,
상기 제1 재구성 모듈에 의해 획득된 상기 지문 재구성 데이터와 상기 태그 미포함 지문 샘플의 재구성 오차를 결정하도록 구성되는 제1 결정 모듈과,
상기 제1 결정 모듈에 의해 결정된 상기 재구성 오차에 따라 상기 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하도록 구성되는 조절 모듈과,
상기 제1 결정 모듈에 의해 결정된 상기 재구성 오차가 최소값에 도달할 경우, 상기 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하도록 구성되는 제1 제어 모듈을 더 포함할 수 있다.
일 실시예에 있어서, 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 상기 장치는,
태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하도록 구성되는 제1 처리 모듈과,
상기 제1 처리 모듈에 의해 획득된 상기 제1 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하도록 구성되는 제2 트레이닝 모듈과,
상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 제2 트레이닝 모듈을 제어하여 분류기에 대한 트레이닝을 정지하도록 구성되는 제2 제어 모듈을 더 포함할 수 있다.
일 실시예에 있어서, 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 상기 장치는,
태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하도록 구성되는 제2 처리 모듈과,
상기 제2 처리 모듈에 의해 획득된 상기 제2 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하며 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하도록 구성되는 제3 트레이닝 모듈과,
상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 제3 트레이닝 모듈을 제어하여 상기 분류기에 대한 트레이닝과 상기 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하도록 구성되는 제3 제어 모듈을 더 포함할 수 있다.
일 실시예에 있어서, 상기 장치는,
이미 트레이닝된 상기 자동 인코딩 및 디코딩 네트워크를 통하여 상기 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하도록 구성되는 제2 추출 모듈과,
상기 제2 추출 모듈에 의해 추출된 상기 제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 상기 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하도록 구성되는 제4 트레이닝 모듈을 더 포함할 수 있다.
일 실시예에 있어서, 상기 인식 모듈은,
상기 제3지문 특징과 상기 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하도록 구성되는 비교 서브 모듈과,
상기 비교 서브 모듈의 비교 결과 상기 코사인 거리가 상기 기 설정 임계값 보다 클 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문임을 결정하도록 구성되는 제1 결정 서브 모듈과,
상기 비교 서브 모듈의 비교 결과 상기 코사인 거리가 상기 기 설정 임계값 보다 작거나 같을 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 서로 다른 지문임을 결정하도록 구성되는 제2 결정 서브 모듈을 포함할 수 있다.
본 발명의 실시예의 제3 양태에 따르면,
프로세서와,
프로세서에서 수행 가능한 명령어를 저장하는 메모리를 포함하고,
상기 프로세서는,
지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하되, 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수는 동일하고,
상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하되, 상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수보다 작으며,
상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하도록 구성되는 지문 인식 장치를 제공한다.
본 발명의 실시예에서 제공한 기술 방안은 아래와 같은 유익한 효과를 포함할 수 있다. AED 네트워크는 이미 대량의 지문 이미지 트레이닝을 거쳐 지문 특징을 획득하였으므로 AED 네트워크에 의해 추출된 제1 지문 이미지의 제1 지문 특징과 제2 지문 이미지의 제2 지문 특징에는 지문 인식에 유리한 지문 특징이 포함될 수 있는 것으로, 관련 기술에서 반드시 지문의 전체적 특징점 및 국부적 특징점을 통해야만 지문 인식을 구현할 수 있는 문제점을 방지한다. 지문 이미지의 퀄리티가 낮을 경우, AED 네트워크는 지문 인식에 유리한 특징을 인식하는 것을 통하여 제1 지문 이미지의 퀄리티가 낮음으로 인한 지문의 전체적 특징점 및 국부적 특징점을 추출할 수 없을 경우에도 여전히 지문 인식을 구현할 수 있게끔 보장함으로써 저 퀄리티의 지문 이미지에 대한 지문 인식 시의 정확도를 크게 향상시킬 수 있다. 한편, 제1 지문 특징과 제2 지문 특징에 대해 차원 감소를 진행함으로써 지문 인식 과정 중에서의 계산 난이도를 대폭적으로 감소시킬 수 있다.
이상의 일반적인 서술과 하기의 세부 서술은 다만 예시적이고 해석을 위한 것일 뿐, 본 발명을 한정하지 않음을 이해해야 한다.
하기의 도면은 명세서에 병합되어 본 명세서의 일부를 구성하고 본 발명에 부합하는 실시예를 표시하며 명세서와 함께 본 발명의 원리를 해석한다.
도 1a는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이다.
도 1b는 일 예시적 실시예에 따른 AED 네트워크의 구조 예시도이다.
도 2a는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이다.
도 2b는 일 예시적 실시예에 따른 AED 네트워크의 구조 예시도이다.
도 2c는 일 예시적 실시예에 따른 AED 네트워크에 대해 어떻게 트레이닝을 진행하는지를 도시한 예시도이다.
도 3a는 일 예시적 실시예에 따른 태그 포함 지문 샘플을 통해 AED 네트워크의 파라미터에 대해 어떻게 미세 조절을 진행하는지를 도시한 흐름도이다.
도 3b는 다른 일 예시적 실시예에 따른 태그 포함 지문 샘플을 통해 AED 네트워크의 파라미터에 대해 어떻게 미세 조절을 진행하는지를 도시한 흐름도이다.
도 3c는 일 예시적 실시예에 따른 AED 네트워크와 분류기의 구조 예시도이다.
도 4는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이다.
도 5는 일 예시적 실시예에 따른 지문 인식 장치의 블록도이다.
도 6은 다른 일 예시적 실시예에 따른 지문 인식 장치의 블록도이다.
도 7은 일 예시적 실시예에 따른 지문 인식 장치에 적용되는 블록도이다.
여기서, 예시적인 실시예에 대하여 상세하게 설명하고, 그 사례를 도면에 표시한다. 하기의 서술이 도면에 관련될 때, 달리 명시하지 않는 경우, 서로 다른 도면에서의 동일한 부호는 동일한 구성 요소 또는 유사한 구성 요소를 나타낸다. 하기의 예시적인 실시예에서 서술한 실시 방식은 본 발명에 부합되는 모든 실시 방식을 대표하는 것이 아니며, 실시 방식들은 다만 첨부된 특허 청구의 범위에 기재한 본 발명의 일부 측면에 부합되는 장치 및 방법의 예이다.
도 1a는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이고, 도 1b는 일 예시적 실시예에 따른 AED 네트워크의 구조 예시도이다. 해당 지문 인식 방법은 지문 센서가 설치된 지문 인식 설비 (예로, 지문 인증을 구비한 스마트폰과 PDA, 지문 출결 기기) 상에 적용될 수 있다. 도 1a에 도시된 바와 같이, 해당 지문 인식 방법은 아래와 같은 단계S101-S103를 포함한다.
단계S101에 있어서, 지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 제1 지문 이미지에 대응되는 제1 지문 특징과 제2 지문 이미지에 대응되는 제2 지문 특징을 획득한다. 여기서, 제1 지문 특징과 제2 지문 특징의 차원 수가 동일하다.
일 실시예에 있어서, 데이터 베이스에는 이미 수집된 일정한 범위 내의 사용자의 지문 이미지 (예로, A회사 내의 전체 직원들의 지문 이미지)가 저장될 수 있다. 사용자B가 지문 인증이 필요할 경우, 지문 센서를 통하여 사용자B의 제1 지문 이미지를 수집하기만 하면 된다. 일 실시예에 있어서, 자동 인코딩 디코딩(Auto Encode Decode, AED) 네트워크는 인코딩층과 디코딩층을 포함할 수 있다. 제1 지문 이미지를 인코딩층에 입력하여 인코딩층의 출력을 거치면 제1 지문 이미지의 인코딩 특징으로 되고, 해당 인코딩 특징을 해당 인코딩층에 대응되는 디코딩층 중에 재입력하면 디코딩층의 출력이 제1 지문 이미지의 제1 지문 특징으로 된다. 이에 대응되게, 데이터 베이스의 제2 지문 이미지를 제1 지문 이미지와 동일한 방식을 거쳐 제2 지문 이미지의 제2 지문 특징을 획득할 수 있다.
단계S102에 있어서, 제1 지문 특징과 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득한다. 여기서, 제3 지문 특징과 제4 지문 특징의 차원 수는 동일하고 제1 지문 특징과 제2 지문 특징의 차원 수 보다 작다.
일 실시예에 있어서, 이미 트레이닝된 선형 판별식 분석(Linear Discriminant Analysis, LDA)을 통하여 제1 지문 특징과 제2 지문 특징에 대해 차원 감소를 진행할 수 있다. 일 실시예에 있어서, 이미 트레이닝된 자동 인코딩 및 디코딩 네트워크를 통하여 태그 미포함 지문 샘플의 제1 설정 차원 수의 지문 특징을 추출하고, 제1 설정 차원 수의 지문 특징에 대해 선형 판별식 분석LDA 트레이닝을 진행하여 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득한다. 예를 들면, 태그 미포함 지문 샘플이 AED 네트워크로부터 출력한 제1 설정 차원 수가 500 차원인 인코딩 특징 표시 파라미터는 LDA 트레이닝을 거친 후, 트레이닝 후의 LDA로부터 제2 설정 차원 수가 200 차원인 인코딩 특징 표시 파라미터로 차원 감소될 수 있다. 따라서, 코사인 거리를 계산 시의 계산 난이도를 감소시킬 수 있다.
단계S103에 있어서, 제3 지문 특징과 제4 지문 특징의 코사인 거리에 따라 제1 지문 이미지와 제2 지문 이미지가 동일한 지문인지 여부를 판정한다.
일 실시예에 있어서, 제3 지문 특징과 제4 지문 특징의 코사인 거리를 기 설정 임계값과 비교할 수 있다. 코사인 거리가 기 설정 임계값 보다 클 경우 제1 지문 이미지와 제2 지문 이미지가 동일한 지문임을 결정하고, 코사인 거리가 기 설정 임계값 보다 작거나 같을 경우 제1 지문 이미지와 제2 지문 이미지가 서로 다른 지문임을 결정한다.
하나의 예시적인 시나리오로, 도 1b에 도시된 바와 같이, 사용자B가 지문 인증이 필요할 경우, 지문 센서(11)를 통하여 사용자B의 제1 지문 이미지를 수집하고 제1 지문 이미지와 데이터 베이스(12) 중에 이미 저장된 제2 지문 이미지를 이미 트레이닝된 자동 인코딩 및 디코딩 네트워크(13) 중에 입력하며 자동 인코딩 및 디코딩 네트워크(13)는 제1 지문 이미지의 제1 지문 특징과 제2 지문 이미지의 제2 지문 특징을 출력한다. 예를 들면, 제1 지문 특징과 제2 지문 특징은 모두 500 차원의 지문 특징이다. LDA 모듈(14)의 투영 매트릭스를 이용하여 500차원의 제1 지문 특징과 제2 지문 특징에 대해 차원 감소를 진행한다. 예를 들면, LDA 모듈(14)은 제1 지문 특징과 제2 지문 특징을 500차원으로부터 200차원으로 감소시킨다. 다시 말하면, LDA 모듈(14)은 제1 지문 특징을 차원 감소한 후의 제3 지문 특징과 제2 지문 특징을 차원 감소한 후의 제4 지문 특징을 출력한다. 예를 들면, 제3 지문 특징과 제4 지문 특징의 차원 수는 모두 200차원이다. 거리 계산 모듈(15)은 이러한 2개 의 200차원의 제3 지문 특징과 제4 지문 특징의 코사인 거리를 계산하고, 결과 출력 모듈(16)은 해당 코사인 거리를 임계값과 비교한다. 다시 말하면, 해당 임계값을 통하여 코사인 거리에 대해 분할을 진행한다. 코사인 거리가 해당 임계값 보다 클 경우 결과 출력 모듈(16)은 제1 지문 이미지와 제2 지문 이미지가 동일한 지문에 속한다는 결과를 출력하고, 코사인 거리가 해당 임계값 보다 작거나 같을 경우 결과 출력 모듈(16)은 제1 지문 이미지와 제2 지문 이미지가 서로 다른 지문에 속한다는 결과를 출력한다.
본 실시예에 있어서, AED 네트워크는 이미 대량의 지문 이미지 트레이닝을 거쳐 지문 특징을 획득하였으므로 AED 네트워크에 의해 추출된 제1 지문 이미지의 제1 지문 특징과 제2 지문 이미지의 제2 지문 특징에는 지문 인식에 유리한 지문 특징이 포함될 수 있는 것으로, 관련 기술에서 반드시 지문의 전체적 특징점 및 국부적 특징점을 통해야만 지문 인식을 구현할 수 있는 문제점을 방지한다. 지문 이미지의 퀄리티가 낮을 경우, AED 네트워크는 지문 인식에 유리한 특징을 인식하는 것을 통하여 제1 지문 이미지의 퀄리티가 낮음으로 인한 지문의 전체적 특징점 및 국부적 특징점을 추출할 수 없을 경우에도 여전히 지문 인식을 구현할 수 있게끔 보장함으로써 저 퀄리티의 지문 이미지에 대한 지문 인식 시의 정확도를 크게 향상시킬 수 있다. 한편, 제1 지문 특징과 제2 지문 특징에 대해 차원 감소를 진행함으로써 지문 인식 과정 중에서의 계산 난이도를 대폭적으로 감소시킬 수 있다.
일 실시예에 있어서, 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며, 상기 지문 인식 방법은,
태그 미포함 지문 샘플을 통하여 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하는 단계와,
각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하는 단계와,
지문 재구성 데이터와 태그 미포함 지문 샘플의 재구성 오차를 결정하는 단계와,
재구성 오차에 따라 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하는 단계와,
재구성 오차가 최소값에 도달할 경우, 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 방법은,
태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하는 단계와,
제1 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행하는 단계와,
분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기에 대한 트레이닝을 정지하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 방법은,
태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하는 단계와,
제2 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행하며 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하는 단계와,
분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기에 대한 트레이닝과 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 방법은,
이미 트레이닝된 자동 인코딩 및 디코딩 네트워크를 통하여 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하는 단계와,
제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하는 단계를 더 포함할 수 있다.
일 실시예에 있어서, 제3 지문 특징과 제4 지문 특징의 코사인 거리에 따라 제1 지문 이미지와 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계는,
제3지문 특징과 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하는 단계와,
코사인 거리가 기 설정 임계값 보다 클 경우, 제1 지문 이미지와 제2 지문 이미지가 동일한 지문임을 결정하는 단계와,
코사인 거리가 기 설정 임계값 보다 작거나 같을 경우, 제1 지문 이미지와 제2 지문 이미지가 서로 다른 지문임을 결정하는 단계를 포함할 수 있다.
구체적으로 지문 인식을 어떻게 구현하는지는 후술하는 실시예를 참조하기로 한다.
이상, 본 발명의 실시예에서 제공한 상기 방법에 따르면, 관련 기술에서 반드시 지문의 전체적 특징점 및 국부적 특징점을 통하여야만 지문 인식을 구현할 수 있는 문제점을 방지할 수 있고, 제1 지문 이미지의 퀄리티가 낮음으로 인한 지문의 전체적 특징점 및 국부적 특징점을 추출할 수 없을 경우에도 여전히 지문 인식을 구현할 수 있게끔 보장함으로써 저 퀄리티의 지문 이미지에 대한 지문 인식 시의 정확도를 크게 향상시킬 수 있고 인식 과정 중에서의 계산 난이도도 대폭적으로 감소시킬 수 있다.
이하, 구체적인 실시예를 통하여 본 발명의 실시예에서 제공하는 기술 방안을 설명한다.
도 2a는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이고, 도 2b는 일 예시적 실시예에 따른 AED 네트워크의 구조 예시도이며, 도 2c는 일 예시적 실시예에 따른 AED 네트워크에 대해 어떻게 트레이닝을 진행하는지를 도시한 예시도이다. 본 실시예에서는 본 발명의 실시예에서 제공한 상기 방법을 이용하여 어떻게 태그 미포함 지문 샘플을 통하여 AED 네트워크와LDA에 대해 트레이닝을 진행하는지를 예로 예시적인 설명을 진행한다. 도 2a에 도시된 바와 같이, 상기 지문 인식 방법은 아래와 같은 단계들을 포함한다.
단계S201에 있어서, 태그 미포함 지문 샘플을 통하여 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득한다.
단계S202에 있어서, 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득한다.
단계S203에 있어서, 지문 재구성 데이터와 태그 미포함 지문 샘플의 재구성 오차를 결정한다.
단계S204에 있어서, 재구성 오차에 따라 각 인코딩층의 인코딩 특징 표시 파라미터를 조절한다.
단계S205에 있어서, 재구성 오차가 최소값에 도달할 경우, 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지한다.
일 실시예에 있어서, AED네트워크는 적어도 하나의 인코딩층을 포함한다. 예를 들면, 도 2b에 도시된 AED 네트워크(20)는 3개의 인코딩층 (각 인코딩층(21), 인코딩층(22), 인코딩층(23))을 포함한다. 도 2c에 도시된 바와 같이, 인코딩층(21)에 대해 트레이닝을 진행하는 것을 예로 예시적 설명을 진행한다. 대량 (예를 들면, 60만장의 태그 미포함 지문 샘플)의 태그 미포함 지문 샘플에 대하여, 각각의 태그 미포함 지문 샘플들을 인코딩층(21)에 입력하여 인코딩층(21)으로부터 하나의 태그 미포함 지문 샘플의 인코딩 특징 표시 파라미터를 획득할 수 있으며 해당 인코딩 특징 표시 파라미터는 바로 입력된 태그 미포함 지문 샘플의 하나의 표시가 된다. 해당 인코딩 특징 표시 파라미터가 해당 태그 미포함 지문 샘플과 일치한지 여부를 검증하기 위하여, 인코딩 특징 표시 파라미터를 디코딩층(24)에 입력하여 재구성 오차 계산 모듈(25)을 통하여 디코딩층(24)의 출력 정보와 태그 미포함 지문 샘플 사이의 재구성 오차를 계산하여 획득할 수 있다. 재구성 오차가 아직 최소값에 달하지 않았을 경우, 재구성 오차에 따라 재구성 오차가 최소값에 도달할 때까지 인코딩층(21)의 인코딩 특징 표시 파라미터를 조절할 수 있으며, 재구성 오차가 최소값에 도달할 경우 해당 인코딩 특징 표시 파라미터가 인코딩층(21)에서 해당 태그 미포함 지문 샘플을 표시할 수 있다고 간주할 수 있다.
상기 인코딩층(21)과 유사한 트레이닝 방식으로, 인코딩층(22)과 인코딩층(23)에 대해 인코딩층(22)과 인코딩층(23)이 해당 태그 미포함 지문 샘플을 표시할 수 있을 때까지 각자 대응되는 디코딩층을 통하여 인코딩층(22)과 인코딩층(23)의 각자 대응되는 인코딩 특징 표시 파라미터가 해당 태그 미포함 지문 샘플과 일치하는지 여부를 검증할 수 있으며, 본 발명에서는 중복적인 설명을 생략한다.
본 실시예에 있어서, AED 네트워크에 대한 트레이닝을 통하여 AED 네트워크에서 지문 이미지에 대해 인코딩을 진행하고 인코딩 특징 표시 파라미터를 통하여 지문 이미지를 표시하게 할 수 있다. 태그 미포함 지문 샘플의 수량이 일정한 수량에 도달할 경우, 트레이닝 후의 AED 네트워크에서 지문 이미지 중의 지문 인식에 유리한 이미지 특징을 인식할 수 있도록 함으로써 저 퀄리티지문 이미지로 인해 전체적 특징점과 국부적 특징점의 추출에 실패하여 지문 인식 오류가 발생하는 상황을 방지할 수 있다.
도 3a는 일 예시적 실시예에 따른 태그 포함 지문 샘플을 통해 AED 네트워크의 파라미터에 대해 어떻게 미세 조절을 진행하는지를 도시한 흐름도이고, 도 3b는 다른 일 예시적 실시예에 따른 태그 포함 지문 샘플을 통해 AED 네트워크의 파라미터에 대해 어떻게 미세 조절을 진행하는지를 도시한 흐름도이며, 도 3c는 다른 일 예시적 실시예에 따른 AED 네트워크와 분류기의 구조 예시도이다.
도 3a에 도시된 바와 같이, 상기 지문 인식 방법은 아래와 같은 단계들을 포함한다.
단계S301에 있어서, 태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득한다.
단계S302에 있어서, 제1 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행한다.
단계S303에 있어서, 분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기에 대한 트레이닝을 정지한다.
도 3c에 도시된 바와 같이, 상기 도 2a에 도시된 실시예를 거쳐 AED에 대해 트레이닝을 진행한 후 AED 네트워크(20)의 복수의 인코딩층(도 3c에 도시된 인코딩층(21), 인코딩층(22), 인코딩층(23))의 인코딩 특징 표시 파라미터를 획득할수 있고, 각각의 인코딩층들을 통하여 태그 미포함 지문 샘플의 서로 다른 표현들을 획득할 수 있다. 당업자들이 이해할 수 있는 바, 본 발명에서는 AED 네트워크의 층 수에 대하여 제한을 두지 않는다.
AED 네트워크에 대한 분류를 구현하기 위하여, AED 네트워크의 최상층의 인코딩층 (예로, 인코딩층(23))에 하나의 분류기(31)을 추가할 수 있다. 해당 분류기(31)는 예를 들어 LOGISTIC 회귀, SVM 등 분류기일 수 있다. 표준적인 다층 신경 네트워크의 감독 트레이닝 방법 (예를 들면, 구배 하강법)에 의해 태그 포함 지문 샘플의 제1 출력 결과를 적용하여 분류기(31)를 트레이닝 시키고, 재구성 오차 계산 모듈(32)에서 계산되어 획득된 분류기로부터 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기(31)에 대한 분류를 정지함으로써 AED 네트워크(20)에서 분류 기능을 구현할 수 있도록 한다.
도 3b에 도시된 바와 같이, 상기 지문 인식 방법은 아래와 같은 단계들을 포함한다.
단계S311에 있어서, 태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득한다.
단계S312에 있어서, 제1 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행하며 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행한다.
단계S313에 있어서, 분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기에 대한 트레이닝과 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지한다.
상기 도 3a의 서술과 유사하게, 표준적인 다층 신경 네트워크의 감독 트레이닝 방법 (예를 들면, 구배 하강법)에 의해 태그 포함 지문 샘플의 제1 출력 결과를 적용하여 분류기(31)를 트레이닝 시키고 인코딩층(21), 인코딩층22과 인코딩층(23) 각 층에 대응되는 인코딩 특징 표시 파라미터들을 미세 조절한다. 재구성 오차 계산 모듈(32)에서 계산되어 획득된 분류기로부터 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 분류기(31)에 대한 분류를 정지한다. AED 네트워크(20)에서 분류를 구현할 수 있음에 기초하여 AED 네트워크(20)에 대한 미세 조절도 구현할 수 있으며, 태그 포함 지문 샘플의 데이터가 충분히 많을 경우 AED 네트워크에서 단말 대 단말 러닝 (end-to-end learning)을 구현할 수 있는 정도에 도달하게 함으로써 AED 네트워크와 분류기에서 지문 인식 시의 정확도를 향상시킬 수 있다.
도 4는 일 예시적 실시예에 따른 지문 인식 방법의 흐름도이다. 본 실시예에서는 본 발명의 실시예에서 제공한 상기 방법을 이용하여 어떻게 코사인 거리를 통하여 지문 인식을 진행하는지를 예로 예시적인 설명을 진행한다. 도 4에 도시된 바와 같이, 아래와 같은 단계들을 포함한다.
단계S401에 있어서, 지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 제1 지문 이미지에 대응되는 제1 지문 특징과 제2 지문 이미지에 대응되는 제2 지문 특징을 획득한다. 여기서, 제1 지문 특징과 제2 지문 특징의 차원 수가 동일하다.
단계S402에 있어서, 제1 지문 특징과 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득한다. 여기서, 제3 지문 특징과 제4 지문 특징의 차원 수는 동일하고 제1 지문 특징과 제2 지문 특징의 차원 수 보다 작다.
단계S401과 단계S402의 관련 서술은 상기 도 1a에 도시된 실시예의 서술을 참조하면 되고 여기서 중복적인 설명은 생략한다.
단계S403에 있어서, 제3지문 특징과 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교한다. 코사인 거리가 기 설정 임계값 보다 클 경우 단계S404를 수행하고, 코사인 거리가 기 설정 임계값 보다 작거나 같을 경우 단계S405를 수행한다.
단계S404에 있어서, 코사인 거리가 기 설정 임계값 보다 클 경우, 제1 지문 이미지와 제2 지문 이미지가 동일한 지문임을 결정한다.
단계S405에 있어서, 코사인 거리가 기 설정 임계값 보다 작거나 같을 경우, 제1 지문 이미지와 제2 지문 이미지가 서로 다른 지문임을 결정한다.
단계S403에 있어서, 샘플 데이터 베이스의 대량의 지문 샘플에 대해 트레이닝을 진행하는 것을 통하여 하나의 적절한 기 설정 임계값을 획득할 수 있다. 기 설정 임계값은 사용자가 받아들일 수 있는 인식 오류율일 수 있다. 예를 들면, 샘플 데이터 베이스에 인트라 클래스 (intra class) 샘플이 10만 쌍 있고 인터 클래스 (inter class) 가 100만 쌍 있을 경우, 천 분의 1의 인식 오류율을 유지하기 위하여 각각의 쌍에 대해 코사인 거리를 통하여 계산하여 0-1 사이의 값을 획득할 수 있다. 여기서, 인트라 클래스 샘플의 코사인 거리의 값은 10만 개이고 인터 클래스 샘플의 코사인 거리의 값은 100만 개이다. 다시 말하면, 110만 개의 코사인 거리의 값을 획득하게 되며, 해당 110만 개의 코사인 거리의 값에 인식 오류율을 결합하여 하나의 적절한 기 설정 임계값을 결정하기만 하면 된다.
본 실시예는 상기 실시예의 유익한 기술 효과를 구비하는 것에 기초하여, 제3 지문 특징과 제4 지문 특징의 코사인 거리를 통하여 지문을 식별한다. 기 설정 임계값은 대량의 지문 샘플을 통하여 트레이닝되고 획득될 수 있고 사용자가 받아들일 수 있는 인식 오류율을 결합하였으므로 어느 정도 지문 인식 제품에 대한 사용자의 체험을 향상시킬 수 있다.
도 5는 일 예시적 실시예에 따른 지문 인식 장치의 블록도이다. 도 5에 도시된 바와 같이, 지문 인식 장치는,
지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 제1 지문 이미지에 대응되는 제1 지문 특징과 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하도록 구성되되, 제1 지문 특징과 제2 지문 특징의 차원 수가 동일한, 제1 추출 모듈(51)과,
제1 추출 모듈(51)에 의해 추출된 제1 지문 특징과 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하도록 구성되되, 제3 지문 특징과 제4 지문 특징의 차원 수는 동일하고 제1 지문 특징과 제2 지문 특징의 차원 수 보다 작은, 차원 감소 처리 모듈(52)과,
차원 감소 처리 모듈(52)에 의해 차원 감소 후의 제3 지문 특징과 제4 지문 특징의 코사인 거리에 따라 제1 지문 이미지와 제2 지문 이미지가 동일한 지문인지 여부를 판정하도록 구성되는 인식 모듈(53)을 포함할 수 있다.
도 6은 다른 일 예시적 실시예에 따른 지문 인식 장치의 블록도이다. 도 6에도시된 바와 같이, 상기 도5에 도시된 실시예에 기초하여, 일 실시예에 있어서, 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며, 장치는,
태그 미포함 지문 샘플을 통하여 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하도록 구성되는 제1 트레이닝 모듈(54)과,
제1 트레이닝 모듈(54)에 의해 트레이닝되고 획득된 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하도록 구성되는 제1 재구성 모듈(55)과,
제1 재구성 모듈(55)에 의해 결정된 지문 재구성 데이터와 태그 미포함 지문 샘플의 재구성 오차를 결정하도록 구성되는 제1 결정 모듈(56)과,
제1 결정 모듈(56)에 의해 결정된 재구성 오차에 따라 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하도록 구성되는 조절 모듈(57)과,
제1 결정 모듈(56)에 의해 결정된 재구성 오차가 최소값에 도달할 경우, 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하도록 구성되는 제1 제어 모듈(58)을 더 포함할 수 있다.
일 실시예에 있어서, 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 장치는,
태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하도록 구성되는 제1 처리 모듈(59)과,
제1 처리 모듈(59)에 의해 획득된 제1 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행하도록 구성되는 제2 트레이닝 모듈(60)과,
분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 제2 트레이닝 모듈(60)을 제어하여 분류기에 대한 트레이닝을 정지하도록 구성되는 제2 제어 모듈(61)을 더 포함할 수 있다.
일 실시예에 있어서, 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며, 장치는,
태그 포함 지문 샘플을 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하도록 구성되는 제2 처리 모듈(62)과,
제2 처리 모듈(62)에 의해 획득된 제2 출력 결과를 분류기에 입력하고 태그 포함 지문 샘플을 통하여 분류기에 대해 트레이닝을 진행하며 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하도록 구성되는 제3 트레이닝 모듈(63)과,
분류기에서 출력한 결과와 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 제3 트레이닝 모듈(63)을 제어하여 분류기에 대한 트레이닝과 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하도록 구성되는 제3 제어 모듈(64)을 더 포함할 수 있다.
일 실시예에 있어서, 장치는,
이미 트레이닝된 자동 인코딩 및 디코딩 네트워크를 통하여 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하도록 구성되는 제2 추출 모듈(65)과,
제2 추출 모듈(65)에 의해 추출된 제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하도록 구성되는 제4 트레이닝 모듈(66)을 더 포함할 수 있다.
일 실시예에 있어서, 인식 모듈(53)은,
제3지문 특징과 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하도록 구성되는 비교 서브 모듈(531)과,
비교 서브 모듈(531)의 비교 결과 코사인 거리가 기 설정 임계값 보다 클 경우, 제1 지문 이미지와 제2 지문 이미지가 동일한 지문임을 결정하도록 구성되는 제1 결정 서브 모듈(532)과,
비교 서브 모듈(531)의 비교 결과 코사인 거리가 기 설정 임계값 보다 작거나 같을 경우, 제1 지문 이미지와 제2 지문 이미지가 서로 다른 지문임을 결정하도록 구성되는 제2 결정 서브 모듈(533)을 포함할 수 있다.
상기 실시예의 장치 중의 각 모듈에서 조작을 수행하는 구체적인 방식은 이미 관련된 해당 방법의 실시예 중에서 상세히 서술하였으므로, 여기서 중복된 상세한 설명은 생략한다.
도 7은 일 예시적 실시예에 따른 지문 인식 장치에 적용되는 블록도이다. 예를 들면, 해당 장치(700)는 모바일 폰, 컴퓨터, 디지털 방송 단말기, 메시지 송수신 기기, 게임 콘솔, 테블릿 기기, 의료 기기, 헬스 기기, PDA 등이 될 수 있다.
도 7을 참조하면, 장치(700)는 처리부(702), 메모리(704), 전원부(706), 멀티미디어부(708), 오디오부(710), 입출력(I/O) 인터페이스(712), 센서부(714) 및 통신부(716) 중의 하나 또는 복수의 부품을 포함할 수 있다.
처리부(702)는, 일반적으로 이동 단말기의 전체적인 조작, 예를 들면, 표시, 전화 호출, 데이터 통신, 카메라 조작 및 기록 조작에 관련된 조작을 제어할 수 있도록 구성된다. 처리부(702)는 하나 또는 복수의 프로세서(720)를 포함하여 명령을 수행함으로써 상기와 같은 방법의 전부 또는 일부 단계들을 완성한다. 그리고, 처리부(702)는 하나 또는 복수의 모듈을 포함하고 있어 처리부(702)와 기타 부품 간의 상호 작용 (interaction)을 원활히 하도록 한다. 예를 들면, 처리부(702)는 멀티미디어 모듈을 포함할 수 있으며, 멀티미디어부(708)와 처리부(702) 사이의 상호 작용을 원활히 하도록 한다.
메모리(704)는, 각종 유형의 데이터가 저장되어 있어 장치(700)의 조작을 지원하도록 구성된다. 이러한 데이터의 예로 장치(700)에서 수행되는 임의의 응용 프로그램 또는 방법을 위한 명령, 연락처 데이터, 전화번호부 데이터, 메시지, 사진, 동영상 등이 포함된다. 메모리(704)는 임의의 유형의 휘발성 또는 비휘발성 메모리, 또는 양자의 조합으로 구현할 수 있으며, 예를 들면, SRAM(Static Random Access Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), EPROM(Erasable Programmable Read Only Memory), PROM(Programmable Read-Only Memory), ROM(Read-Only Memory), 자기메모리, 플래시메모리, 하드디스크 또는 광디스크 등으로 구현될 수 있다.
전원부(706)는 장치(700)의 각종 구성 부품에 전력을 공급하기 위한 것으로, 전원부(706)는 전원 관리 시스템, 하나 또는 복수의 전원 및 장치(700)를 위하여 전력을 생성, 관리 및 분배하기 위한 기타 부품들을 포함할 수 있다.
멀티미디어부(708)는 장치(700)와 사용자 간에 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 표시 장치(LCD)와 터치 패널(TP)을 포함할 수 있다. 터치 패널을 포함할 경우, 스크린은 사용자가 입력한 신호를 수신할 수 있는 터치 스크린으로 구현될 수 있다. 터치 패널은 하나 또는 복수의 터치 센서를 포함하고 있어, 터치, 슬라이딩 및 터치 패널 상에서의 손 움직임을 감지할 수 있다. 상기 터치 센서는 터치 또는 슬라이딩 동작의 경계 위치를 감지할 수 있을 뿐만 아니라, 터치 또는 슬라이딩 조작에 관련된 지속시간 및 압력을 검출할 수 있다. 일부 실시예에 있어서, 멀티미디어부(708)는 하나의 전방 카메라 및/또는 후방 카메라를 포함한다. 장치(700)가 카메라 모드 또는 촬상 모드 등 조작 모드 상태인 경우, 전방 카메라 및/또는 후방 카메라는 외부의 멀티미디어 데이터를 수신할 수 있다. 각각의 전방 카메라와 후방 카메라는 하나의 고정된 광학 렌즈 시스템이거나 또는 가변 초점거리와 광학 줌 기능을 구비할 수 있다.
오디오부(710)는 오디오 신호를 출력 및/또는 입력하기 위한 것으로, 예를 들면, 오디오부(710)는 마이크(MIC)를 포함하고, 이동 단말기가 호출 모드, 기록 모드 및 음성 인식 모드 등 조작 모드 상태인 경우, 마이크는 외부의 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 진일보로 메모리(704)에 저장되거나 또는 통신부(716)를 거쳐 전송될 수 있다. 일부 실시예에 있어서, 오디오부(710)는 오디오 신호를 출력하기 위한 스피커를 더 포함할 수 있다.
I/O 인터페이스(712)는 처리부(702)와 주변 인터페이스 모듈 간에 인터페이스를 제공하기 위한 것으로, 상기 주변 인터페이스 모듈은 키보드, 휠 키, 버튼 등일 수 있다. 이러한 버튼은 시작 화면 버튼, 음량 버튼, 작동 버튼 및 잠금 버튼을 포함할 수 있으며 이에 한정되는 것은 아니다.
센서부(714)는 장치(700)에 여러 측면에서의 상태에 대한 평가를 제공하기 위한 것으로, 예를 들면, 센서부(714)는 장치(700)의 온/오프 상태, 디스플레이 및 키패드 등 장치(700)의 부품의 상대적 위치 결정을 검출할 수 있다. 또한, 센서부(714)는 장치(700) 또는 장치(700)의 한개 부품의 위치 변경, 사용자와 장치(700) 간의 접촉 여부, 장치(700)의 방위 또는 가속/감속 및 장치(700)의 온도 변화도 검출할 수 있다. 센서부(714)는 근접 센서를 포함할 수 있으며, 그 어떤 물리적 접촉이 없는 상태에서 부근 물체의 존재 여부를 검출할 수 있다. 센서부(714)는 영상 적용을 위한 CMOS 또는 CCD 이미지센서 등 광센서를 더 포함할 수 있다. 일부 실시예에 있어서, 상기 센서부(714)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 포함할 수 있다.
통신부(716)는 장치(700)와 기타 기기 간의 원활한 유선 또는 무선 통신을 위한 것으로, 장치(700)는 WiFi, 2G, 3G, 또는 이들의 조합 등의 통신규격에 기반한 무선 네트워크에 접속할 수 있다. 일 예시적 실시예에 있어서, 통신부(716)는 방송 채널을 통하여 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신할 수 있다. 일 예시적 실시예에 있어서, 상기 통신부(716)는 단거리 통신을 활성화하기 위한 근거리 무선 통신(NFC) 모듈을 더 포함하고 있다. 예를 들면, NFC 모듈은 RFID 기술, IrDA 기술, UWB 기술, 블루투스(BT) 기술 및 기타 기술에 기반하여 구현될 수 있다.
예시적 실시예에 있어서, 장치(700)는 하나 또는 복수의 주문형 집적회로 (ASIC), DSP(Digital Signal Processor), DSPD (Digital Signal Processing Device), PLD(Programmable Logic Device), FPGA(Field-Programmable Gate Array), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 기타 전자소자에 의하여 구현되어 상기 방법을 수행할 수 있다.
예시적 실시예에 있어서, 명령을 포함하는 비휘발성 컴퓨터 판독 가능한 기록매체를 제공하고 있는 바, 예를 들면 명령을 포함하는 메모리(704)를 포함하며, 상기 명령은 장치(700)의 프로세서(720)에 의해 수행되어 상기 방법을 구현할 수 있다. 예를 들면, 상기 비휘발성 컴퓨터 판독 가능한 기록매체는 ROM, RAM, CD-ROM, 자기테이프, 플로피디스크 및 광데이터 저장장치 등일 수 있다.
통상의 지식을 가진 자는 명세서에 대한 이해 및 명세서에 기재된 발명에 대한 실시를 통해 본 발명의 다른 실시방안를 용이하게 얻을 수 있다. 본 출원의 취지는 본 발명에 대한 임의의 변형, 용도 또는 적응적인 변화를 포함하고, 이러한 변형, 용도 또는 적응적 변화는 본 발명의 일반적인 원리에 따르고, 본 출원이 공개하지 않은 본 기술 분야의 공지기술 또는 통상의 기술수단을 포함한다. 명세서 및 실시예는 단지 예시적인 것으로서, 본 발명의 진정한 범위와 취지는 다음의 특허청구 범위에 의해 결정된다.
본 발명은 상기에 서술되고 도면에 도시된 특정 구성에 한정되지 않고 그 범위를 이탈하지 않는 상황에서 다양한 수정 및 변경을 실시할 수 있음을 이해하여야 한다. 본 발명의 범위는 단지 첨부된 특허청구 범위에 의해서만 한정된다.

Claims (13)

  1. 지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하는 단계 -상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수가 동일함- 와,
    상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하는 단계 -상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수 보다 작음- 와,
    상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계를 포함하는 것을 특징으로 하는
    지문 인식 방법.
  2. 제1항에 있어서,
    상기 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며, 상기 방법은,
    태그 미포함 지문 샘플을 통하여 상기 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하는 단계와,
    상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 상기 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 상기 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하는 단계와,
    상기 지문 재구성 데이터와 상기 태그 미포함 지문 샘플의 재구성 오차를 결정하는 단계와,
    상기 재구성 오차에 따라 상기 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하는 단계와,
    상기 재구성 오차가 최소값에 도달할 경우, 상기 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하는 단계를 더 포함하는 것을 특징으로 하는
    지문 인식 방법.
  3. 제2항에 있어서,
    상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
    상기 방법은,
    태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하는 단계와,
    상기 제1 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하는 단계와,
    상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 분류기에 대한 트레이닝을 정지하는 단계를 더 포함하는 것을 특징으로 하는
    지문 인식 방법.
  4. 제2항에 있어서,
    상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
    상기 방법은,
    태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하는 단계와,
    상기 제2 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하며 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하는 단계와,
    상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 분류기에 대한 트레이닝과 상기 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하는 단계를 더 포함하는 것을 특징으로 하는
    지문 인식 방법.
  5. 제2항에 있어서,
    상기 방법은,
    이미 트레이닝된 상기 자동 인코딩 및 디코딩 네트워크를 통하여 상기 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하는 단계와,
    상기 제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 상기 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하는 단계를 더 포함하는 것을 특징으로 하는
    지문 인식 방법.
  6. 제1항에 있어서,
    상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하는 단계는,
    상기 제3지문 특징과 상기 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하는 단계와,
    상기 코사인 거리가 상기 기 설정 임계값 보다 클 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문임을 결정하는 단계와,
    상기 코사인 거리가 상기 기 설정 임계값 보다 작거나 같을 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 서로 다른 지문임을 결정하는 단계를 포함하는 것을 특징으로 하는
    지문 인식 방법.
  7. 지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하도록 구성되는 제 1 추출 모듈 -상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수가 동일함- 과,
    상기 제1 추출 모듈에 의해 추출된 상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하도록 구성되는 차원 감소 처리 모듈 -상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수 보다 작음- 과,
    상기 차원 감소 처리 모듈에 의해 차원 감소 후의 상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하도록 구성되는 인식 모듈을 포함하는 것을 특징으로 하는
    지문 인식 장치.
  8. 제7항에 있어서,
    상기 자동 인코딩 및 디코딩 네트워크는 적어도 하나의 인코딩층을 포함하며, 상기 장치는,
    태그 미포함 지문 샘플을 통하여 상기 적어도 하나의 인코딩층 중의 각 인코딩층의 인코딩 특징 파라미터에 대해 트레이닝을 진행하여 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터를 획득하도록 구성되는 제1 트레이닝 모듈과,
    상기 제1 트레이닝 모듈에 의해 트레이닝되고 획득된 상기 각 인코딩층에 대응되는 인코딩 특징 표시 파라미터에 대해 상기 인코딩층에 대응되는 디코딩층을 통하여 데이터 재구성을 진행하여 상기 태그 미포함 지문 샘플의 지문 재구성 데이터를 획득하도록 구성되는 제1 재구성 모듈과,
    상기 제1 재구성 모듈에 의해 획득된 상기 지문 재구성 데이터와 상기 태그 미포함 지문 샘플의 재구성 오차를 결정하도록 구성되는 제1 결정 모듈과,
    상기 제1 결정 모듈에 의해 결정된 상기 재구성 오차에 따라 상기 각 인코딩층의 인코딩 특징 표시 파라미터를 조절하도록 구성되는 조절 모듈과,
    상기 제1 결정 모듈에 의해 결정된 상기 재구성 오차가 최소값에 도달할 경우, 상기 자동 인코딩 및 디코딩 네트워크에 대한 트레이닝을 정지하고 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크를 획득하도록 구성되는 제1 제어 모듈을 더 포함하는 것을 특징으로 하는
    지문 인식 장치.
  9. 제8항에 있어서,
    상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
    상기 장치는,
    태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제1 출력 결과를 획득하도록 구성되는 제1 처리 모듈과,
    상기 제1 처리 모듈에 의해 획득된 상기 제1 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하도록 구성되는 제2 트레이닝 모듈과,
    상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 제2 트레이닝 모듈을 제어하여 분류기에 대한 트레이닝을 정지하도록 구성되는 제2 제어 모듈을 더 포함하는 것을 특징으로 하는
    지문 인식 장치.
  10. 제8항에 있어서,
    상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 마지막 하나의 인코딩층에는 분류기가 연결되어 있으며,
    상기 장치는,
    태그 포함 지문 샘플을 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크에 입력하여 제2 출력 결과를 획득하도록 구성되는 제2 처리 모듈과,
    상기 제2 처리 모듈에 의해 획득된 상기 제2 출력 결과를 상기 분류기에 입력하고 상기 태그 포함 지문 샘플을 통하여 상기 분류기에 대해 트레이닝을 진행하며 상기 제1차 트레이닝 후의 자동 인코딩 및 디코딩 네트워크의 각 인코딩층의 인코딩 특징 표시 파라미터에 대해 미세 조절을 진행하도록 구성되는 제3 트레이닝 모듈과,
    상기 분류기에서 출력한 결과와 상기 태그 포함 지문 샘플의 재구성 오차가 가장 작을 경우, 상기 제3 트레이닝 모듈을 제어하여 상기 분류기에 대한 트레이닝과 상기 각 인코딩층의 인코딩 특징 표시 파라미터에 대한 미세 조절을 정지하도록 구성되는 제3 제어 모듈을 더 포함하는 것을 특징으로 하는
    지문 인식 장치.
  11. 제8항에 있어서,
    상기 장치는,
    이미 트레이닝된 상기 자동 인코딩 및 디코딩 네트워크를 통하여 상기 태그 미포함 지문 샘플의 제1 설정 차원 수의 인코딩 특징 표시 파라미터를 추출하도록 구성되는 제2 추출 모듈과,
    상기 제2 추출 모듈에 의해 추출된 상기 제1 설정 차원 수의 인코딩 특징 표시 파라미터에 대해 선형 판별식 분석 LDA 트레이닝을 진행하여 상기 LDA의 제2 설정 차원 수의 투영 매트릭스를 획득하도록 구성되는 제4 트레이닝 모듈을 더 포함하는 것을 특징으로 하는
    지문 인식 장치.
  12. 제7항에 있어서,
    상기 인식 모듈은,
    상기 제3지문 특징과 상기 제4 지문 특징의 코사인 거리와 기 설정 임계값을 비교하도록 구성되는 비교 서브 모듈과,
    상기 비교 서브 모듈의 비교 결과 상기 코사인 거리가 상기 기 설정 임계값 보다 클 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문임을 결정하도록 구성되는 제1 결정 서브 모듈과,
    상기 비교 서브 모듈의 비교 결과 상기 코사인 거리가 상기 기 설정 임계값 보다 작거나 같을 경우, 상기 제1 지문 이미지와 상기 제2 지문 이미지가 서로 다른 지문임을 결정하도록 구성되는 제2 결정 서브 모듈을 포함하는 것을 특징으로 하는
    지문 인식 장치.
  13. 프로세서와,
    프로세서에서 수행 가능한 명령어를 저장하는 메모리를 포함하고,
    상기 프로세서는,
    지문 센서에 의해 수집된 제1 지문 이미지와 데이터 베이스에 저장된 제2 지문 이미지에 대해 자동 인코딩 및 디코딩 네트워크를 통하여 특징 추출을 진행하여 상기 제1 지문 이미지에 대응되는 제1 지문 특징과 상기 제2 지문 이미지에 대응되는 제2 지문 특징을 획득하되, 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수는 동일하고,
    상기 제1 지문 특징과 상기 제2 지문 특징에 대해 차원 감소 처리를 진행하여 각 제3 지문 특징과 제4 지문 특징을 획득하되, 상기 제3 지문 특징과 상기 제4 지문 특징의 차원 수는 동일하고 상기 제1 지문 특징과 상기 제2 지문 특징의 차원 수보다 작으며,
    상기 제3 지문 특징과 상기 제4 지문 특징의 코사인 거리에 따라 상기 제1 지문 이미지와 상기 제2 지문 이미지가 동일한 지문인지 여부를 판정하도록 구성되는 것을 특징으로 하는
    지문 인식 장치.
KR1020167005169A 2015-10-28 2015-12-29 지문 인식 방법, 장치, 프로그램 및 기록매체 KR101992522B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510712896.0 2015-10-28
CN201510712896.0A CN105335713A (zh) 2015-10-28 2015-10-28 指纹识别方法及装置
PCT/CN2015/099511 WO2017071083A1 (zh) 2015-10-28 2015-12-29 指纹识别方法及装置

Publications (2)

Publication Number Publication Date
KR20180063774A true KR20180063774A (ko) 2018-06-12
KR101992522B1 KR101992522B1 (ko) 2019-06-24

Family

ID=55286229

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167005169A KR101992522B1 (ko) 2015-10-28 2015-12-29 지문 인식 방법, 장치, 프로그램 및 기록매체

Country Status (8)

Country Link
US (1) US9904840B2 (ko)
EP (1) EP3163508A1 (ko)
JP (1) JP2018500707A (ko)
KR (1) KR101992522B1 (ko)
CN (1) CN105335713A (ko)
MX (1) MX361142B (ko)
RU (1) RU2642369C2 (ko)
WO (1) WO2017071083A1 (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713466B2 (en) 2014-03-07 2020-07-14 Egis Technology Inc. Fingerprint recognition method and electronic device using the same
CN105825098B (zh) 2016-03-16 2018-03-27 广东欧珀移动通信有限公司 一种电子终端的屏幕解锁方法、图像采集方法及装置
US10452951B2 (en) * 2016-08-26 2019-10-22 Goodrich Corporation Active visual attention models for computer vision tasks
CN107885312A (zh) * 2016-09-29 2018-04-06 青岛海尔智能技术研发有限公司 一种手势控制方法及装置
IT201600105253A1 (it) * 2016-10-19 2018-04-19 Torino Politecnico Dispositivo e metodi per l'autenticazione di unn apparato d'utente
CN106599807A (zh) * 2016-12-01 2017-04-26 中科唯实科技(北京)有限公司 一种基于自编码的行人检索方法
GB2563599A (en) * 2017-06-19 2018-12-26 Zwipe As Incremental enrolment algorithm
JP6978665B2 (ja) * 2017-07-25 2021-12-08 富士通株式会社 生体画像処理装置、生体画像処理方法及び生体画像処理プログラム
CN107478869A (zh) * 2017-08-08 2017-12-15 惠州Tcl移动通信有限公司 一种移动终端指纹模组的测试夹具和测试方法
TWI676911B (zh) * 2017-10-12 2019-11-11 神盾股份有限公司 指紋識別方法以及使用指紋識別方法的電子裝置
CN108563767B (zh) 2018-04-19 2020-11-27 深圳市商汤科技有限公司 图像检索方法及装置
US11924349B2 (en) * 2022-06-09 2024-03-05 The Government of the United States of America, as represented by the Secretary of Homeland Security Third party biometric homomorphic encryption matching for privacy protection
US11843699B1 (en) 2022-06-09 2023-12-12 The Government of the United States of America, as represented by the Secretary of Homeland Security Biometric identification using homomorphic primary matching with failover non-encrypted exception handling
CN116311389B (zh) * 2022-08-18 2023-12-12 荣耀终端有限公司 指纹识别的方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100797897B1 (ko) * 2006-11-27 2008-01-24 연세대학교 산학협력단 생체정보 최적화 변환 함수를 이용한 인증시스템
KR20150039908A (ko) * 2013-10-04 2015-04-14 노두섭 영상 인식 장치 및 방법
KR20150087959A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 사용자 인증 방법 및 장치

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069914A (en) * 1996-09-19 2000-05-30 Nec Research Institute, Inc. Watermarking of image data using MPEG/JPEG coefficients
TW312770B (en) * 1996-10-15 1997-08-11 Japen Ibm Kk The hiding and taking out method of data
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
US6373970B1 (en) * 1998-12-29 2002-04-16 General Electric Company Image registration using fourier phase matching
AU2001217335A1 (en) * 2000-12-07 2002-07-01 Kyowa Hakko Kogyo Co. Ltd. Method and system for high precision classification of large quantity of information described with mutivariable
US7058815B2 (en) * 2001-01-22 2006-06-06 Cisco Technology, Inc. Method and system for digitally signing MPEG streams
US7142699B2 (en) * 2001-12-14 2006-11-28 Siemens Corporate Research, Inc. Fingerprint matching using ridge feature maps
US7092584B2 (en) * 2002-01-04 2006-08-15 Time Warner Entertainment Company Lp Registration of separations
US7254275B2 (en) * 2002-12-17 2007-08-07 Symbol Technologies, Inc. Method and system for image compression using image symmetry
US7787667B2 (en) * 2003-10-01 2010-08-31 Authentec, Inc. Spot-based finger biometric processing method and associated sensor
US20060104484A1 (en) * 2004-11-16 2006-05-18 Bolle Rudolf M Fingerprint biometric machine representations based on triangles
JP2006330873A (ja) * 2005-05-24 2006-12-07 Japan Science & Technology Agency 指紋照合装置、方法およびプログラム
KR100745980B1 (ko) * 2006-01-11 2007-08-06 삼성전자주식회사 분류기 통합을 위한 스코어 합성 방법 및 장치
JP5207870B2 (ja) * 2008-08-05 2013-06-12 日立コンピュータ機器株式会社 次元削減方法、パターン認識用辞書生成装置、及びパターン認識装置
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
US8934545B2 (en) * 2009-02-13 2015-01-13 Yahoo! Inc. Extraction of video fingerprints and identification of multimedia using video fingerprinting
US8863096B1 (en) * 2011-01-06 2014-10-14 École Polytechnique Fédérale De Lausanne (Epfl) Parallel symbolic execution on cluster of commodity hardware
US8831350B2 (en) * 2011-08-29 2014-09-09 Dst Technologies, Inc. Generation of document fingerprints for identification of electronic document types
CN102646190B (zh) * 2012-03-19 2018-05-08 深圳市腾讯计算机系统有限公司 一种基于生物特征的认证方法、装置及系统
RU2486590C1 (ru) * 2012-04-06 2013-06-27 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Юго-Западный государственный университет" (ЮЗ ГУ) Способ и устройство инвариантной идентификации отпечатков пальцев по ключевым точкам
CN102750528B (zh) * 2012-06-27 2015-06-03 西安理工大学 一种基于手掌特征提取身份识别方法
US9305559B2 (en) * 2012-10-15 2016-04-05 Digimarc Corporation Audio watermark encoding with reversing polarity and pairwise embedding
US9401153B2 (en) * 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
CN103839041B (zh) * 2012-11-27 2017-07-18 腾讯科技(深圳)有限公司 客户端特征的识别方法和装置
US9232242B2 (en) * 2012-12-11 2016-01-05 Cbs Interactive, Inc. Techniques to broadcast a network television program
CN103324944B (zh) * 2013-06-26 2016-11-16 电子科技大学 一种基于svm和稀疏表示的假指纹检测方法
CA2882968C (en) * 2015-02-23 2023-04-25 Sulfur Heron Cognitive Systems Inc. Facilitating generation of autonomous control information
KR102396514B1 (ko) * 2015-04-29 2022-05-11 삼성전자주식회사 지문 정보 처리 방법 및 이를 지원하는 전자 장치
CN104899579A (zh) * 2015-06-29 2015-09-09 小米科技有限责任公司 人脸识别方法和装置
US10339178B2 (en) * 2015-06-30 2019-07-02 Samsung Electronics Co., Ltd. Fingerprint recognition method and apparatus
FR3041423B1 (fr) * 2015-09-22 2019-10-04 Idemia Identity And Security Procede d'extraction de caracteristiques morphologiques d'un echantillon de materiel biologique
KR20170055811A (ko) * 2015-11-12 2017-05-22 삼성전자주식회사 디스플레이를 구비한 전자 장치 및 전자 장치에서 디스플레이의 동작을 제어하기 위한 방법
CN105354560A (zh) * 2015-11-25 2016-02-24 小米科技有限责任公司 指纹识别方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100797897B1 (ko) * 2006-11-27 2008-01-24 연세대학교 산학협력단 생체정보 최적화 변환 함수를 이용한 인증시스템
KR20150039908A (ko) * 2013-10-04 2015-04-14 노두섭 영상 인식 장치 및 방법
KR20150087959A (ko) * 2014-01-23 2015-07-31 삼성전자주식회사 사용자 인증 방법 및 장치

Also Published As

Publication number Publication date
US9904840B2 (en) 2018-02-27
MX361142B (es) 2018-11-27
JP2018500707A (ja) 2018-01-11
WO2017071083A1 (zh) 2017-05-04
MX2016005225A (es) 2017-08-31
US20170124379A1 (en) 2017-05-04
CN105335713A (zh) 2016-02-17
EP3163508A1 (en) 2017-05-03
KR101992522B1 (ko) 2019-06-24
RU2642369C2 (ru) 2018-01-24

Similar Documents

Publication Publication Date Title
KR101992522B1 (ko) 지문 인식 방법, 장치, 프로그램 및 기록매체
WO2021017561A1 (zh) 人脸识别方法及装置、电子设备和存储介质
CN109446994B (zh) 手势关键点检测方法、装置、电子设备及存储介质
US10282597B2 (en) Image classification method and device
EP3041206B1 (en) Method and device for displaying notification information
RU2659746C2 (ru) Способ и устройство обработки изображений
JP6587628B2 (ja) 命令生成方法及び装置
RU2628494C1 (ru) Способ и устройство для генерирования фильтра изображения
US10102505B2 (en) Server-implemented method, terminal-implemented method and device for acquiring business card information
KR101906748B1 (ko) 홍채 이미지 획득 방법 및 장치, 및 홍채 인식 장치
CN105809704A (zh) 识别图像清晰度的方法及装置
EP2986020B1 (en) Method and apparatus for adjusting video quality based on network environment
US20170310885A1 (en) Object monitoring method and device
CN104899610A (zh) 图片分类方法及装置
CN105354560A (zh) 指纹识别方法及装置
CN110569450A (zh) 一种路径推荐方法及装置
US20180341824A1 (en) Recognizing biological feature
CN105208284A (zh) 拍摄提醒方法及装置
CN108629814B (zh) 相机调整方法及装置
CN107609513B (zh) 视频类型确定方法及装置
CN105392056A (zh) 电视情景模式的确定方法及装置
US10085050B2 (en) Method and apparatus for adjusting video quality based on network environment
CN105635573A (zh) 摄像头视角调整方法和装置
CN111860552A (zh) 基于核自编码器的模型训练方法、装置及存储介质
CN105487228A (zh) 自行车码表数据显示方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant