KR102606734B1 - 생체 검출 방법 및 장치 - Google Patents

생체 검출 방법 및 장치 Download PDF

Info

Publication number
KR102606734B1
KR102606734B1 KR1020210034625A KR20210034625A KR102606734B1 KR 102606734 B1 KR102606734 B1 KR 102606734B1 KR 1020210034625 A KR1020210034625 A KR 1020210034625A KR 20210034625 A KR20210034625 A KR 20210034625A KR 102606734 B1 KR102606734 B1 KR 102606734B1
Authority
KR
South Korea
Prior art keywords
sample
original image
network
image
attack
Prior art date
Application number
KR1020210034625A
Other languages
English (en)
Other versions
KR20210037632A (ko
Inventor
하오청 펑
하이샤오 위에
지빈 홍
커야오 왕
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20210037632A publication Critical patent/KR20210037632A/ko
Application granted granted Critical
Publication of KR102606734B1 publication Critical patent/KR102606734B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24147Distances to closest patterns, e.g. nearest neighbour classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

본 출원의 실시예는 생체 검출 방법 및 장치를 개시한다. 상기 방법의 일 구체적인 실시형태는, 원본 이미지를 획득하는 단계; 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하는 단계; 공격 특징 신호의 요소별 평균값을 산출하는 단계; 및 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성하는 단계를 포함한다. 상기 실시형태는 새로운 생체 검출 방법을 제공하고, 공격 특징을 마이닝 및 확대한 생체 검출 기술에 기반하여 생체 검출을 진행함으로써 생체 검출의 정확도를 크게 향상시키도록 한다.

Description

생체 검출 방법 및 장치{METHOD AND APPARATUS FOR SPOOF DETECTION}
본 출원의 실시예는 컴퓨터 기술분야에 관한 것으로, 구체적으로 생체 검출 방법 및 장치에 관한 것이다.
생체 검출은 하나의 이미지가 생체 촬영인지 아닌지를 검출하는 것으로, 생체 인식 시스템의 기본 구성 모듈이며, 생체 인식 시스템의 보안성을 확보한다. 딥러닝 기술을 사용한 생체 검출 알고리즘은 현재 해당 분야의 주된 방법이고, 종래 알고리즘에 비해 정확도가 크게 향상되었다.
현재, 생체 검출 알고리즘의 구현 방안은 많으며, 기술 경로에 따라 주로 종래 생체 수동 특징 추출 및 분류 방법과 딥러닝을 사용한 생체 검출 방법 등 두 가지로 나뉜다. 여기서, 종래 생체 수동 특징 추출 및 분류 방법에는 주로 LBP(Local binary pattern, 로컬 바이너리 패턴), HOG(Histogram of oriented gradients, 방향 기울기 히스토그램), SIFT(Scale-invariant feature transform, 스케일 불변 특징 변환) 등 수동 특징에 기반한 종래 분류기의 생체 검출 방법이 있다. 이러한 방법은 먼저 수동으로 디자인한 특징 추출기에 기반하여 생체 특징을 추출한 후, SVM(Support Vector Machine, 서포트 벡터 머신)과 같은 종래 분류기에 기반하여 특징 분류를 진행함으로써 최종적으로 생체 검출 결과를 획득한다. 딥러닝을 이용한 생체 검출 방법에는 주로 콘볼루션 신경망, LSTM(Long Short-Term Memory, 장단기 메모리) 등에 기반한 생체 검출 방법이 있다. 이러한 방법들은 신경망을 사용하여 생체 특징 추출 및 분류를 진행한다.
논문(Amin Jourabloo 외 2명,Face De-Spoofing: Anti-Spoofing via Noise Modeling, https://doi.org/10.48550/arXiv.1807.09968, 2018.07.26.)
본 출원의 실시예는 생체 검출 방법 및 장치를 제공한다.
제1 양태에 따르면, 본 출원의 실시예는 생체 검출 방법을 제공하고, 상기 방법은 원본 이미지를 획득하는 단계; 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하는 단계; 공격 특징 신호의 요소별 평균값을 산출하는 단계; 및 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성하는 단계를 포함한다.
일부 실시예에 있어서, 트레이닝이 완료된 공격 특징 추출 네트워크는, 트레이닝 샘플을 획득하는 단계, 여기서 트레이닝 샘플은 샘플 원본 이미지 및 샘플 카테고리 라벨을 포함하고, 샘플 카테고리 라벨은 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시하며; 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 통해 획득된다.
일부 실시예에 있어서, 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계는, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호 및 생체 샘플에 대응하는 픽셀별 L1 손실을 획득하는 단계; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하는 단계; 및 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 네트워크 수렴에 업데이트하여, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 포함한다.
일부 실시예에 있어서, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호를 획득하는 단계는, 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함하고; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리를 획득하는 단계는, 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하는 단계; 및 샘플 중첩 이미지를 트레이닝할 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력하는 단계를 포함한다.
일부 실시예에 있어서, 공격 특징 추출 네트워크는 인코더-디코더 구조이고; 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계는, 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계; 및 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함한다.
일부 실시예에 있어서, 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함하고; 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계는, 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하는 단계를 포함하되, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 샘플 인코딩 이미지이다.
일부 실시예에 있어서, 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함하고; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계는, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 샘플 디코딩 이미지를 획득하는 단계를 포함한다.
일부 실시예에 있어서, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하는 단계는, 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득하는 단계; 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득하는 단계; 샘플 콘볼루션 디코딩 이미지와 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득하는 단계; 및 샘플 병합 디코딩 이미지를 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 현재 디코딩 잔차 서브 네트워크의 출력을 획득하는 단계를 포함한다.
제2 양태에 따르면, 본 출원의 실시예는 생체 검출 장치를 제공하고, 상기 장치는 원본 이미지를 획득하도록 구성되는 획득 유닛; 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하도록 구성되는 추출 유닛; 공격 특징 신호의 요소별 평균값을 산출하도록 구성되는 연산 유닛; 및 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성하도록 구성되는 생성 유닛을 포함한다.
일부 실시예에 있어서, 트레이닝이 완료된 공격 특징 추출 네트워크는, 트레이닝 샘플을 획득하는 단계, 여기서 트레이닝 샘플은 샘플 원본 이미지 및 샘플 카테고리 라벨을 포함하고, 샘플 카테고리 라벨은 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시하며; 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 통해 획득된다.
일부 실시예에 있어서, 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계는, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호 및 생체 샘플에 대응하는 픽셀별 L1 손실을 획득하는 단계; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하는 단계; 및 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 네트워크 수렴에 업데이트하여, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 포함한다.
일부 실시예에 있어서, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호를 획득하는 단계는, 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함하고; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리를 획득하는 단계는, 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하는 단계; 및 샘플 중첩 이미지를 트레이닝할 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력하는 단계를 포함한다.
일부 실시예에 있어서, 공격 특징 추출 네트워크는 인코더-디코더 구조이고; 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계는, 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계; 및 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함한다.
일부 실시예에 있어서, 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함하고; 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계는, 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하는 단계를 포함하되, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 샘플 인코딩 이미지이다.
일부 실시예에 있어서, 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함하고; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계는, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 샘플 디코딩 이미지를 획득하는 단계를 포함한다.
일부 실시예에 있어서, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하는 단계는, 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득하는 단계; 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득하는 단계; 샘플 콘볼루션 디코딩 이미지와 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득하는 단계; 및 샘플 병합 디코딩 이미지를 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 현재 디코딩 잔차 서브 네트워크의 출력을 획득하는 단계를 포함한다.
제3 양태에 따르면, 본 출원의 실시예는 전자 기기를 제공하고, 상기 전자 기기는, 하나 또는 다수의 프로세서; 및 하나 또는 다수의 프로그램이 저장된 저장 장치를 포함하되, 하나 또는 다수의 프로그램이 하나 또는 다수의 프로세서에 의해 실행될 경우, 하나 또는 다수의 프로세서가 제1 양태 중 어느 한 실시형태에 따른 방법을 구현한다.
제4 양태에 따르면, 본 출원의 실시예는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 매체를 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1 양태 중 어느 한 실시형태에 따른 방법을 구현한다.
제5 양태에 따르면, 본 출원의 실시예는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 제공하고, 상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1 양태 중 어느 한 실시형태에 따른 방법을 구현한다.
본 출원의 실시예에서 제공하는 생체 검출 방법 및 장치는, 먼저 획득한 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하고; 다음 공격 특징 신호의 요소별 평균값을 산출하며; 마지막으로 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성한다. 새로운 생체 검출 방법을 제공하고, 공격 특징을 마이닝 및 확대한 생체 검출 기술에 기반하여 생체 검출을 진행함으로써 생체 검출의 정확도를 크게 향상시키도록 한다.
아래 첨부 도면에 도시된 비제한적인 실시예의 상세한 설명을 열독 및 참조하면 본 출원의 다른 특징, 목적 및 장점이 보다 명백해질 것이다.
도 1은 본 출원이 적용될 수 있는 예시적 시스템 아키텍처이다.
도 2는 본 출원에 따른 생체 검출 방법의 일 예시적 흐름도이다.
도 3은 본 출원에 따른 공격 특징 추출 네트워크 트레이닝 방법의 일 실시예의 흐름도이다.
도 4는 본 출원에 따른 공격 특징 추출 네트워크 트레이닝 방법의 또 다른 실시예의 흐름도이다.
도 5는 공격 특징 추출 네트워크 트레이닝 방법의 기술적 아키텍처이다.
도 6은 디코딩 잔차 서브 네트워크의 구조도이다.
도 7은 공격 특징 추출 네트워크 및 보조 분류기 네트워크의 구조도이다.
도 8은 본 출원에 따른 생체 검출 장치의 일 실시예의 구조 개략도이다.
도 9는 본 출원의 실시예에 따른 전자 기기의 컴퓨터 시스템을 구현할 수 있는 구조 개략도이다.
아래 첨부 도면 및 실시예를 참조하여 본 출원을 더 상세히 설명한다. 여기서 설명되는 구체적인 실시예는 관련 발명을 해석하기 위한 것일 뿐 본 출원은 이에 한정되지 않음을 이해할 수 있을 것이다. 이 외에, 설명의 편의를 위해 도면에는 해당 발명과 관련된 부분만이 도시되었음을 유의해야 한다.
모순되지 않는 한 본 출원의 실시예 및 실시예의 특징은 서로 조합될 수 있음을 유의해야 한다. 아래 첨부 도면을 참조하고 실시예를 참조하여 본 출원을 상세히 설명하기로 한다.
도 1은 본 출원에 따른 생체 검출 방법 또는 생체 검출 장치의 실시예를 구현할 수 있는 예시적 시스템 아키텍처(100)이다.
도 1에 도시된 바와 같이, 시스템 아키텍처(100)는 촬영 기기(101), 네트워크(102) 및 서버(103)를 포함할 수 있다. 네트워크(102)는 촬영 기기(101)와 서버(103) 사이에서 통신 링크의 매체를 제공한다. 네트워크(102)는 다양한 연결 타입을 포함할 수 있는 바, 예를 들면 유선, 무선 통신 링크 또는 광섬유 케이블 등이다.
촬영 기기(101)는 하드웨어일 수 있고 소프트웨어일 수도 있다. 촬영 기기(101)가 하드웨어인 경우 이미지 촬영을 지원하는 다양한 전자 기기일 수 있으며, 카메라, 촬영기 및 스마트폰 등을 포함하나 이에 한정되는 것은 아니다. 촬영 기기(101)가 소프트웨어인 경우 상기 전자 기기에 설치될 수 있다. 다수의 소프트웨어 또는 소프트웨어 모듈로 구현될 수 있고, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수도 있으며 여기서는 구체적으로 한정하지 않는다.
서버(103)는 다양한 서비스를 제공할 수 있고, 예를 들면 서버(103)는 촬영 기기(101)에서 획득한 원본 이미지 등 데이터에 대해 분석 등 처리를 진행하고 처리 결과(예를 들면 생체 검출 결과)를 생성할 수 있다.
부연하여 설명하면, 서버(103)는 하드웨어일 수 있고 소프트웨어일 수도 있다. 서버(103)가 하드웨어인 경우 다수의 서버로 구성된 분산형 서버 클러스터로 구현될 수 있고, 하나의 서버로 구현될 수도 있다. 서버(103)가 소프트웨어인 경우 다수의 소프트웨어 또는 소프트웨어 모듈(예를 들면 분산형 서비스를 제공함)로 구현될 수 있고, 하나의 소프트웨어 또는 소프트웨어 모듈로 구현될 수도 있으며 여기서는 구체적으로 한정하지 않는다.
부연하여 설명하면, 본 출원의 실시예가 제공하는 생체 검출 방법은 일반적으로 서버(103)에 의해 수행되고, 상응하게, 생체 검출 장치는 일반적으로 서버(103)에 설치된다.
이해해야 할 것은, 도 1 중의 촬영 기기, 네트워크 및 서버의 개수는 예시적인 것일 뿐이며, 실제 필요에 따라 임의의 개수의 촬영 기기, 네트워크 및 서버를 구비할 수 있다.
계속하여 도 2를 참조하면, 본 출원에 따른 생체 검출 방법의 일 실시예의 흐름(200)이다. 상기 생체 검출 방법은 아래와 같은 단계를 포함한다.
단계 201: 원본 이미지를 획득한다.
본 실시예에 있어서, 생체 검출 방법의 수행 주체(예를 들면 도 1에 도시된 서버(103))는 촬영 기기(예를 들면 도 1에 도시된 촬영 기기(101))가 발송한 원본 이미지를 수신할 수 있다. 여기서, 원본 이미지는 촬영 기기가 검출해야 할 타깃(예를 들면 사람 얼굴)을 촬영하여 획득한 이미지이다.
단계 202: 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력한다.
본 실시예에 있어서, 상기 수행 주체는 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력할 수 있다. 여기서, 공격 특징 추출 네트워크는 이에 입력된 이미지의 공격 특징 신호를 추출할 수 있다. 공격 특징 신호는 이에 입력된 이미지 중의 타깃일 수 있으나 생체의 특징 신호가 아니다. 생체의 공격 특징 신호는 일반적으로 제로 맵이고, 비생체의 공격 특징 신호는 일반적으로 제로 맵이 아니다.
단계 203: 공격 특징 신호의 요소별 평균값을 산출한다.
본 실시예에 있어서, 상기 수행 주체는 공격 특징 신호의 요소별(element-wise) 평균값을 산출할 수 있다. 여기서, 요소별 평균값은 공격 특징 신호를 요소별로 덧셈하여 얻은 평균값일 수 있다.
단계 204: 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성한다.
본 실시예에 있어서, 상기 수행 주체는 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성할 수 있다. 여기서, 생체 검출 결과는 원본 이미지 중의 타깃이 생체인지 아닌지를 설명하는 정보일 수 있다. 일반적으로, 요소별 평균값이 클수록, 원본 이미지 중의 타깃이 생체가 아닐 가능성이 높고, 원본 이미지가 공격 이미지일 가능성이 높으며; 반면에, 요소별 평균값이 작을수록, 원본 이미지 중의 타깃이 생체일 가능성이 높고, 원본 이미지가 공격 이미지가 아닐 가능성이 높다. 이로써, 상기 수행 주체는 요소별 평균값을 기설정된 임계값과 비교할 수 있다. 요소별 평균값이 기설정된 임계값보다 크면, 원본 이미지에서 생성된 타깃은 생체의 검출 결과가 아니고; 요소별 평균값이 기설정된 임계값보다 작으면, 원본 이미지에서 생성된 타깃은 생체의 검출 결과이다.
본 출원의 실시예에서 제공하는 생체 검출 방법은, 먼저 획득한 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하고; 다음 공격 특징 신호의 요소별 평균값을 산출하며; 마지막으로 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성한다. 새로운 생체 검출 방법을 제공하며, 공격 특징을 마이닝 및 확대한 생체 검출 기술에 기반하여 생체 검출을 진행함으로써 생체 검출의 정확도를 크게 향상시키도록 한다. 기존의 종래 생체 수동 특징 추출 및 분류 방법에 비해 특징의 안정성이 강하고, 빛 등 요소의 영향을 쉽게 받지 않는다. 기존의 딥러닝을 사용한 생체 검출 방법에 비해, 작은 범위의 트레이닝 샘플에서 피팅을 하지 않으며, 미지의 공격 형태 및 샘플의 일반화를 향상시켰다. 이 외에, 본 출원의 실시예에서 제공하는 생체 검출 방법이 안면 생체 검출 장면에 응용될 경우, 안면 생체 검출 성능을 향상시킬 수 있다. 안면 생체 검출 성능의 향상을 통해 안면 인식 영역의 출석 체크, 출입 통제, 보안, 금융 결제 등 다양한 장면에 응용될 수 있다. 안면 생체 검출 기술을 기반으로 한 다양한 응용 효과 및 사용자 체험을 지원함으로써 서비스 프로젝트의 홍보에 도움이 된다.
또한 도 3을 참조하면, 본 출원에 따른 공격 특징 추출 네트워크 트레이닝 방법의 일 실시예의 흐름(300)이다. 상기 공격 특징 추출 네트워크 트레이닝 방법은 아래와 같은 단계를 포함한다.
단계 301: 트레이닝 샘플을 획득한다.
본 실시예에 있어서, 공격 특징 추출 네트워크 트레이닝 방법의 수행 주체(예를 들면 도 1에 도시된 서버(103))는 대량의 트레이닝 샘플을 획득할 수 있다. 여기서, 각각의 트레이닝 샘플은 샘플 원본 이미지 및 대응되는 샘플 카테고리 라벨을 포함할 수 있다. 샘플 카테고리 라벨은 상응한 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시할 수 있다. 예를 들어, 샘플 원본 이미지가 생체를 촬영하여 획득한 이미지이면, 이에 대응하는 샘플 카테고리 태그의 값은 1일 수 있고, 상기 샘플 원본 이미지와 대응되는 샘플 카테고리 태그가 구성한 트레이닝 샘플은 생체 샘플에 속한다. 샘플 원본 이미지가 비생체를 촬영하여 획득한 이미지이면, 이에 대응하는 샘플 카테고리 태그의 값은 0일 수 있고, 상기 샘플 원본 이미지와 대응되는 샘플 카테고리 태그가 구성한 트레이닝 샘플은 공격 샘플에 속한다.
단계 302: 상기 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득한다.
본 실시예에 있어서, 상기 수행 주체는 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득할 수 있다. 여기서, 공격 특징 추출 네트워크는 이에 입력한 이미지의 공격 특징 신호를 추출할 수 있다. 보조 분류기 네트워크는 예를 들면 ResNet(Residual Network, 잔차 네트워크)18 등 이진 분류를 진행하도록 하는 네트워크일 수 있고, 이에 입력한 공격 특징 신호에 기반하여 이미지 중의 타깃이 생체인지 아닌지를 검출할 수 있다.
일반적으로, 네트워크 트레이닝을 진행할 경우, 공격 특징 추출 네트워크의 출력은 보조 분류기 네트워크의 입력으로 할 수 있다. 예를 들면, 먼저 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호 및 생체 샘플에 대응하는 픽셀별 L1 손실(pixel-wise L1 loss)을 획득하고; 다음 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하며; 마지막으로 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 네트워크 수렴에 업데이트하여, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득한다. 여기서, 공격 특징 신호를 추출할 경우, 샘플 원본 이미지를 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력한다. 생체 샘플의 공격 특징 신호를 제로 맵으로 정의하고, 픽셀별 L1 손실을 인입하여 생체 샘플을 모니터링하며, 공격 샘플의 출력 결과는 모니터링하지 않는다. 공격 특징 신호의 추출을 완료한 후, 먼저 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하고, 다음 샘플 중첩 이미지를 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력한다. 샘플 공격 특징을 샘플 원본 이미지에 중첩하고 보조 분류기 네트워크를 입력하며, 이진 분류 손실 함수를 인입하여 네트워크 수렴에 대해 보조 모니터링을 진행한다.
부연하여 설명하면, 보조 분류기 네트워크는 네트워크 트레이닝 단계에서만 작용한다. 네트워크 예측 단계에서, 공격 특징 추출 네트워크의 출력에 대해 요소별 평균값 동작을 수행하여, 요소별 평균값을 이미지 중의 타깃이 생체인지 아닌지를 검출하는 근거로 한다.
또한 도 4를 참조하면, 본 출원에 따른 공격 특징 추출 네트워크 트레이닝 방법의 또 다른 실시예의 흐름(400)이다. 본 실시예 중의 공격 특징 추출 네트워크는 인코더-디코더(encoder-decoder) 구조일 수 있다. 상기 공격 특징 추출 네트워크 트레이닝 방법은 아래와 같은 단계를 포함할 수 있다.
단계 401: 트레이닝 샘플을 획득한다.
본 실시예에 있어서, 공격 특징 추출 네트워크 트레이닝 방법의 수행 주체(예를 들면 도 1에 도시된 서버(103))는 대량의 트레이닝 샘플을 획득할 수 있다. 여기서, 각각의 트레이닝 샘플은 샘플 원본 이미지 및 대응되는 샘플 카테고리 라벨을 포함할 수 있다. 샘플 카테고리 라벨은 상응한 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시할 수 있다. 예를 들어, 샘플 원본 이미지가 생체를 촬영하여 획득한 이미지이면, 이에 대응하는 샘플 카테고리 태그의 값은 1일 수 있고, 상기 샘플 원본 이미지와 대응되는 샘플 카테고리 태그가 구성한 트레이닝 샘플은 생체 샘플에 속한다. 샘플 원본 이미지가 비생체를 촬영하여 획득한 이미지이면, 이에 대응하는 샘플 카테고리 태그의 값은 0일 수 있고, 상기 샘플 원본 이미지와 대응되는 샘플 카테고리 태그가 구성한 트레이닝 샘플은 공격 샘플에 속한다.
단계 402: 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력한다.
본 실시예에 있어서, 상기 수행 주체는 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력할 수 있다. 일반적으로, ResNet18을 공격 특징 추출 네트워크의 인코더로 할 수 있다. 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함할 수 있다. 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하도록 한다. 여기서, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 샘플 인코딩 이미지일 수 있다. 예를 들면, 인코더는 5개의 인코딩 잔차 서브 네트워크를 포함할 수 있고, 각각의 인코딩 잔차 서브 네트워크는 샘플 원본 이미지에 대해 한 번의 다운 샘플링을 진행할 수 있으며, 샘플 원본 이미지에 대해 총 다섯 번의 다운 샘플링을 진행할 수 있다.
단계 403: 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력한다.
본 실시예에 있어서, 상기 수행 주체는 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력할 수 있다. 일반적으로, 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함할 수 있다. 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 샘플 디코딩 이미지를 획득하도록 한다. 여기서, 마지막 하나의 디코딩 잔차 서브 네트워크의 출력은 샘플 디코딩 이미지일 수 있다. 예를 들면, 디코더는 4개의 디코딩 잔차 서브 네트워크를 포함할 수 있고, 각각의 디코딩 잔차 서브 네트워크는 샘플 인코딩 이미지에 대해 한 번의 업 샘플링을 진행할 수 있으며, 샘플 인코딩 이미지에 대해 총 네 번의 업 샘플링을 진행할 수 있다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 상기 수행 주체는 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득할 수 있고; 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션(예를 들면 2 × 2콘볼루션)을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득할 수 있으며; 샘플 콘볼루션 디코딩 이미지와 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득할 수 있고; 샘플 병합 디코딩 이미지를 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 현재 디코딩 잔차 서브 네트워크의 출력을 획득할 수 있다.
단계 404: 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 샘플 공격 특징 신호를 출력하고, 생체 샘플에 대응하는 픽셀별 L1 손실을 획득한다.
본 실시예에 있어서, 상기 수행 주체는 샘플 디코딩 이미지를 탄젠트(tanh) 활성화층에 입력하여, 샘플 공격 특징 신호를 출력할 수 있다. 이 외에, 생체 샘플에 대응하는 픽셀별 L1 손실을 획득할 수도 있다. 여기서, 생체 샘플의 공격 특징 신호를 제로 맵으로 정의하고, 픽셀별 L1 손실을 인입하여 생체 샘플을 모니터링하며, 공격 샘플의 출력 결과는 모니터링하지 않는다.
단계 405: 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득한다.
본 실시예에 있어서, 상기 수행 주체는 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득할 수 있다.
단계 406: 샘플 중첩 이미지를 트레이닝할 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력하고, 이진 분류 손실을 획득한다.
본 실시예에 있어서, 상기 수행 주체는 샘플 중첩 이미지를 트레이닝할 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력할 수 있다. 이 외에, 이진 분류 손실을 획득할 수도 있다. 여기서, 이진 분류 손실 함수를 인입하여 네트워크 수렴에 대해 보조 모니터링을 진행한다.
단계 407: 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 네트워크가 수렴될 때까지 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 업데이트함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득한다.
본 실시예에 있어서, 상기 수행 주체는 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 각 네트워크가 수렴될 때까지 업데이트함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득할 수 있다.
본 출원의 실시예에서 제공하는 공격 특징 추출 네트워크 트레이닝 방법은, 인코더-디코더 구조를 사용하여 공격 특징 신호를 추출하고, 디코더 단계에서 다단계 메트릭 러닝을 인입하여 공격 샘플과 생체 샘플의 카테고리 간 특징 거리를 확대하고 생체 샘플의 카테고리 내 특징 거리를 단축한다. 생체 샘플의 공격 특징 신호를 제로 맵으로 정의하고, 픽셀별 L1 손실을 인입하여 생체 샘플을 모니터링하며, 공격 샘플의 출력 결과는 모니터링하지 않는다. 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩하고, 보조 분류기 네트워크를 사용하여 공격 특징 신호를 더 확대함으로써, 네트워크 일반화를 향상시킨다. 새로운 공격 특징 신호 모델링 형태를 디자인하고, 다단계 메트릭 러닝, 픽셀별 L1 손실 모니터링 및 보조 분류기 네트워크를 결합한 인코더-디코더 구조를 통해 공격 특징 신호를 추출 및 확대하고, 최종적으로 공격 특징 신호의 강약을 통해 생체 검출을 진행하여, 네트워크 트레이닝 수렴 속도를 높일뿐만 아니라 생체 알고리즘의 일반화를 향상시키고 생체 알고리즘이 미지의 공격 샘플 및 공격 형태에 대한 방어 효과를 향상시킨다.
또한 도 5를 참조하면, 공격 특징 추출 네트워크 트레이닝 방법의 기술 아키텍처이다. 도 5에 도시된 바와 같이, 공격 특징 추출 네트워크 트레이닝 방법의 기술 아키텍처는 공격 특징 추출 네트워크 및 보조 분류기 네트워크를 포함할 수 있다. 여기서, 공격 특징 추출 네트워크는 인코더-디코더 구조일 수 있다. 트레이닝 샘플은 생체 샘플 및 공격 샘플을 포함할 수 있다. 트레이닝 샘플 중의 샘플 원본 이미지는 인코더에 입력하고, 인코딩 처리 후 디코더에 입력할 수 있다. 디코더는 다단계 삼중항 손실을 인입하여, 샘플 공격 특징 신호 및 생체 샘플에 대응하는 L1 손실을 획득한다. 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩한 후 보조 분류기 네트워크에 입력하여 보조 분류를 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득한다. 마지막으로 L1 손실과 이진 분류 손실을 결합하고, 공격 특징 추출 네트워크 및 보조 분류기 네트워크의 파라미터를 동시에 네트워크 수렴에 업데이트하여, 공격 특징 추출 네트워크에 대한 트레이닝을 완료한다.
또한 도 6을 참조하면, 디코딩 잔차 서브 네트워크의 구조도이다. 도 6에 도시된 바와 같이, 최근접 보간법을 사용하여 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하고, 업 샘플링을 완료한 후 한 번의 2 × 2 콘볼루션을 진행하며, 대칭되는 인코딩 잔차 서브 네트워크의 출력과 병합하고, 병합한 후 하나의 인코딩 잔차 서브 네트워크를 거쳐, 디코딩 잔차 서브 네트워크의 출력을 획득한다.
또한 도 7을 참조하면, 공격 특징 추출 네트워크 및 보조 분류기 네트워크의 구조도이다. 도 7에 도시된 바와 같이, 공격 특징 추출 네트워크는 인코더-디코더 구조일 수 있다. 인코더는 5개의 인코딩 잔차 서브 네트워크를 포함할 수 있고, 디코더는 4개의 디코딩 잔차 서브 네트워크를 포함할 수 있다. 트레이닝 샘플은 생체 샘플 및 공격 샘플을 포함할 수 있다. 트레이닝 샘플 중의 샘플 원본 이미지를 인코더에 입력하고, 5개의 인코딩 잔차 서브 네트워크를 거쳐 순차적으로 직렬 다운 샘플링할 수 있다. 다운 샘플링을 완료한 후 디코더에 입력하고, 디코더에 다단계 삼중항 손실을 인입하며, 4개의 디코딩 잔차 서브 네트워크를 거쳐 순차적으로 직렬 업 샘플링하여, 샘플 공격 특징 신호 및 생체 L1 손실을 획득한다. 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩한 후 보조 분류기 네트워크에 입력하여 보조 분류를 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득한다. 생체 L1 손실과 이진 분류 손실을 결합하고, 공격 특징 추출 네트워크 및 보조 분류기 네트워크의 파라미터를 네트워크 수렴에 업데이트하여, 공격 특징 추출 네트워크에 대한 트레이닝을 완료한다.
또한 도 8을 참조하면, 상기 각 도면에 따른 방법의 구현으로서, 본 출원은 생체 검출 장치의 일 실시예를 제공하고, 상기 장치 실시예는 도 2에 도시된 방법의 실시예에 대응되며, 상기 장치는 다양한 전자 기기에 적용될 수 있다.
도 8에 도시된 바와 같이, 본 실시예의 생체 검출 장치(800)는 획득 유닛(801), 추출 유닛(802), 연산 유닛(803) 및 생성 유닛(804)을 포함할 수 있다. 여기서, 획득 유닛(801)은 원본 이미지를 획득하도록 구성되고; 추출 유닛(802)은 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하도록 구성되며; 연산 유닛(803)은 공격 특징 신호의 요소별 평균값을 산출하도록 구성되고; 생성 유닛(804)은 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성하도록 구성된다.
본 실시예에 있어서, 생체 검출 장치(800)에서 획득 유닛(801), 추출 유닛(802), 연산 유닛(803) 및 생성 유닛(804)의 구체적 처리 및 기술적 효과는 각각 도 2에 대응하는 실시예 중의 단계 201-204의 관련된 설명을 참조하고 여기서는 더이상 반복 설명하지 않는다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 트레이닝이 완료된 공격 특징 추출 네트워크는, 트레이닝 샘플을 획득하는 단계, 여기서 트레이닝 샘플은 샘플 원본 이미지 및 샘플 카테고리 라벨을 포함하고, 샘플 카테고리 라벨은 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시하며; 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 통해 획득된다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계는, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호 및 생체 샘플에 대응하는 픽셀별 L1 손실을 획득하는 단계; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하는 단계; 및 픽셀별 L1 손실 및 이진 분류 손실을 결합하여, 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크의 파라미터를 네트워크 수렴에 업데이트하여, 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 샘플 원본 이미지를 사용하여 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 공격 특징 신호를 획득하는 단계는, 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함하고; 샘플 공격 특징 신호를 사용하여 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 샘플 원본 이미지의 샘플 카테고리를 획득하는 단계는, 샘플 공격 특징 신호를 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하는 단계; 및 샘플 중첩 이미지를 트레이닝할 보조 분류기 네트워크에 입력하여, 샘플 원본 이미지의 샘플 카테고리를 출력하는 단계를 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 공격 특징 추출 네트워크는 인코더-디코더 구조이고; 샘플 원본 이미지를 트레이닝할 공격 특징 추출 네트워크에 입력하여, 샘플 공격 특징 신호를 출력하는 단계는, 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계; 및 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 샘플 공격 특징 신호를 출력하는 단계를 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함하고; 샘플 원본 이미지를 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계는, 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하는 단계를 포함하되, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 샘플 인코딩 이미지이다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함하고; 샘플 인코딩 이미지를 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계는, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 샘플 디코딩 이미지를 획득하는 단계를 포함한다.
본 실시예의 일부 선택 가능한 실시형태에 있어서, 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하는 단계는, 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득하는 단계; 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득하는 단계; 샘플 콘볼루션 디코딩 이미지와 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득하는 단계; 및 샘플 병합 디코딩 이미지를 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 현재 디코딩 잔차 서브 네트워크의 출력을 획득하는 단계를 포함한다.
아래 도 9를 참조하면, 본 출원의 실시예에 따른 전자 기기(예를 들면 도 9에 도시된 서버(103))의 컴퓨터 시스템(900)을 구현할 수 있는 구조 개략도이다. 도 9에 도시된 전자 기기는 하나의 예시일 뿐, 본 출원의 실시예의 기능 또는 사용범위에 대한 어떠한 한정도 아니다.
도 9에 도시된 바와 같이, 컴퓨터 시스템(900)은 판독 전용 메모리(ROM)(902)에 저장된 프로그램 또는 저장부(908)으로부터 랜덤 액세스 메모리(903)에 로딩된 프로그램에 따라 다양하고 적절한 동작 및 처리를 수행할 수 있는 중앙 처리 장치(CPU)(901)를 포함한다. RAM(903)에는 또한 시스템(900)의 조작에 필요한 다양한 프로그램 및 데이터가 저장된다. CPU(901), ROM(902) 및 RAM(903)은 버스(904)를 통해 서로 연결된다. 입력/출력(I/O) 인터페이스(905) 역시 버스(904)에 연결된다.
키보드, 마우스 등을 포함하는 입력부(906); 예를 들어 음극 선관(CRT), 액정 디스플레이(LCD) 등 및 스피커 등을 포함하는 출력부(907); 하드 디스크 등을 포함하는 저장부(908); 및 LAN 카드, 모뎀 등과 같은 네트워크 인터페이스 카드를 포함하는 통신부(909)은 I/O 인터페이스(905)에 연결된다. 통신부(909)은 인터넷과 같은 네트워크를 통해 통신 처리를 수행한다. 구동 장치(910) 역시 필요에 따라 I/O 인터페이스(905)에 연결된다. 자기 디스크, 광 디스크, 광 자기 디스크, 반도체 메모리 등과 같은 착탈 가능한 매체(911)는 필요에 따라 그 중에서 판독된 컴퓨터 프로그램이 저장부(908)에 설치되도록 필요에 따라 드라이브(910)에 장착된다
특히, 본 출원의 실시예에 따르면, 앞에서 흐름도를 참조하여 설명한 과정은 컴퓨터 소프트웨어 프로그램으로서 구현될 수 있다. 예를 들어, 본 출원의 실시예는 컴퓨터 판독 가능 매체에 베어링된 컴퓨터 프로그램을 포함하는 컴퓨터 프로그램 제품을 포함하고, 상기 컴퓨터 프로그램은 흐름도에 도시된 방법을 수행하기 위한 프로그램 코드를 포함한다. 이런 실시예에서, 상기 컴퓨터 프로그램은 통신부(909)을 통해 네트워크로부터 다운로드 및 설치될 수 있고 및/또는 착탈 가능한 매체(911)로부터 설치될 수 있다. 컴퓨터 프로그램이 중앙 처리 장치(CPU)(901)에 의해 실행될 때, 본 출원의 방법에 한정된 상기 기능들이 수행된다.
본 출원에 기재된 컴퓨터 판독 가능 매체는 컴퓨터 판독 가능 저장 매체일 수 있음에 유의해야 한다. 컴퓨터 판독 가능 매체는 예를 들어, 전자, 자기, 광학, 전자기, 적외선 또는 반도체 시스템, 장치 또는 소자, 또는 이들의 임의의 조합일 수 있지만 이에 한정되지는 않는다. 컴퓨터 판독 가능 매체의 보다 구체적인 예는 하나 또는 복수의 도선에 의해 전기적으로 연결되, 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 소거 가능 프로그램 가능 읽기 전용 메모리(EPROM 또는 플래시 메모리), 광섬유, 휴대용 컴팩트 디스크 판독 전용 메모리(CD-ROM), 광학 저장 장치, 자기 저장 장치 또는 이들의 임의의 적절한 조합을 포함할 수 있지만 이에 한정되지 않는다. 본 출원에서, 컴퓨터 판독 가능 매체는 명령 실행 시스템, 장치 또는 소자 또는 이들과 결합되어 사용될 수 있는 프로그램을 포함하거나 저장할 수 있는 임의의 타입의 매체일 수 있다. 컴퓨터 판독 가능 매체에 포함된 프로그램 코드는 무선, 유선, 광섬유 케이블, RF 등, 또는 상기의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 임의의 적절한 매체에 의해 전송될 수 있다.
본 출원의 동작을 수행하기 위한 컴퓨터 프로그램 코드는 하나 또는 하나 이상의 프로그래밍 언어, 또는 그들의 조합으로 작성될 수 있다. 상기 프로그래밍 언어는 Java, Smalltalk, C++를 비롯한 객체 지향 프로그래밍 언어와 "C" 언어 또는 유사한 프로그래밍 언어를 비롯한 기존 절차적 프로그래밍 언어를 포함한다. 프로그램 코드는 완전히 사용자의 컴퓨터에서 실행되거나, 부분적으로 사용자의 컴퓨터에서 실행되거나, 독립형 소프트웨어 패키지로서 실행되거나, 일부는 사용자의 컴퓨터에서 실행되고 일부는 원격 컴퓨터에서 실행되거나, 또는 완전히 원격 컴퓨터 또는 전자 기기에서 실행될 수 있다. 원격 컴퓨터의 경우 원격 컴퓨터는 LAN 또는 WAN을 포함한 모든 종류의 네트워크를 통해 사용자의 컴퓨터에 연결되거나 외부 컴퓨터(예를 들어, 인터넷 서비스 제공 업체를 이용하여 인터넷을 통해 연결)에 연결될 수 있다.
도면의 흐름도 및 블록도는 본 출원의 다양한 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 아키텍처, 기능 및 동작을 도시한다. 이 점에서, 흐름도 또는 블록도의 각 블록은 지정된 논리적 기능을 구현하기 위한 하나 또는 하나 이상의 실행 가능한 명령을 포함하는 모듈, 프로그램 세그먼트 또는 코드의 일부를 나타낼 수 있다. 일부 대안적인 구현에서, 블록에 표기된 기능은 또한 도면에 도시된 것과 다른 순서로 구현될 수 있음에 유의해야 한다. 예를 들어, 연속적으로 표현된 2개의 블록은 실제로 병렬 실행될 수 있고, 관련 기능에 따라 때때로 역순으로 실행될 수도 있다. 또한, 블록도 및/또는 흐름도의 각 블록, 및 블록도 및/또는 흐름도에서 블록의 조합은 지정된 기능 또는 동작을 수행하는 전용 하드웨어 기반 시스템에서 구현될 수 있거나 전용 하드웨어와 컴퓨터 명령어를 조합하여 구현할 수도 있음에 유의해야 한다.
본 출원의 실시예들에 설명된 유닛들은 소프트웨어 또는 하드웨어에 의해 구현될 수 있다. 설명된 유닛은 또한 프로세서, 예를 들어 획득 유닛, 추출 유닛, 연산 유닛 및 생성 유닛을 포함하는 포로세서에 설치될 수도 있다. 여기서 이들 유닛의 명칭은 경우에 따라서는 유닛 자체로 한정되지 않으며, 예를 들어, 획득 유닛은 “원본 이미지 획득 유닛”으로 기술될 수도 있다.
다른 양태로서, 본 출원은 상기 실시예에서 설명된 전자 기기에 포함될 수 있거나 상기 전자 기기에 조립되지 않고 별도로 존재할 수 있는 컴퓨터 판독 가능 매체를 제공한다. 상기 컴퓨터 판독 가능 매체에는 하나 또는 복수의 프로그램이 베어링되어, 상기 하나 또는 복수의 프로그램이 상기 전자 기기에 의해 실행시 상기 전자 기기로 하여금 원본 이미지를 획득하는 단계; 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 원본 이미지의 공격 특징 신호를 출력하는 단계; 공격 특징 신호의 요소별 평균값을 산출하는 단계; 및 요소별 평균값에 기반하여, 원본 이미지의 생체 검출 결과를 생성하는 단계를 수행하도록 한다.
상기 설명은 본 출원의 바람직한 실시예 및 적용된 기술의 원리에 대한 설명일 뿐이다. 본 출원이 속하는 기술분야의 통상의 기술자들은 본 출원에 언급된 본 출원의 범위는 상기 기술적 특징의 특정 조합에 따른 기술적 해결수단에 한정되지 않으며, 동시에 본 출원의 사상을 벗어나지 않으면서 상기 기술적 특징 또는 그 등가 특징에 대해 임의로 조합하여 형성된 다른 기술적 해결수단, 예를 들어, 상기 특징과 본 출원에 개시된(단 이에 한정되지 않음) 유사한 기능을 구비하는 기술적 특징을 서로 교체하여 형성된 기술적 해결수단을 포함함을 이해하여야 한다.

Claims (19)

  1. 생체 검출 장치에 의해 수행되는 생체 검출 방법으로서,
    원본 이미지를 획득하는 단계;
    상기 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 상기 원본 이미지의 공격 특징 신호를 출력하는 단계 - 상기 공격 특징 신호는 상기 원본 이미지 중의 타깃이 생체가 아님을 표시하는 특징 신호이고, 생체의 공격 특징 신호는 제로 맵이고, 비생체의 공격 특징 신호는 제로 맵이 아님 -;
    상기 공격 특징 신호의 요소별 평균값을 산출하는 단계; 및
    상기 요소별 평균값에 기반하여, 상기 원본 이미지의 생체 검출 결과를 생성하는 단계 - 상기 생체 검출 결과는 상기 원본 이미지 중의 타깃이 생체인 결과이거나 상기 원본 이미지 중의 타깃이 생체가 아닌 결과임 - 를 포함하고,
    상기 트레이닝이 완료된 공격 특징 추출 네트워크는,
    트레이닝 샘플을 획득하는 단계 - 상기 트레이닝 샘플은 샘플 원본 이미지 및 샘플 카테고리 라벨을 포함하고, 상기 샘플 카테고리 라벨은 상기 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시함 -; 및
    상기 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 상기 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 통해 얻는 생체 검출 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 상기 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계는,
    상기 샘플 원본 이미지를 사용하여 상기 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 공격 특징 신호 및 상기 생체 샘플에 대응하는 픽셀별 L1 손실을 획득하는 단계;
    상기 샘플 공격 특징 신호를 사용하여 상기 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하는 단계; 및
    상기 픽셀별 L1 손실 및 상기 이진 분류 손실에 기반하여, 상기 트레이닝할 공격 특징 추출 네트워크 및 상기 트레이닝할 보조 분류기 네트워크의 파라미터를 각 네트워크가 수렴될 때까지 업데이트하여, 상기 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하는 단계를 포함하는 생체 검출 방법.
  4. 제3항에 있어서,
    상기 샘플 원본 이미지를 사용하여 상기 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 공격 특징 신호를 획득하는 단계는,
    상기 샘플 원본 이미지를 상기 트레이닝할 공격 특징 추출 네트워크에 입력하여, 상기 샘플 공격 특징 신호를 출력하는 단계를 포함하고;
    상기 샘플 공격 특징 신호를 사용하여 상기 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 카테고리를 획득하는 단계는,
    상기 샘플 공격 특징 신호를 상기 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하는 단계; 및
    상기 샘플 중첩 이미지를 상기 트레이닝할 보조 분류기 네트워크에 입력하여, 상기 샘플 원본 이미지의 샘플 카테고리를 출력하는 단계를 포함하는 생체 검출 방법.
  5. 제4항에 있어서,
    상기 공격 특징 추출 네트워크는 인코더-디코더 구조이고;
    상기 샘플 원본 이미지를 상기 트레이닝할 공격 특징 추출 네트워크에 입력하여, 상기 샘플 공격 특징 신호를 출력하는 단계는,
    상기 샘플 원본 이미지를 상기 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계;
    상기 샘플 인코딩 이미지를 상기 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계; 및
    상기 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 상기 샘플 공격 특징 신호를 출력하는 단계를 포함하는 생체 검출 방법.
  6. 제5항에 있어서,
    상기 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함하고;
    상기 샘플 원본 이미지를 상기 인코더에 입력하여, 샘플 인코딩 이미지를 출력하는 단계는,
    상기 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 상기 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 상기 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하는 단계를 포함하되, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 상기 샘플 인코딩 이미지인 생체 검출 방법.
  7. 제6항에 있어서,
    상기 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함하고;
    상기 샘플 인코딩 이미지를 상기 디코더에 입력하여, 샘플 디코딩 이미지를 출력하는 단계는,
    상기 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 상기 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 상기 샘플 디코딩 이미지를 획득하는 단계를 포함하는 생체 검출 방법.
  8. 제7항에 있어서,
    상기 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 상기 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하는 단계는,
    상기 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득하는 단계;
    상기 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득하는 단계;
    상기 샘플 콘볼루션 디코딩 이미지와 상기 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득하는 단계; 및
    샘플 병합 디코딩 이미지를 상기 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 상기 현재 디코딩 잔차 서브 네트워크의 출력을 획득하는 단계를 포함하는 생체 검출 방법.
  9. 생체 검출 장치로서,
    원본 이미지를 획득하도록 구성되는 획득 유닛;
    상기 원본 이미지를 트레이닝이 완료된 공격 특징 추출 네트워크에 입력하여, 상기 원본 이미지의 공격 특징 신호를 출력하도록 구성되는 추출 유닛 - 상기 공격 특징 신호는 상기 원본 이미지 중의 타깃이 생체가 아님을 표시하는 특징 신호이고, 생체의 공격 특징 신호는 제로 맵이고, 비생체의 공격 특징 신호는 제로 맵이 아님 -;
    상기 공격 특징 신호의 요소별 평균값을 산출하도록 구성되는 연산 유닛;
    상기 요소별 평균값에 기반하여, 상기 원본 이미지의 생체 검출 결과를 생성하도록 구성되는 생성 유닛 - 상기 생체 검출 결과는 상기 원본 이미지 중의 타깃이 생체인 결과이거나 상기 원본 이미지 중의 타깃이 생체가 아닌 결과임 -;
    트레이닝 샘플을 획득하도록 구성되는 트레이닝 샘플 획득 유닛 - 상기 트레이닝 샘플은 샘플 원본 이미지 및 샘플 카테고리 라벨을 포함하고, 상기 샘플 카테고리 라벨은 상기 샘플 원본 이미지가 생체 샘플 또는 공격 샘플에 속함을 표시함 -; 및
    상기 트레이닝 샘플을 사용하여 트레이닝할 공격 특징 추출 네트워크 및 트레이닝할 보조 분류기 네트워크를 동시에 트레이닝함으로써, 상기 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하도록 구성되는 트레이닝 유닛을 포함하는 생체 검출 장치.
  10. 삭제
  11. 제9항에 있어서,
    상기 트레이닝 유닛은,
    상기 샘플 원본 이미지를 사용하여 상기 트레이닝할 공격 특징 추출 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 공격 특징 신호 및 상기 생체 샘플에 대응하는 픽셀별 L1 손실을 획득하고;
    상기 샘플 공격 특징 신호를 사용하여 상기 트레이닝할 보조 분류기 네트워크에 대해 트레이닝을 진행하여, 상기 샘플 원본 이미지의 샘플 카테고리 및 이진 분류 손실을 획득하고; 그리고
    상기 픽셀별 L1 손실 및 상기 이진 분류 손실에 기반하여, 상기 트레이닝할 공격 특징 추출 네트워크 및 상기 트레이닝할 보조 분류기 네트워크의 파라미터를 각 네트워크가 수렴될 때까지 업데이트하여, 상기 트레이닝이 완료된 공격 특징 추출 네트워크를 획득하도록 더 구성되는 생체 검출 장치.
  12. 제11항에 있어서,
    상기 트레이닝 유닛은,
    상기 샘플 원본 이미지를 상기 트레이닝할 공격 특징 추출 네트워크에 입력하여, 상기 샘플 공격 특징 신호를 출력하고;
    상기 샘플 공격 특징 신호를 상기 샘플 원본 이미지에 중첩시켜, 샘플 중첩 이미지를 획득하고; 그리고
    상기 샘플 중첩 이미지를 상기 트레이닝할 보조 분류기 네트워크에 입력하여, 상기 샘플 원본 이미지의 샘플 카테고리를 출력하도록 더 구성되는 생체 검출 장치.
  13. 제12항에 있어서,
    상기 공격 특징 추출 네트워크는 인코더-디코더 구조이고;
    상기 트레이닝 유닛은,
    상기 샘플 원본 이미지를 상기 인코더에 입력하여, 샘플 인코딩 이미지를 출력하고;
    상기 샘플 인코딩 이미지를 상기 디코더에 입력하여, 샘플 디코딩 이미지를 출력하고; 그리고
    상기 샘플 디코딩 이미지를 탄젠트 활성화층에 입력하여, 상기 샘플 공격 특징 신호를 출력하도록 더 구성되는 생체 검출 장치.
  14. 제13항에 있어서,
    상기 인코더는 다수의 인코딩 잔차 서브 네트워크를 포함하고;
    상기 트레이닝 유닛은,
    상기 다수의 인코딩 잔차 서브 네트워크를 사용하여 순차적으로 상기 샘플 원본 이미지에 대해 직렬 다운 샘플링을 진행하여, 상기 다수의 인코딩 잔차 서브 네트워크가 출력한 다수의 샘플 다운 샘플링 인코딩 이미지를 획득하도록 더 구성되되, 마지막 하나의 인코딩 잔차 서브 네트워크가 출력한 샘플 다운 샘플링 인코딩 이미지는 상기 샘플 인코딩 이미지인 생체 검출 장치.
  15. 제14항에 있어서,
    상기 디코더는 다수의 디코딩 잔차 서브 네트워크를 포함하고;
    상기 트레이닝 유닛은,
    상기 다수의 디코딩 잔차 서브 네트워크를 사용하여 순차적으로 상기 샘플 인코딩 이미지에 대해 직렬 디코딩을 진행하여, 상기 샘플 디코딩 이미지를 획득하도록 더 구성되는 생체 검출 장치.
  16. 제15항에 있어서,
    상기 트레이닝 유닛은,
    상기 다수의 디코딩 잔차 서브 네트워크 중의 현재 디코딩 잔차 서브 네트워크에 대해, 최근접 보간법을 사용하여 현재 디코딩 잔차 서브 네트워크의 입력에 대한 업 샘플링을 진행하여, 샘플 업 샘플링 디코딩 이미지를 획득하고;
    상기 샘플 업 샘플링 디코딩 이미지에 대해 콘볼루션을 진행하여, 샘플 콘볼루션 디코딩 이미지를 획득하고;
    상기 샘플 콘볼루션 디코딩 이미지와 상기 현재 디코딩 잔차 서브 네트워크에 대칭되는 인코딩 잔차 서브 네트워크의 출력을 병합하여, 샘플 병합 디코딩 이미지를 획득하고; 그리고
    샘플 병합 디코딩 이미지를 상기 현재 디코딩 잔차 서브 네트워크 중의 인코딩 잔차 서브 네트워크에 입력하여, 상기 현재 디코딩 잔차 서브 네트워크의 출력을 획득하도록 더 구성되는 생체 검출 장치.
  17. 전자 기기로서,
    하나 또는 다수의 프로세서; 및
    하나 또는 다수의 프로그램이 저장된 저장 장치를 포함하되,
    상기 하나 또는 다수의 프로그램이 상기 하나 또는 다수의 프로세서에 의해 실행될 경우, 상기 하나 또는 다수의 프로세서가 제1항 및 제3항 내지 제8항 중 어느 한 항에 따른 생체 검출 방법을 구현하도록 하는 전자 기기.
  18. 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 및 제3항 내지 제8항 중 어느 한 항에 따른 생체 검출 방법을 구현하도록 하는 컴퓨터 판독 가능 저장 매체.
  19. 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 제1항 및 제3항 내지 제8항 중 어느 한 항에 따른 생체 검출 방법을 구현하도록 하는 컴퓨터 프로그램.
KR1020210034625A 2020-04-17 2021-03-17 생체 검출 방법 및 장치 KR102606734B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010304904.9 2020-04-17
CN202010304904.9A CN111507262B (zh) 2020-04-17 2020-04-17 用于检测活体的方法和装置

Publications (2)

Publication Number Publication Date
KR20210037632A KR20210037632A (ko) 2021-04-06
KR102606734B1 true KR102606734B1 (ko) 2023-11-29

Family

ID=71864096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210034625A KR102606734B1 (ko) 2020-04-17 2021-03-17 생체 검출 방법 및 장치

Country Status (5)

Country Link
US (1) US20210326617A1 (ko)
EP (1) EP3896605A1 (ko)
JP (1) JP7191139B2 (ko)
KR (1) KR102606734B1 (ko)
CN (1) CN111507262B (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132832B (zh) * 2020-08-21 2021-09-28 苏州浪潮智能科技有限公司 一种增强图像实例分割的方法、系统、设备及介质
US11895330B2 (en) * 2021-01-25 2024-02-06 Lemon Inc. Neural network-based video compression with bit allocation
CN113705425B (zh) * 2021-08-25 2022-08-16 北京百度网讯科技有限公司 活体检测模型的训练方法和活体检测的方法、装置、设备
WO2023154606A1 (en) * 2022-02-14 2023-08-17 Qualcomm Incorporated Adaptive personalization for anti-spoofing protection in biometric authentication systems

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100877664B1 (ko) * 2003-05-30 2009-01-12 인터내셔널 비지네스 머신즈 코포레이션 어택 검출 방법, 어택 검출 장치, 데이터 통신 네트워크, 컴퓨터 판독 가능 기록 매체 및 침입 검출 애플리케이션의 전개 방법
JP4403426B2 (ja) 2007-01-09 2010-01-27 サイレックス・テクノロジー株式会社 生体認証装置及び生体認証プログラム
KR101064945B1 (ko) * 2008-11-25 2011-09-15 한국전자통신연구원 적외선 영상을 이용한 위조 얼굴 검출 방법 및 그 장치
WO2011114520A1 (ja) 2010-03-19 2011-09-22 富士通株式会社 識別装置、識別方法、及びプログラム
CN104143078B (zh) * 2013-05-09 2016-08-24 腾讯科技(深圳)有限公司 活体人脸识别方法、装置和设备
US9875393B2 (en) * 2014-02-12 2018-01-23 Nec Corporation Information processing apparatus, information processing method, and program
US9231965B1 (en) * 2014-07-23 2016-01-05 Cisco Technology, Inc. Traffic segregation in DDoS attack architecture
US10430652B2 (en) * 2015-01-13 2019-10-01 Idemia Identity & Security France Process and system for video spoof detection based on liveness evaluation
EP3414705A1 (en) * 2016-02-09 2018-12-19 Aware, Inc. Face liveness detection using background/foreground motion analysis
KR102483642B1 (ko) * 2016-08-23 2023-01-02 삼성전자주식회사 라이브니스 검사 방법 및 장치
US10157323B2 (en) * 2016-08-30 2018-12-18 Qualcomm Incorporated Device to provide a spoofing or no spoofing indication
CN106599872A (zh) 2016-12-23 2017-04-26 北京旷视科技有限公司 用于验证活体人脸图像的方法和设备
US10902244B2 (en) * 2017-03-27 2021-01-26 Samsung Electronics Co., Ltd. Apparatus and method for image processing
US10679083B2 (en) * 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
CN108875467B (zh) * 2017-06-05 2020-12-25 北京旷视科技有限公司 活体检测的方法、装置及计算机存储介质
CN113095124B (zh) * 2017-06-07 2024-02-06 创新先进技术有限公司 一种人脸活体检测方法、装置以及电子设备
CN107622240B (zh) * 2017-09-21 2023-10-13 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN107491771A (zh) * 2017-09-21 2017-12-19 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN107644209A (zh) * 2017-09-21 2018-01-30 百度在线网络技术(北京)有限公司 人脸检测方法和装置
CN108875333B (zh) 2017-09-22 2023-05-16 北京旷视科技有限公司 终端解锁方法、终端和计算机可读存储介质
US11580775B2 (en) * 2017-10-18 2023-02-14 Fingerprint Cards Anacatum Ip Ab Differentiating between live and spoof fingers in fingerprint analysis by machine learning
CN107818313B (zh) * 2017-11-20 2019-05-14 腾讯科技(深圳)有限公司 活体识别方法、装置和存储介质
KR102455633B1 (ko) * 2017-12-21 2022-10-17 삼성전자주식회사 라이브니스 검사 방법 및 장치
US11023757B2 (en) * 2018-02-14 2021-06-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness verification
US11222221B2 (en) 2018-02-22 2022-01-11 Nec Corporation Spoofing detection apparatus, spoofing detection method, and computer-readable recording medium
CN108416324B (zh) * 2018-03-27 2022-02-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
CN108537152B (zh) * 2018-03-27 2022-01-25 百度在线网络技术(北京)有限公司 用于检测活体的方法和装置
US20190347786A1 (en) * 2018-05-08 2019-11-14 Pixart Imaging Inc. Method, apparatus, and electronic device having living body detection capability
US10769261B2 (en) * 2018-05-09 2020-09-08 Futurewei Technologies, Inc. User image verification
CN108875688B (zh) * 2018-06-28 2022-06-10 北京旷视科技有限公司 一种活体检测方法、装置、系统及存储介质
KR101975186B1 (ko) * 2018-07-04 2019-05-07 광운대학교 산학협력단 객체 검출을 위한 생성적 적대 신경망 기반의 데이터 생성 장치 및 방법
US10733292B2 (en) * 2018-07-10 2020-08-04 International Business Machines Corporation Defending against model inversion attacks on neural networks
CN110889312B (zh) * 2018-09-07 2022-09-02 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备、计算机可读存储介质
US11273841B2 (en) * 2018-09-20 2022-03-15 Toyota Research Institute, Inc. Method and apparatus for spoofing prevention
KR102140340B1 (ko) * 2018-10-18 2020-07-31 엔에이치엔 주식회사 컨볼루션 뉴럴 네트워크를 통해 이미지 위변조를 탐지하는 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법
US11657525B2 (en) * 2018-12-04 2023-05-23 Yoti Holding Limited Extracting information from images
GB2579583B (en) * 2018-12-04 2021-01-06 Yoti Holding Ltd Anti-spoofing
CN109815797B (zh) * 2018-12-17 2022-04-19 苏州飞搜科技有限公司 活体检测方法和装置
EP3674934A1 (en) * 2018-12-26 2020-07-01 Thales Dis France SA Biometric acquisition system and method
EP3674973A1 (en) * 2018-12-28 2020-07-01 Samsung Electronics Co., Ltd. Method and apparatus with liveness detection and object recognition
CN111444744A (zh) * 2018-12-29 2020-07-24 北京市商汤科技开发有限公司 活体检测方法、装置以及存储介质
US10970574B2 (en) * 2019-02-06 2021-04-06 Advanced New Technologies Co., Ltd. Spoof detection using dual-band near-infrared (NIR) imaging
CN109886244A (zh) * 2019-03-01 2019-06-14 北京视甄智能科技有限公司 一种人脸识别活体检测方法及装置
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质
US11568168B2 (en) * 2019-04-08 2023-01-31 Shutterstock, Inc. Generating synthetic photo-realistic images
US11164021B2 (en) * 2019-05-16 2021-11-02 Arizona Board Of Regents On Behalf Of Arizona State University Methods, systems, and media for discriminating and generating translated images
CN110633647A (zh) * 2019-08-21 2019-12-31 阿里巴巴集团控股有限公司 活体检测方法及装置
CN110717522A (zh) * 2019-09-18 2020-01-21 平安科技(深圳)有限公司 图像分类网络的对抗防御方法及相关装置
CN110688950B (zh) * 2019-09-26 2022-02-11 杭州艾芯智能科技有限公司 基于深度信息的人脸活体检测方法、装置
CN110781776B (zh) * 2019-10-10 2022-07-05 湖北工业大学 一种基于预测和残差细化网络的道路提取方法
US11348375B2 (en) * 2019-10-15 2022-05-31 Assa Abloy Ab Systems and methods for using focal stacks for image-based spoof detection
US11294996B2 (en) * 2019-10-15 2022-04-05 Assa Abloy Ab Systems and methods for using machine learning for image-based spoof detection
CN110691100B (zh) * 2019-10-28 2021-07-06 中国科学技术大学 基于深度学习的分层网络攻击识别与未知攻击检测方法
KR20210062381A (ko) * 2019-11-21 2021-05-31 삼성전자주식회사 라이브니스 검사 방법 및 장치, 생체 인증 방법 및 장치
KR20210069404A (ko) * 2019-12-03 2021-06-11 삼성전자주식회사 라이브니스 검사 방법 및 라이브니스 검사 장치
WO2021112849A1 (en) * 2019-12-05 2021-06-10 Aware, Inc. Improved face liveness detection using background/foreground motion analysis
US11232284B2 (en) * 2019-12-27 2022-01-25 Omnivision Technologies, Inc. Techniques for robust anti-spoofing in biometrics using polarization cues for NIR and visible wavelength band
CN111241989B (zh) * 2020-01-08 2023-06-13 腾讯科技(深圳)有限公司 图像识别方法及装置、电子设备
US11670069B2 (en) * 2020-02-06 2023-06-06 ID R&D, Inc. System and method for face spoofing attack detection
US11475714B2 (en) * 2020-02-19 2022-10-18 Motorola Solutions, Inc. Systems and methods for detecting liveness in captured image data
CN111582381B (zh) * 2020-05-09 2024-03-26 北京市商汤科技开发有限公司 确定性能参数的方法及装置、电子设备和存储介质
CN111539389B (zh) * 2020-06-22 2020-10-27 腾讯科技(深圳)有限公司 人脸防伪识别方法、装置、设备及存储介质
KR20220082454A (ko) * 2020-12-10 2022-06-17 삼성전자주식회사 생체 정보의 도용 여부를 검출하는 방법 및 장치
US20220318354A1 (en) * 2021-03-31 2022-10-06 Samsung Electronics Co., Ltd. Anti-spoofing method and apparatus

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
논문(Amin Jourabloo 외 2명,Face De-Spoofing: Anti-Spoofing via Noise Modeling, https://doi.org/10.48550/arXiv.1807.09968, 2018.07.26.) 1부.*
논문(Zezheng Wang 외 6명,Exploiting temporal and depth information for multi-frame face anti-spoofing. https://doi.org/10.48550/arXiv.1811.05118, 2018.11.13.) 1부.*

Also Published As

Publication number Publication date
KR20210037632A (ko) 2021-04-06
CN111507262A (zh) 2020-08-07
JP7191139B2 (ja) 2022-12-16
CN111507262B (zh) 2023-12-08
JP2021174529A (ja) 2021-11-01
US20210326617A1 (en) 2021-10-21
EP3896605A1 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
KR102606734B1 (ko) 생체 검출 방법 및 장치
CN108509915B (zh) 人脸识别模型的生成方法和装置
US11244435B2 (en) Method and apparatus for generating vehicle damage information
CN109214343B (zh) 用于生成人脸关键点检测模型的方法和装置
CN108710885B (zh) 目标对象的检测方法和装置
CN108256479B (zh) 人脸跟踪方法和装置
CN107622240B (zh) 人脸检测方法和装置
US20230021661A1 (en) Forgery detection of face image
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
KR102074406B1 (ko) 영상 랜드마크 분류 장치 및 방법
CN111444744A (zh) 活体检测方法、装置以及存储介质
CN109389096B (zh) 检测方法和装置
CN112418195B (zh) 一种人脸关键点检测方法、装置、电子设备及存储介质
CN108241855B (zh) 图像生成方法和装置
CN111723728A (zh) 基于双向交互网络的行人搜索方法、系统、装置
CN111767750A (zh) 图像处理方法和装置
Wang et al. Context-aware spatio-recurrent curvilinear structure segmentation
CN111067522A (zh) 大脑成瘾结构图谱评估方法及装置
CN112597918A (zh) 文本检测方法及装置、电子设备、存储介质
Vlachos et al. Finger vein segmentation from infrared images based on a modified separable mumford shah model and local entropy thresholding
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
US11423262B2 (en) Automatically filtering out objects based on user preferences
CN112465737A (zh) 图像处理模型训练方法、图像处理方法及图像处理装置
CN112487943B (zh) 关键帧去重的方法、装置和电子设备
CN113792569B (zh) 对象识别方法、装置、电子设备及可读介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right