KR20210054522A - 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체 - Google Patents

얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체 Download PDF

Info

Publication number
KR20210054522A
KR20210054522A KR1020217006942A KR20217006942A KR20210054522A KR 20210054522 A KR20210054522 A KR 20210054522A KR 1020217006942 A KR1020217006942 A KR 1020217006942A KR 20217006942 A KR20217006942 A KR 20217006942A KR 20210054522 A KR20210054522 A KR 20210054522A
Authority
KR
South Korea
Prior art keywords
feature
residual
face recognition
face
target parameter
Prior art date
Application number
KR1020217006942A
Other languages
English (en)
Inventor
루 왕
펭 주
루이 자오
Original Assignee
선전 센스타임 테크놀로지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선전 센스타임 테크놀로지 컴퍼니 리미티드 filed Critical 선전 센스타임 테크놀로지 컴퍼니 리미티드
Publication of KR20210054522A publication Critical patent/KR20210054522A/ko

Links

Images

Classifications

    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • G06K9/00288
    • G06K9/36
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

본 출원의 실시예는 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체를 제공한다. 상기 얼굴 인식 방법은, 인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하는 단계; 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하는 단계; 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계; 및 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하는 단계를 포함한다.

Description

얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체
관련 출원의 상호 참조
본 출원은 출원 번호가 201911053929.X이고, 출원일이 2019년 10월 31일인 중국 특허 출원에 기반하여 제출하였고, 상기 중국 특허 출원의 우선권을 주장하는 바, 상기 중국 특허 출원의 모든 내용은 참조로서 본 출원에 인용된다.
본 출원의 실시예는 컴퓨터 시각 기술 분야에 관한 것으로, 특히 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체에 관한 것이다.
얼굴 인식 기술은 보안, 금융, 정보, 교육 등 많은 분야에서 널리 사용되고 있다. 얼굴 인식은 얼굴 특징의 추출과 비교를 기반으로 인식을 완료하므로, 특징은 인식 정확도에 큰 영향을 미친다. 딥러닝 기술의 발달로, 얼굴 이미지가 목표 파라미터 조건을 충족할 때 얼굴 인식의 정확도는 이상적인 효과를 얻었지만, 얼굴 이미지가 목표 파라미터 조건을 충족하지 않을 경우, 얼굴 인식의 정확도는 낮다.
본 출원의 실시예는 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체를 제공한다.
본 출원의 실시예는 얼굴 인식 방법을 제공하였고,
인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하는 단계;
상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하는 단계;
상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계; 및
상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하는 단계를 포함한다.
인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출함으로써, 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하고, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하며, 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득함으로써, 얼굴 이미지의 특징을 보정할 수 있어, 얼굴 인식의 정확도를 향상시킬 수 있다.
일부 실시예에서, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는,
상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계; 및
상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고, 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득함으로써, 잔차를 기반으로 특징 방면에서 보정을 수행할 수 있다.
일부 실시예에서, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는,
상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고, 이러한 방식으로 획득된 제1 잔차 특징은 비교적 정확한 보정 특징을 획득할 수 있다.
일부 실시예에서, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는,
상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함한다.
여기서, 상기 제1 특징에 대해 1 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득함으로써, 계산량을 절약할 수 있어, 계산 속도를 향상시킬 수 있고; 상기 제1 특징에 대해 멀티 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득함으로써, 보다 정확한 보정 특징을 획득하는데 도움이 된다.
일부 실시예에서, 상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일하다.
상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수와 상기 제1 특징의 차원수를 일치하도록 함으로써, 획득된 보정 특징의 정확도를 향상시키는데 도움이 된다.
일부 실시예에서, 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는,
상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계; 및
상기 제1 잔차 얼굴 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계를 포함한다.
상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정함으로써, 제1 목표 파라미터 값에 기반하여 제1 보정 특징을 결정할 수 있어, 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
일부 실시예에서, 상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계는,
상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻는 단계를 포함한다.
상기 구현방식을 기반으로, 제1 목표 파라미터의 값 범위가 기설정된 구간이 아닌 경우 제1 잔차 성분을 정확하게 결정할 수 있다.
일부 실시예에서, 상기 제1 잔차 성분 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계는,
상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하는 단계를 포함한다.
상기 구현방식에서, 상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정함으로써, 제1 보정 특징을 빠르고 정확하게 결정할 수 있다.
일부 실시예에서, 목표 파라미터는 얼굴 각도, 흐림 정도 또는 차폐 비율을 포함한다.
상기 구현방식에 따라, 얼굴 각도, 흐림 정도 또는 차폐 비율이 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 특징을 보정할 수 있으므로, 얼굴 각도가 크거나, 얼굴 이미지가 흐리거나 얼굴 이미지가 가려진 경우 얼굴 인식의 정확도를 향상시키는데 도움이 된다.
일부 실시예에서, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계는,
최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계를 포함한다.
상기 구현방식에서, 최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 제1 보정 특징을 획득하고, 이러한 방식으로 획득된 제1 보정 특징에 기반하여 얼굴 인식을 수행함으로써, 얼굴 인식의 정확도를 향상시킬 수 있다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하기 전에, 상기 얼굴 인식 방법은,
임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하는 단계;
상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계;
상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계; 및
상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하는 단계를 더 포함한다.
상기 구현방식을 사용하여 훈련하여 획득된 파라미터 수렴 얼굴 인식 모델은 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 특징을 목표 파라미터 조건을 충족하는 특징으로 보정할 수 있으므로, 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 된다.
일부 실시예에서, 상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계; 및
상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계를 포함한다.
상기 구현방식에서, 제3 특징에 대응하는 제2 보정 특징이 결정되면, 제3 얼굴 이미지에 대응하는 제2 목표 파라미터 값을 고려하여, 이러한 방식으로 훈련하여 획득된 얼굴 인식 모델은 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계; 및
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하고, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득함으로써, 상기 얼굴 인식 모듈로 하여금 잔차 학습을 수행하도록 할 수 있어, 특징을 보정하는 능력을 획득한다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하며, 이러한 방식으로 획득된 제2 잔차 특징에 기반하여 비교적 정확한 보정 특징을 획득할 수 있다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득함으로써, 계산량을 절약할 수 있어, 계산 속도를 향상시킬 수 있고; 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 멀티 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득함으로써, 상기 얼굴 인식 모델의 성능을 향상시키는데 도움이 된다.
일부 실시예에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일하다.
상기 구현방식에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수를 일치하도록 함으로써, 훈련하여 획득된 얼굴 인식 모델의 성능을 확보하는데 도움이 된다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계; 및
상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계를 포함한다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정함으로써, 상기 제2 목표 파라미터 값에 기반하여 제2 보정 특징을 결정하며, 이러한 방식으로 훈련하여 획득된 얼굴 인식 모델은 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하는 단계를 포함한다.
상기 구현방식을 기반으로, 제2 목표 파라미터의 값 범위가 기설정된 구간이 아닌 경우, 제2 잔차 성분을 정확하게 결정할 수 있다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계는,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하는 단계를 포함한다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정함으로써, 제2 보정 특징을 빠르고 정확하게 결정할 수 있다.
일부 실시예에서, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계는,
복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하는 단계; 및
상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 복수의 제2 얼굴 이미지가 존재하는 경우, 복수의 제2 얼굴 이미지의 특징에 따라 제2 특징을 획득함으로써, 얼굴 인식 모델의 안정성을 향상시키는데 도움이 된다.
일부 실시예에서, 상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계는,
상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하는 단계를 포함한다.
상기 구현방식에서, 상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정함으로써, 상기 얼굴 인식 모델의 안정성을 더 향상시키는데 도움이 된다.
일부 실시예에서, 상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계는,
상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하는 단계를 포함한다.
본 출원의 실시예는 얼굴 인식 장치를 제공하였고,
인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하도록 구성된 제1 추출 모듈;
상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하도록 구성된 제2 추출 모듈;
상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된 처리 모듈; 및
상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하도록 구성된 획득 모듈을 포함한다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고;
상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일하다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하고;
상기 제1 잔차 얼굴 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하도록 구성된다.
일부 실시예에서, 목표 파라미터는 얼굴 각도, 흐림 정도 또는 차폐 비율을 포함한다.
일부 실시예에서, 상기 처리 모듈은,
최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하도록 구성된다.
일부 실시예에서, 상기 얼굴 인식 장치는,
임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하도록 구성된 결정 모듈;
상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하도록 구성된 제3 추출 모듈;
상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하도록 구성된 획득 모듈; 및
상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하도록 구성된 최적화 모듈을 더 포함한다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하고;
상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하고;
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일하다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하고;
상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하도록 구성된다.
일부 실시예에서, 상기 제3 추출 모듈은,
복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하고;
상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제3 추출 모듈은,
상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈은,
상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하도록 구성된다.
본 출원의 실시예는 전자 기기를 제공하였고,
프로세서; 및
프로세서에서 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하고,
여기서, 상기 프로세서는 상기 얼굴 인식 방법을 실행하도록 구성된다.
본 출원의 실시예는 컴퓨터 프로그램 명령어가 저장되어 있는 컴퓨터 판독 가능한 저장 매체를 제공하였고, 상기 컴퓨터 프로그램 명령어는 프로세서에 의해 실행될 때 상기 얼굴 인식 방법을 구현한다.
본 출원의 실시예에서, 인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출함으로써, 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하고, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하며, 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득함으로써, 얼굴 이미지의 특징을 보정하여, 얼굴 인식의 정확도를 향상시킬 수 있다.
이해해야 할 것은, 이상의 일반적인 설명 및 하기의 상세한 설명은 다만 예시적이고 해석적인 것이며, 본 출원의 실시예를 한정하려는 것은 아니다.
다음의 도면에 따라 예시적인 실시예를 상세하게 설명하며, 본 출원의 실시예의 다른 특징 및 측면은 명백하다.
아래의 도면은 본 명세서의 일부분으로서 명세서 전체를 구성하며, 이러한 도면은 본 출원에 맞는 실시예를 예시하여, 명세서와 함께 본 출원의 실시예의 기술방안을 설명하는데 사용된다.
도 1은 본 출원의 실시예에서 제공한 얼굴 인식 방법의 흐름도를 도시한다.
도 2는 본 출원의 실시예에서 제공한 얼굴 인식 방법에서 얼굴 각도 값 yaw을 [0, 1] 구간에 매핑하는 매핑 곡선을 도시한다.
도 3은 본 출원의 실시예에서 제공한 얼굴 인식 방법에서 얼굴 인식 모델의 훈련 과정의 모식도를 도시한다.
도 4는 본 출원의 실시예에서 제공한 얼굴 인식 장치의 블록도를 도시한다.
도 5는 본 출원의 실시예에서 제공한 전자 기기(800)의 블록도를 도시한다.
도 6은 본 출원의 실시예에서 제공한 전자 기기(1900)의 블록도를 도시한다.
아래에 도면을 참조하여 본 출원의 실시예의 다양한 예시적 실시예, 특징 및 측면을 상세하게 설명한다. 도면에서 동일한 도면 부호는 동일하거나 유사한 기능을 갖는 요소를 나타낸다. 실시예의 다양한 측면이 도면에 도시되어 있지만, 특별히 언급되지 않는 한, 도면을 비율에 따라 그릴 필요는 없다.
본문에서 용어 “예시적”은 “예, 실시예 또는 설명으로 사용되는” 것을 의미한다. 여기서 "예시적"으로 설명된 임의의 실시예는 다른 실시예보다 우수하거나 좋은 것으로 해석될 필요는 없다.
본 명세서에서 용어 “및/또는”은 다만 관련 대상의 상관 관계를 설명하기 위한 것일 뿐, 세 가지의 관계가 존재함을 나타내며, 예를 들어, A 및/또는 B는, A가 단독적으로 존재, A 및 B가 동시에 존재, B가 단독적으로 존재하는 세 가지 상황을 나타낸다. 또한, 본 문에서 용어 "적어도 하나"는 복수의 어느 하나 또는 복수의 둘 중 어느 하나의 조합을 의미하고, 예를 들어, A, B, C 중 적어도 하나를 포함하여, A, B 및 C로 구성된 조합에서 선택된 어느 하나 또는 복수 개의 요소를 나타낼 수 있다.
또한, 본 발명의 실시예들에서 제공하는 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체를 보다 잘 설명하기 위해, 다음과 같은 구체적인 구현방식으로 많은 구체적인 세부사항이 제시된다. 당업자는 본 출원의 실시예는 일부 구체적인 세부사항 없이도 여전히 실시될 수 있음을 이해해야 한다. 일부 예에서, 당업자에게 잘 알려진 방법, 수단, 요소 및회로는 본 출원의 실시예의 취지가 명백해지도록 상세하게 설명되지 않는다.
도 1은 본 출원의 실시예에서 제공한 얼굴 인식 방법의 흐름도를 도시한다. 상기 얼굴 인식 방법의 실행 주체는 얼굴 인식 장치일 수 있다. 예를 들어, 상기 얼굴 인식 방법는 단말 기기 또는 서버 또는 다른 처리 기기에 의해 실행될 수 있다. 여기서, 단말 기기는 기기, 모바일 기기, 사용자 단말, 단말, 셀룰러폰, 무선 전화기, 개인 휴대 정보 단말기, 핸드 헬드 기기, 컴퓨팅 기기, 차량용 기기 또는웨어러블 기기 등일 수 있다. 일부 가능한 구현방식에 있어서, 상기 얼굴 인식 방법은 프로세서가 메모리에 저장된 컴퓨터 판독 가능한 명령어를 호출하는 방식을 통해 구현될 수 있다. 도 1에 도시된 바와 같이, 상기 얼굴 인식 방법은 단계 S11 내지 단계 S14를 포함한다.
단계 S11에서, 인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출한다.
본 출원의 실시예에서, 목표 파라미터는 얼굴 인식 정확도에 영향을 미칠 수 있는 임의의 파라미터일 수 있다. 목표 파라미터의 개수는 하나 또는 복수 개일 수 있다. 예를 들어, 목표 파라미터는 얼굴 각도, 흐림 정도 및 차폐 비율 등 중의 하나 또는 복수 개를 포함할 수 있다. 예를 들어, 목표 파라미터는 얼굴 각도, 얼굴 각도의 값 범위는 [-90°, 90°]일 수 있으며, 여기서, 얼굴 각도 0은 얼굴 정면을 나타낸다. 또 다른 예로서, 목표 파라미터는 흐림 정도의 값 범위가 [0, 1]인 흐림 정도를 포함하며, 여기서, 흐림 정도가 클수록 더 흐려진다. 또 다른 예로서, 목표 파라미터 차폐 비율의 값 범위가 [0, 1]인 차폐 비율을 포함하고, 여기서, 차폐 비율 0은 완전히 차폐되지 않음을 나타내고, 차폐 비율 1은 완전히 차폐됨을 나타낸다.
하나의 예에서, 목표 파라미터가 얼굴 각도를 포함하면, dlib 또는 opencv 등 오픈 소스 도구를 통해 제1 얼굴 이미지의 얼굴 각도 값을 각각 추출할 수 있다. 상기 예에서, 피치 각도(pitch), 롤 각도(roll) 및 요 각도(yaw) 중 하나 또는 복수 개의 각도를 획득할 수 있다. 예를 들어, 제1 얼굴 이미지에서의 얼굴의 요 각도를 제1 얼굴 이미지의 얼굴 각도 값으로 획득할 수 있다.
일부 실시예에서, 목표 파라미터의 값 범위가 기설정된 구간이 아닌 경우, 목표 파라미터 값에 대해 정규화 처리를 수행하여, 목표 파라미터 값을 기설정된 구간에 매핑할 수 있다. 예를 들어, 기설정된 구간은 [0, 1]이다. 하나의 예에서, 목표 파라미터는 얼굴 각도를 포함하고, 얼굴 각도의 값 범위가 [-90°, 90°]이고, 기설정된 구간이 [0, 1]이면, 얼굴 각도 값에 대해 정규화 처리를 수행하여, 얼굴 각도 값을 [0, 1]에 매핑할 수 있다. 예를 들어,
Figure pct00001
에 따라, 얼굴 각도 값
Figure pct00002
에 대해 정규화 처리를 수행하여, 얼굴 각도 값
Figure pct00003
에 대응하는 정규화 값
Figure pct00004
을 얻을 수 있다. 도 2는 본 출원의 실시예에서 제공한 얼굴 인식 방법에서 얼굴 각도 값
Figure pct00005
을 [0, 1] 구간에 매핑하는 매핑 곡선을 도시한다. 도 2에서, 가로축은 얼굴 각도 값
Figure pct00006
을 나타내고, 세로축은 얼굴 각도 값
Figure pct00007
에 대응하는 정규화 값
Figure pct00008
을 나타낸다. 도 2에 도시된 예에서, 얼굴 각도 값
Figure pct00009
이 20°보다 작은 경우 얼굴 정면에 가까운 것으로 간주할 수 있고,
Figure pct00010
가 0에 가까우며; 얼굴 각도 값
Figure pct00011
이 50°보다 크거나 같은 경우 큰 각도 측면에 속하는 것으로 간주할 수 있으며,
Figure pct00012
은 1에 가깝다.
단계 S12에서, 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득한다.
일부 실시예에서, 제1 얼굴 이미지에 대해 컨볼루션 처리를 수행하여, 제1 얼굴 이미지에 대응하는 제1 특징을 추출할 수 있다.
단계 S13에서, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득한다.
일부 실시예에서, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계; 및 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계를 포함한다.
상기 구현방식에서, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고, 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득함으로써, 잔차를 기반으로 특징 방면에서 보정을 수행할 수 있다.
상기 구현방식의 하나의 예로서, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함한다. 상기 예에서, 완전 연결 계층을 통해 완전 연결 처리를 수행할 수 있고, 활성화 계층을 통해 활성화 처리를 수행할 수 있다. 여기서, 활성화 계층은 선형 정류 유닛(Rectified Linear Unit, ReLu) 또는 파라메트릭 선형 정류 유닛(Parametric Rectified Linear Unit, PReLu) 등 활성화 함수를 사용할 수 있다.
상기 예에서, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고, 이러한 방식으로 획득된 제1 잔차 특징은 비교적 정확한 보정 특징을 획득할 수 있다.
상기 예에서, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는, 상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함할 수 있다. 여기서, 상기 제1 특징에 대해 1 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는 계산량을 절약할 수 있어, 계산 속도를 향상시킬 수 있고; 상기 제1 특징에 대해 멀티 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계보다 정확한 보정 특징을 획득하는데 도움이 된다.
하나의 예에서, 제1 특징에 대해 2 단계 완전 연결 처리 및 활성화 처리를 수행하여, 즉, 제1 특징은 완전 연결 처리, 활성화 처리, 완전 연결 처리 및 활성화 처리를 순차적으로 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득할 수 있다.
하나의 예에서, 상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일하다. 상기 예에서, 상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수와 상기 제1 특징의 차원수를 일치하도록 함으로써, 획득된 보정 특징의 정확도를 향상시키는데 도움이 된다.
본 출원의 실시예에서, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하는데 한정되지 않고, 또한 상기 제1 특징에 대해 다른 타입의 처리를 수행할 수 있다. 예를 들어, 상기 제1 특징에 대해 완전 연결 처리 대신 완전 컨볼루션 처리를 수행할 수 있다.
상기 구현방식의 하나의 예로서, 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는, 상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계; 및 상기 제1 잔차 성분 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계를 포함한다.
상기 예에서, 상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정함으로써, 제1 목표 파라미터 값에 기반하여 제1 보정 특징을 결정할 수 있어, 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
하나의 예에서, 상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계는, 상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻는 단계를 포함한다. 상기 예에서, 상기 제1 목표 파라미터의 값 범위가 기설정된 구간이 아닌 경우, 상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱을 상기 제1 특징에 대응하는 제1 잔차 성분으로 취함으로써, 제1 잔차 성분을 정확하게 결정할 수 있다.
하나의 예에서, 상기 제1 잔차 성분 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계는, 상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하는 단계를 포함한다. 상기 예에서, 상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정함으로써, 제1 보정 특징을 빠르고 정확하게 결정할 수 있다.
단계 S14에서, 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득한다.
일부 실시예에서, 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계는, 최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계를 포함한다. 상기 구현방식에서, 최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 제1 보정 특징을 획득하고, 이러한 방식으로 획득된 제1 보정 특징에 기반하여 얼굴 인식을 수행함으로써, 얼굴 인식의 정확도를 향상시킬 수 있다.
일부 실시예에서, 상기 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하기 전에, 상기 얼굴 인식 방법은, 임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하는 단계; 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계; 상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계; 및 상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하는 단계를 더 포함한다.
상기 구현방식에서, 목표대상은 얼굴 인식 모델을 훈련시키기 위한 대상을 지칭할 수 있다. 목표 대상의 개수는 복수 개일 수 있고, 각 목표 대상에 대응하는 모든 얼굴 이미지는 동일한 사람의 얼굴 이미지일 수 있다. 각 목표 대상은 복수의 얼굴 이미지에 대응할 수 있고, 각 목표 대상에 대응하는 복수의 얼굴 이미지는 목표 파라미터 조건을 충족하는 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 얼굴 이미지를 포함할 수 있다.
상기 구현방식에서, 임의의 목표 대상에 대응하는 복수의 얼굴 이미지의 목표 파라미터 값에 따라, 상기 복수의 얼굴 이미지로부터 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정한다.
상기 구현방식에서, 목표 파라미터 조건은, 목표 파라미터 값이 특정 지정된 구간에 속하고, 목표 파라미터 값이 특정 임계값보다 작거나 같으며, 목표 파라미터 값이 특정 임계값보다 크거나 같으며, 목표 파라미터 값의 절대값이 특정 임계값보다 작거나 같으며, 목표 파라미터 값의 절대값이 특정 임계값보다 크거나 같은 것 중 어느 하나일 수 있다. 당업자는 실제 적용 장면 요구 사항에 따라 유연하게 목표 파라미터 조건을 설정할 수 있으며, 본 출원의 실시예는 이를 한정하지 않는다. 예를 들어, 목표 파라미터는 얼굴 각도를 포함하고, 목표 파라미터 조건은 얼굴 각도의 절대값이 각도 임계값보다 작은 것을 포함하며, 여기서, 각도 임계값은 0보다 크거나 같다. 또 다른 예로서, 목표 파라미터는 흐림 정도를 포함하고, 목표 파라미터 조건은 흐림 정도가 흐림 정도 임계값보다 작은 것을 포함하며, 여기서, 흐림 정도 임계값은 0보다 크거나 같다. 또 다른 예로서, 목표 파라미터는 차폐 비율을 포함하고, 목표 파라미터 조건은 차폐 비율이 차폐 비율 임계값보다 작은 것을 포함하며, 여기서, 차폐 비율 임계값은 0보다 크거나 같다.
상기 구현방식에서, 상기 임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하기 전에, 임의의 목표 대상에 대응하는 복수의 얼굴 이미지의 목표 파라미터 값을 획득할 수 있다. 하나의 예에서, 목표 파라미터가 얼굴 각도인 경우, dlib 또는 opencv 등 오픈 소스 도구를 통해 임의의 목표 대상에 대응하는 복수의 얼굴 이미지의 얼굴 각도 값을 각각 획득한다. 상기 예에서, 피치 각도, 롤 각도 및 요 각도 중 하나 또는 복수 개 각도를 획득할 수 있다. 예를 들어, 얼굴 이미지에서의 얼굴의 요 각도를 상기 얼굴 이미지의 얼굴 각도 값으로 획득할 수 있다.
하나의 예에서, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계는, 복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하는 단계; 및 상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계를 포함한다.
상기 예에서, 복수의 제2 얼굴 이미지가 존재하는 경우, 복수의 제2 얼굴 이미지의 특징에 따라 제2 특징을 획득함으로써, 얼굴 인식 모델의 안정성을 향상시키는데 도움이 된다.
하나의 예에서, 상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계는, 상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하는 단계를 포함한다. 상기 예에서, 상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정함으로써, 상기 얼굴 인식 모델의 안정성을 더 향상시키는데 도움이 된다.
다른 하나의 예에서, 상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계는, 상기 복수의 제2 얼굴 이미지에 대응하는 가중치에 따라, 상기 복수의 제4 특징을 가중하여, 상기 제2 특징을 획득하는 단계를 포함한다. 상기 예에서, 임의의 목표 파라미터 조건을 충족하는 제2 얼굴 이미지에 대응하는 가중치는 상기 제2 얼굴 이미지의 목표 파라미터 값에 따라 결정되며, 목표 파라미터 값이 최적의 목표 파라미터 값에 가까울수록, 상기 제2 얼굴 이미지에 대응하는 가중치는 커진다. 예를 들어, 목표 파라미터가 얼굴 각도이면, 최적의 얼굴 각도 값은 0일 수 있고; 목표 파라미터가 흐림 정도이면, 최적의 흐림 정도 값은 0일 수 있으며; 목표 파라미터가 차폐 비율이면, 최적의 차폐 비율 값은 0일 수 있다.
하나의 예에서, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계는, 하나의 제2 얼굴 이미지만 존재할 경우, 상기 제2 얼굴 이미지에 대해 특징 추출을 수행하고, 상기 제2 얼굴 이미지에 대응하는 특징을 상기 제2 특징으로 취하는 단계를 포함한다.
하나의 예에서, 목표 대상의 얼굴 이미지에 대해 특징 추출을 수행한 후, 추출된 특징을 저장하여, 동일한 얼굴 이미지에 대해 특징 추출을 중복하여 수행하지 않고 저장된 얼굴 이미지의 특징을 후속 훈련에서 중복하여 사용할 수 있다.
하나의 예에서, 상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계; 및 상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계를 포함한다.
상기 예에서, 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 결합하여, 상기 제3 특징을 보정하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득한다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계; 및 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계를 포함한다.
상기 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득고, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득함으로써, 상기 얼굴 인식 모듈로 하여금 잔차 학습을 수행하도록 할 수 있어, 특징을 보정하는 능력을 획득한다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함한다. 상기 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득함으로써, 이러한 방식으로 획득된 제2 잔차 특징에 기반하여 비교적 정확한 보정 특징을 획득할 수 있다.
상기 구현방식에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하는데 한정되지 않고, 또한 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 다른 타입의 처리를 수행할 수 있다. 예를 들어, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 대신 완전 컨볼루션 처리를 수행할 수 있다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함한다.
상기 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득함으로써, 계산량을 절약할 수 있어, 계산 속도를 향상시킬 수 있고; 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 멀티 단계 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득함으로써, 상기 얼굴 인식 모델의 성능을 향상시키는데 도움이 된다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 2 단계 완전 연결 처리 및 활성화 처리를 수행하여, 즉, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리, 활성화 처리, 완전 연결 처리 및 활성화 처리를 순차적으로 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득할 수 있다.
하나의 예에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일하다. 상기 예에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수를 일치하도록 함으로써, 훈련하여 획득된 얼굴 인식 모델의 성능을 확보하는데 도움이 된다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계; 및 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계를 포함한다.
상기 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정함으로써, 상기 제2 목표 파라미터 값에 기반하여 제2 보정 특징을 결정하며, 이러한 방식으로 훈련하여 획득된 얼굴 인식 모델은 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하는 단계를 포함한다. 상기 예에서, 상기 제2 목표 파라미터의 값 범위가 기설정된 구간이 아닌 경우, 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 상기 제2 특징에 대응하는 제3 잔차 성분으로 취함으로써, 제2 잔차 성분을 정확하게 결정할 수 있다.
다른 하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하는 단계를 포함한다. 상기 예에서, 상기 제2 목표 파라미터의 값 범위가 기설정된 구간과 동일하면, 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 곱을 상기 제3 특징에 대응하는 제2 잔차 성분으로 취할 수 있다.
하나의 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계는, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하는 단계를 포함한다. 상기 예에서, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정함으로써, 제2 보정 특징을 빠르고 정확하게 결정할 수 있다.
상기 구현방식에서, 상기 얼굴 인식 모델의 훈련 목표는, 상기 제3 특징에 대응하는 제2 보정 특징을 상기 제2 특징에 가깝게 만드는 것이므로, 하나의 예에서, 상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계는, 상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하는 단계를 포함할 수 있다. 예를 들어, 상기 제2 보정 특징과 상기 제2 특징의 차이값의 젭곱을 상기 손실 함수의 값으로 결정할 수 있다.
도 3은 본 출원의 실시예에서 제공한 얼굴 인식 방법에서 얼굴 인식 모델의 훈련 과정의 모식도를 도시한다. 도 3에 도시된 예에서, 목표 파라미터는 얼굴 각도이고, 상기 얼굴 인식 모델을 통해 상기 제3 특징(f_train)에 대해 완전 연결 처리(fc 1), 활성화 처리(relu 1), 완전 연결 처리(fc 2) 및 활성화 처리(relu 2)를 순차적으로 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하며, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제3 얼굴 이미지의 제2 목표 파라미터 값(yaw)의 정규화 값(yaw_norm)의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하며, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징(f_out)으로 결정한다. 목표 파라미터는 얼굴 각도인 예에서, 얼굴 각도 값이 20°보다 작을 때, 상기 제3 특징에 대응하는 제2 보정 특징은 상기 제3 특징에 가깝고; 얼굴 각도 값이 50°보다 클 때, 제2 잔차 성분은 더이상 0에 가까워지지 않으며, 제3 특징은 보정된다.
상기 구현방식에서, 얼굴 인식 모델이 특징 방면에서 보정되고, 즉, 보정된 이미지(예를 들어, 제3 얼굴 이미지의 보정 이미지를 획득할 필요가 없음)를 획득할 필요가 없고, 보정 특징만 획득해야 함으로써, 보정된 이미지를 획득하는 과정에서 발생하는 노이즈를 피할 수 있어, 얼굴 인식 정확도를 더 향상시키는데 도움이 된다.
상기 구현방식에 따라 훈련하여 획득된 파라미터 수렴 얼굴 인식 모델은 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 특징을 목표 파라미터 조건을 충족하는 특징으로 보정할 수 있으므로, 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시킬 수 있다.
본 출원의 실시예에서, 인식될 제1 얼굴 이미지의 목표 파라미터 값과 최적의 목표 파라미터 값 사이의 거리가 작을수록, 제1 특징에 대응하는 제1 보정 특징은 제1 특징에 더욱 가까워지며; 제1 얼굴 이미지의 목표 파라미터 값과 최적의 목표 파라미터 값의 거리가 클수록, 제1 특징에 대응하는 제1 보정 특징과 제1 특징의 차이가 커진다. 따라서, 본 출원의 실시예에서 제공한 얼굴 인식 방법을 사용하여 목표 파라미터 조건을 충족하지 않는 얼굴 이미지의 얼굴 인식의 정확도를 향상시키는데 도움이 되고, 목표 파라미터 조건을 충족하는 얼굴 이미지의 얼굴 인식의 정확도에 영향을 미치지 않는다.
이해할 수 있는 것은, 본 출원의 실시예에서 언급된 상기 각 방법 실시예는, 원리 논리를 벗어나지 않는 조건 하에, 모두 서로 결합되어 결합 후의 실시예를 구성할 수 있고, 편폭의 제한으로, 본 출원의 실시예에서는 더이상 설명하지 않는다.
본 분야의 기술자는 구체적인 실시형태의 상기 이미지 재구성 방법에서, 각 단계의 기록 순서는 엄격한 실행 순서를 의미하지 않고 실시 과정에 대한 임의의 제한을 구성하며, 각 단계의 구체적인 실행 순서는 그 기능 및 가능한 내부 논리에 의해 결정된다.
또한, 본 출원의 실시예는 얼굴 인식 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체, 프로그램을 제공하였으며, 상기는 모두 본 출원의 실시예에서 제공한 얼굴 인식 방법 중 어느 하나를 구현하는데 사용될 수 있으며, 해당 기술방안 및 설명은 방법 부분의 해당 설명을 참조하며, 여기서 더이상 반복하여 설명하지 않는다.
도 4는 본 출원의 실시예에서 제공한 얼굴 인식 장치의 블록도를 도시한다. 도 4에 도시된 바와 같이, 상기 얼굴 인식 장치는, 인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하도록 구성된 제1 추출 모듈(41); 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하도록 구성된 제2 추출 모듈(42); 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된 처리 모듈(43); 및 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하도록 구성된 획득 모듈(44)을 포함한다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고; 상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일하다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하고; 상기 제1 잔차 얼굴 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하도록 구성된다.
일부 실시예에서, 목표 파라미터는 얼굴 각도, 흐림 정도 또는 차폐 비율을 포함한다.
일부 실시예에서, 상기 처리 모듈(43)은, 최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하도록 구성된다.
일부 실시예에서, 상기 얼굴 인식 장치는, 임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하도록 구성된 결정 모듈; 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하도록 구성된 제3 추출 모듈; 상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하도록 구성된 획득 모듈; 및 상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하도록 구성된 최적화 모듈을 더 포함한다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하고; 상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하고; 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은 상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일하다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하고; 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하도록 구성된다.
일부 실시예에서, 상기 제3 추출 모듈은, 복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하고; 상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하도록 구성된다.
일부 실시예에서, 상기 제3 추출 모듈은, 상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하도록 구성된다.
일부 실시예에서, 상기 획득 모듈(44)은, 상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하도록 구성된다.
일부 실시예에서, 본 발명의 실시예에서 제공한 장치가 갖고 있는 기능 또는 포함하는 모듈은 전술한 방법 실시예에서 설명한 방법을 실행하도록 구성될 수 있고, 그 구체적인 구현은 전술한 방법 실시예의 설명을 참조할 수 있으며, 간결함을 위해, 여기서 더이상 반복하여 설명하지 않는다.
본 출원의 실시예는 또한 컴퓨터 프로그램 명령어가 기록된 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 프로세서에 의해 실행될 때 상기 이미지 처리 방법을 구현한다. 컴퓨터 판독 가능한 저장 매체는 비휘발성 컴퓨터 판독 가능한 저장 매체일 수 있다.
본 출원의 실시예는 또한 전자 기기를 제공하며, 프로세서; 및 프로세서 실행 가능 명령어를 저장하도록 구성된 메모리를 포함하며; 여기서, 상기 프로세서는 상기 얼굴 인식 방법을 실행하도록 구성된다.
전자 기기는 단말, 서버 또는 다른 형태의 기기로 제공될 수 있다.
도 5는 본 출원의 실시예에서 제공한 전자 기기(800)의 블록도를 도시한다. 예를 들어, 전자 기기(800)는 휴대폰, 컴퓨터, 디지털 방송 단말, 메시징 기기, 게임 콘솔, 태블릿 기기, 의료 기기, 피트니스 기기, 개인 휴대용 단말 등 단말일 수 있다.
도 5를 참조하면, 전자 기기(800)는 처리 컴포넌트(802), 메모리(804), 전원 컴포넌트(806), 멀티미디어 컴포넌트(808), 오디오 컴포넌트(810), 입력/출력(Input/Output, I/O) 인터페이스(812), 센서 컴포넌트(814) 및 통신 컴포넌트(816) 중 하나 또는 복수 개의 컴포넌트를 포함할 수 있다.
처리 컴포넌트(802)는 일반적으로 디스플레이, 전화 통화, 데이터 통신, 카메라 동작 및 기록 동작과 관련된 동작과 같은 전자 기기(800)의 전체적인 동작을 제어한다. 처리 컴포넌트(802)는 상기 이미지 재구성 방법 단계의 전부 또는 일부를 구현하기 위한 명령어를 실행하기 위한 하나 또는 복수 개의 프로세서(820)를 포함할 수 있다. 또한, 처리 컴포넌트(802)는 처리 컴포넌트(802) 및 다른 컴포넌트 사이의 인터랙션을 용이하게 하기 위한 하나 또는 복수 개의 모듈을 포함할 수 있다. 예를 들어, 처리 컴포넌트(802)는 멀티미디어 컴포넌트(808) 및 처리 컴포넌트(802) 사이의 인터랙션을 용이하게 하기 위한 멀티미디어 모듈을 포함할 수 있다.
메모리(804)는 전자 기기(800)의 동작을 지원하기 위해 다양한 타입의 데이터를 저장하도록 구성된다. 이러한 데이터의 예는 전자 기기(800)에서 동작하는 임의의 애플리케이션 프로그램 또는 방법의 명령어, 연락인 데이터, 전화번호부 데이터, 메시지, 사진, 비디오 등을 포함한다. 메모리(804)는 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 전기적 소거 가능한 프로그래머블 읽기 전용 메모리(Electrically Erasable Programmable Read Only Memory, EEPROM), 소거 가능한 프로그래머블 읽기 전용 메모리(Erasable Programmable Read Only Memory, EPROM), 프로그래머블 읽기 전용 메모리(Programmable Read Only Memory, PROM), 읽기 전용 메모리(Read Only Memory, ROM), 자기 메모리, 플래시 메모리, 자기 디스크 또는 광 디스크 중 어느 한 타입의 휘발성 또는 비휘발성 저장 기기 또는 이들의 조합에 의해 구현될 수 있다.
전원 컴포넌트(806)는 전자 기기(800)의 다양한 컴포넌트에 전원을 공급한다. 전원 컴포넌트(806)는 전원 관리 시스템, 하나 또는 복수 개의 전원 및 전자 기기(800)를 위해 전원을 생성, 관리 및 분배하는 것과 관련된 다른 컴포넌트를 포함할 수 있다.
멀티미디어 컴포넌트(808)는 상기 전자 기기(800) 및 사용자 사이의 하나의 출력 인터페이스를 제공하는 스크린을 포함한다. 일부 실시예에 있어서, 스크린은 액정 모니터(Liquid Crystal Display, LCD) 및 터치 패널(Touch Panel, TP)을 포함할 수 있다. 스크린이 터치 패널을 포함하는 경우, 사용자로부터의 입력 신호를 수신하기 위해 스크린은 터치 스크린으로서 구현될 수 있다. 터치 패널은 터치, 스와이프 및 터치 패널 상의 제스처를 감지하기 위한 하나 또는 복수 개의 터치 센서를 포함한다. 상기 터치 센서는 터치 또는 스와이프 동작의 경계를 감지할 뿐만 아니라 상기 터치 또는 스와이프 동작과 관련된 지속 시간 및 압력을 감지할 수 있다. 일부 실시에에 있어서, 멀티미디어 컴포넌트(808)는 하나의 전방 카메라 및 하나의 후방 카메라 중 적어도 하나를 포함한다. 전자 기기(800)가 촬영 모드 또는 비디오 모드와 같은 동작 모드에 있을 경우, 전방 카메라 및 후방 카메라 중 적어도 하나는 외부의 멀티미디어 데이터를 수신할 수 있다. 각 전방 카메라 및 후방 카메라는 하나의 고정된 광학 렌즈 시스템이거나 초점 거리 및 광학 줌 기능을 구비할 수 있다.
오디오 컴포넌트(810)는 오디오 신호를 출력 및/또는 입력하도록 구성된다. 예를 들어, 오디오 컴포넌트(810)는 하나의 마이크(MIC)를 포함하고, 전자 기기(800)가 통화 모드, 녹음 모드 및 음성 인식과 같은 동작 모드에 있을 때 외부 오디오 신호를 수신하도록 구성된다. 수신된 오디오 신호는 메모리(804)에 추가로 저장되거나 통신 컴포넌트(816)에 의해 송신될 수 있다. 일부 실시예에 있어서, 오디오 컴포넌트(810)는 오디오 신호를 출력하기 위한 하나의 스피커를 더 포함한다.
I/O 인터페이스(812)는 처리 컴포넌트(802)와 외부 인터페이스 모듈 사이에서 인터페이스를 제공하고, 상기 외부 인터페이스 모듈은 키보드, 클릭 휠, 버튼 등일 수 있다. 이러한 버튼은 홈 버튼, 볼륨 버튼, 시작 버튼 및 잠금 버튼을 포함할 수 있지만 이에 한정되지 않는다.
센서 컴포넌트(814)는 전자 기기(800)에 대해 다양한 측면의 상태 평가를 제공하기 위한 하나 또는 복수 개의 센서를 포함한다. 예를 들어, 센서 컴포넌트(814)는 전자 기기(800)의 온/오프 상태, 상기 컴포넌트가 전자 기기(800)에 대한 디스플레이 및 키패드와 같은 컴포넌트의 상대적 위치를 검출할 수 있으며, 센서 컴포넌트(814)는 또한, 전자 기기(800) 또는 전자 기기(800)의 하나의 컴포넌트의 위치 변화, 사용자가 전자 기기(800)와의 접촉의 존재 또는 부재, 전자 기기(800) 방향 또는 가속/감속 및 전자 기기(800)의 온도 변화를 검출할 수 있다. 센서 컴포넌트(814)는 그 어떤 물리적 접촉이 없이 근처의 물체의 존재를 검출하도록 구성된 근접 센서를 포함할 수 있다. 센서 컴포넌트(814)는 또한 이미징 애플리케이션에 사용하기 위한 상보적 금속 산화물 반도체(Complementary Metal Oxide Semiconductor, CMOS) 또는 전하 결합 장치(Charge Coupled Device, CCD) 이미지 센서와 같은 광 센서를 포함할 수 있다. 일부 실시예에 있어서, 상기 센서 컴포넌트(814)는 가속도 센서, 자이로 센서, 자기 센서, 압력 센서 또는 온도 센서를 더 포함할 수 있다.
통신 컴포넌트(816)는 전자 기기(800)와 다른 기기 사이의 유선 또는 무선 방식으로 통신을 용이하게 하도록 구성된다. 전자 기기(800)는 WiFi, 2G 또는 3G 또는 이들의 조합과 같은 통신 기준에 기반한 무선 인터넷에 액세스할 수 있다. 일 예시적 실시예에서, 통신 컴포넌트(816)는 방송 채널을 통해 외부 방송 관리 시스템으로부터의 방송 신호 또는 방송 관련 정보를 수신한다. 예시적 실시예에서, 상기 통신 컴포넌트(816)는 근거리 통신을 추진하는 근거리 무선 통신(Near Field Communication, NFC) 모듈을 더 포함한다. 예를 들어, NFC 모듈은 무선 주파수 식별(Radio Frequency Identification, RFID) 기술, 적외선 데이터 연관(Infrared Data Association, IrDA) 기술, 초광대역(Ultra Wide Band, UWB) 기술, 블루투스(Bluetooth, BT) 기술 및 다른 기술을 기반으로 할 수 있다.
예시적 실시예에서, 전자 기기(800)는 상기 이미지 재구성 방법을 실행하기 위해, 하나 또는 복수 개의 주문형 집적 회로(ApplicationSpecificIntegratedCircuit, ASIC), 디지털 신호 프로세서(Digital Signal Processor, DSP), 디지털 신호 처리 장치(Digital Signal Processing Devices, DSPD), 프로그래머블 논리 장치(Programmable Logic Device, PLD), 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 또는 다른 전자 소자에 의해 구현될 수 있다.
예시적 실시예에서 또한, 컴퓨터 프로그램 명령어를 포함하는 메모리(804)와 같은 비휘발성 컴퓨터 판독 가능 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 상기 이미지 재구성 방법을 완성하기 위해 전자 기기(800)의 프로세서(820)에 의해 실행될 수 있다.
도 6은 본 출원의 실시예에 따른 다른 전자 기기(1900)의 블록도를 도시한다. 예를 들어, 전자 기기(1900)는 하나의 서버로 제공될 수 있다. 도 6을 참조하면, 전자 기기(1900)는 하나 또는 복수 개의 프로세서를 더 포함하는 처리 컴포넌트(1922), 및 처리 컴포넌트(1922)에 의해 실행되는 명령어를 저장하기 위한 메모리(1932)로 대표되는 메모리 자원을 포함한다. 메모리(1932)에 저장된 애플리케이션은 하나 또는 하나 이상의 한 세트의 명령어에 각각 대응되는 모듈을 포함할 수 있다. 또한, 처리 컴포넌트(1922)는 상기 이미지 재구성 방법을 실행하기 위해 명령어를 실행하도록 구성된다.
전자 기기(1900)는 전자 기기(1900)의 전원 관리를 실행하도록 구성된 하나의 전원 컴포넌트(1926), 전자 기기(1900)를 네트워크에 연결하도록 구성된 하나의 유선 또는 무선 네트워크 인터페이스(1950) 및 하나의 입력/출력(I/O) 인터페이스(1958)를 더 포함할 수 있다. 전자 기기(1900)는 Windows Server TM, Mac OS X TM, Unix TM, Linux TM, FreeBSD TM 또는 유사한 메모리(1932)에 저장된 운영체에에 기반하여 동작될 수 있다.
예시적 실시예에 있어서, 컴퓨터 프로그램 명령어를 포함하는 메모리(1932)와 같은 비휘발성 컴퓨터 판독 가능한 저장 매체를 제공하며, 상기 컴퓨터 프로그램 명령어는 상기 이미지 재구성 방법을 완료하도록 전자 기기(1900)의 처리 컴포넌트(1922)에 의해 실행된다.
본 출원의 실시예는 시스템, 방법 및 컴퓨터 프로그램 제품 중 적어도 하나일 수 있다. 컴퓨터 프로그램 제품은 컴퓨터 판독 가능한 저장 매체를 포함할 수 있고, 컴퓨터 판독 가능한 저장 매체에는 프로세서가 본 출원의 실시예의 각 측면을 구현하도록 하는 컴퓨터 판독 가능한 프로그램 명령어가 존재한다.
컴퓨터 판독 가능 저장 매체는 명령어 실행 기기에 의해 실행되는 명령어를 유지 및 저장할 수 있는 타입의 기기일 수 있다. 컴퓨터 판독 가능한 저장 매체는 예를 들어 축전 기기, 자기 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기 또는 전술한 축전 기기, 자기 저장 기기, 광 저장 기기, 전자기 저장 기기, 반도체 저장 기기의 임의의 적절한 조합일 수 있지만 이에 한정되지 않는다. 컴퓨터 판독 가능한 저장 매체의 더 구체적인 예는(비제한 리스트), 휴대용 컴퓨터 디스크, 하드 디스크, 랜덤 액세스 메모리(Random Access Memory, RAM), 판독 전용 메모리(Read Only Memory, ROM) 및 소거 가능하고 프로그램 가능한 판독 전용 메모리((Erasable Programmable Read Only Memory, EPROM) 또는 플래시 메모리), 정적 랜덤 액세스 메모리(Static Random Access Memory, SRAM), 휴대용 컴팩트 디스크 판독 전용 메모리(Portable Compact Disk Read-Only Memory, CD-ROM), DVD (Digital Versatile Disk), 메모리 스틱, 플로피 디스크, 명령어가 기록된 장치와 같은 기계적 코딩 장치 홀 카드 또는 그루브에서의 볼록한 구조 및 전술한 임의의 적절한 조합을 포함한다. 여기서 사용되는 컴퓨터 판독 가능한 저장 매체는 무선 전자파 또는 다른 자유롭게 전파되는 전자기파, 도파관 또는 다른 전송 매체를 통해 전파되는 전자기파(예를 들어, 광섬유 케이블을 통한 광펄스), 또는 와이어를 통해 전송되는 전기 신호와 같은 순간 신호 자체로 해석되지 않아야 한다.
여기서 설명한 컴퓨터 판독 가능한 프로그램 명령어는 컴퓨터 판독 가능한 저장 매체로부터 각 컴퓨팅/처리 기기로 다운 로드될 수 있거나, 인터넷, 근거리 통신망, 광역 통신망 및 무선 네트워크 중 적어도 하나와 같은 네트워크를 통해, 외부 컴퓨터 또는 외부 저장 기기로 다운 로드될 수 있다. 네트워크는 동 전송 케이블, 광섬유 전송, 무선 전송, 라우터, 방화벽, 교환기, 게이트웨이 컴퓨터 및 에지 서버 중 적어도 하나를 포함할 수 있다. 각 컴퓨팅/처리 기기의 네트워크 어댑터 카드 또는 네트워크 인터페이스는 네트워크로부터 컴퓨터 판독 가능한 프로그램 명령어를 수신하고, 각 컴퓨팅/처리 기기에서의 컴퓨터 판독 가능한 저장 매체에 저장하기 위해, 컴퓨터 판독 가능한 프로그램 명령어를 전달한다.
본 출원의 실시예의 동작을 실행하기 위한 컴퓨터 프로그램 명령어는 어셈블리 명령어, 명령어 세트 아키텍처(Instruction Set Architecture, ISA) 명령어, 머신 명령어, 머신 관련 명령어, 마이크로 코드, 펌웨어 명령어, 상태 설정 데이터, 또는 하나 또는 하나 이상의 프로그래밍 언어의 임의의 조합으로 작성된 소스 코드 또는 객체 코드일 수 있고, 상기 프로그래밍 언어에는 스몰 토크, C++ 등과 같은 객체 지향 프로그래밍 언어 및 "C" 언어 또는 유사한 프로그래밍 언어와 같은 기존 프로그래밍 언어가 포함된다. 컴퓨터 판독 가능 프로그램 명령어는 사용자 컴퓨터에서 완전히 실행되거나, 사용자 컴퓨터에서 부분적으로 실행되거나, 독립적인 소프트웨어 패키지로서 실행되거나, 사용자 컴퓨터에서 일부가 실행되고 원격 컴퓨터에서 일부가 실행되거나, 원격 컴퓨터 또는 서버에서 완전히 실행될 수 있다. 원격 컴퓨터와 관련된 상황에서 원격 컴퓨터는 근거리 통신망(Local Area Network, LAN) 또는 광대역 통신망(Wide Area Network, WAN)을 포함하는 모든 타입의 네트워크를 통해 사용자 컴퓨터에 연결되거나 외부 컴퓨터에 연결(예를 들어 인터넷 서비스 제공 업체를 사용하여 인터넷을 통해 연결)될 수 있다. 일부 실시예에 있어서, 프로그램 가능한 논리 회로, 필드 프로그래머블 게이트 어레이(Field Programmable Gate Array, FPGA) 또는 프로그램 가능한 논리 어레이 (Programmable Logic Array, PLA)와 같은 전자 회로는 컴퓨터 판독 가능 프로그램 명령어의 상태 정보를 이용하여 개인화될 수 있고, 상기 전자 회로는 컴퓨터 판독 가능 프로그램 명령어를 실행할 수 있음으로써, 본 발명의 다양한 측면을 구현한다.
여기서 본 출원의 실시예의 다양한 측면은 본 출원의 실시예에 따른 방법, 장치(시스템) 및 컴퓨터 프로그램 제품의 흐름도 및 블록도 중 적어도 하나를 참조하여 설명하였다. 이해해야 할 것은, 흐름도 및/또는 블록도의 각 블록 및 흐름도 및/또는 블록도의 각 블록의 조합은, 모두 컴퓨터 판독 가능 프로그램 명령어에 의해 구현될 수 있다.
이러한 컴퓨터 판독 가능 프로그램 명령어는 범용 컴퓨터, 특수 목적 컴퓨터 또는 다른 프로그래머블 데이터 처리 장치의 프로세서에 제공됨으로써, 기계를 생성하며, 이러한 명령어가 컴퓨터나 다른 프로그래머블 데이터 처리 장치의 프로세서를 통해 실행될 때, 흐름도 및 블록도 중 하나 또는 복수 개의 블록에서 규정한 기능/동작을 구현하기 위한 장치를 생성한다. 이러한 컴퓨터 판독 가능 프로그램 명령어를 컴퓨터 판독 가능 저장 매체에 저장할 수도 있으며, 이러한 명령어는 컴퓨터, 프로그래머블 데이터 처리 장치 및 다른 기기 중 적어도 하나로 하여금 특정 방식으로 작업하도록 함으로써, 명령어가 기록된 컴퓨터 판독 가능 매체는 흐름도 및 블록도 중 하나 또는 복수 개의 블록에서 규정된 기능/동작의 각 측면의 명령어를 포함하는 제조물품을 포함한다.
컴퓨터 판독 가능프로그램 명령어는 컴퓨터, 다른 프로그래머블 데이터 처리 장치, 또는 다른 기기에 로딩되어, 컴퓨터, 다른 프로그래머블 데이터 처리 장치 또는 다른 기기에서 일련의 동작 단계가 실행되도록 하여, 컴퓨터가 구현하는 과정을 생성함으로써, 컴퓨터, 다른 프로그래머블 데이터 처리 장치, 또는 다른 기기에서 실행되는 명령어로 하여금 흐름도 및 블록도 중 하나 또는 복수 개의 블록에서 규정된 기능/동작을 구현하도록 한다.
도면의 흐름도 및 블록도는 본 출원의 실시예의 다양한 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 구현 가능한 체계 아키텍처, 기능 및 동작을 디스플레이한다. 이와 관련하여, 흐름도 또는 블록도의 각 블록은 모듈, 프로그램 세그먼트 또는 명령어의 일부를 나타낼 수 있고, 상기 모듈, 프로그램 세그먼트 또는 명령어의 일부는 하나 또는 복수 개의 지정된 논리적 기능을 구현하기 위한 실행 가능한 명령어를 포함한다. 일부 대안적인 구현에서, 블록에 표시된 기능은 도면에 표시된 것과 다른 순서로 발생할 수도 있다. 예를 들어, 두 개의 연속적인 블록은 실제로 병렬로 실행될 수 있으며, 때로는 관련 기능에 따라 역순으로 실행될 수도 있으며, 이는 관련된 기능에 의해 결정된다. 또한 유의해야 할 것은, 블록도 및 흐름도 중 적어도 하나에서의 각 블록, 및 블록도 및 흐름도 중 적어도 하나에서의 블록의 조합은, 지정된 기능 또는 동작의 전용 하드웨어 기반의 시스템에 의해 구현될 수 있거나, 전용 하드웨어와 컴퓨터 명령어의 조합으로 구현될 수 있다.
이상 본 출원의 각 실시예를 설명하였고, 상기 설명은 예시적이고, 비철저하며, 개시된 각 실시예에 한정되지도 않는다. 설명된 각 실시예의 범위 및 사상을 벗어나지 않는 한, 많은 수정 및 변경은 본 기술분야의 기술자에게는 자명한 것이다. 본 명세서에서 사용된 용어의 선택은 각 실시예의 원리, 실제 응용 또는 시장에서의 기술에 대한 기술 개선을 가장 잘 해석하거나, 당업자가 본 명세서에 개시된 각 실시예를 이해할 수 있도록 의도된다.
본 출원의 실시예는 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체를 제공한다. 상기 얼굴 인식 방법은, 인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하는 단계; 상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하는 단계; 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계; 및 상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하는 단계를 포함한다. 본 출원의 실시예는 얼굴 이미지의 특징을 보정하여, 얼굴 인식의 정확도를 향상시킬 수 있다.

Claims (46)

  1. 얼굴 인식 방법으로서,
    인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하는 단계;
    상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하는 단계;
    상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계; 및
    상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  2. 제1항에 있어서,
    상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는,
    상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계; 및
    상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  3. 제2항에 있어서,
    상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는,
    상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  4. 제3항에 있어서,
    상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계는,
    상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  5. 제3항 또는 제4항에 있어서,
    상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일한 것을 특징으로 하는 얼굴 인식 방법.
  6. 제2항 내지 제5항 중 어느 한 항에 있어서,
    상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하는 단계는,
    상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계; 및
    상기 제1 잔차 얼굴 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  7. 제6항에 있어서,
    상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하는 단계는,
    상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  8. 제6항 또는 제7항에 있어서,
    상기 제1 잔차 성분 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하는 단계는,
    상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    목표 파라미터는 얼굴 각도, 흐림 정도 또는 차폐 비율을 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계는,
    최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  11. 제10항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하기 전에, 상기 얼굴 인식 방법은,
    임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하는 단계;
    상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계;
    상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계; 및
    상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  12. 제11항에 있어서,
    상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계; 및
    상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  13. 제12항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계; 및
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  14. 제13항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  15. 제14항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  16. 제14항 또는 제15항에 있어서,
    상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일한 것을 특징으로 하는 얼굴 인식 방법.
  17. 제12항 내지 제16항 중 어느 한 항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계; 및
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  18. 제17항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  19. 제17항 또는 제18항에 있어서,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하는 단계는,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  20. 제11항 내지 제19항 중 어느 한 항에 있어서,
    상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하는 단계는,
    복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하는 단계; 및
    상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  21. 제20항에 있어서,
    상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하는 단계는,
    상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  22. 제12항 내지 제19항 중 어느 한 항에 있어서,
    상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하는 단계는,
    상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  23. 얼굴 인식 장치로서,
    인식될 제1 얼굴 이미지의 제1 목표 파라미터 값을 추출하도록 구성된 제1 추출 모듈;
    상기 제1 얼굴 이미지에 대해 특징 추출을 수행하여, 상기 제1 얼굴 이미지에 대응하는 제1 특징을 획득하도록 구성된 제2 추출 모듈;
    상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된 처리 모듈; 및
    상기 제1 보정 특징에 기반하여, 상기 제1 얼굴 이미지의 얼굴 인식 결과를 획득하도록 구성된 획득 모듈을 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  24. 제23항에 있어서,
    상기 획득 모듈은,
    상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하고;
    상기 제1 잔차 특징, 상기 제1 목표 파라미터 값 및 상기 제1 특징을 처리하여, 상기 제1 특징에 대응하는 제1 보정 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  25. 제24항에 있어서,
    상기 획득 모듈은,
    상기 제1 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  26. 제25항에 있어서,
    상기 획득 모듈은,
    상기 제1 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제1 특징에 대응하는 제1 잔차 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  27. 제25항 또는 제26항에 있어서,
    상기 제1 특징에 대해 완전 연결 처리를 수행하여 획득한 특징의 차원수는 상기 제1 특징의 차원수와 동일한 것을 특징으로 하는 얼굴 인식 장치.
  28. 제24항 내지 제27항 중 어느 한 항에 있어서,
    상기 획득 모듈은,
    상기 제1 잔차 특징 및 상기 제1 목표 파라미터 값에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 결정하고;
    상기 제1 잔차 얼굴 및 상기 제1 특징에 따라, 상기 제1 특징에 대응하는 제1 보정 특징을 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  29. 제28항에 있어서,
    상기 획득 모듈은,
    상기 제1 잔차 특징과 상기 제1 목표 파라미터 값의 정규화 값의 곱에 따라, 상기 제1 특징에 대응하는 제1 잔차 성분을 얻도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  30. 제28항 또는 제29항에 있어서,
    상기 획득 모듈은,
    상기 제1 잔차 성분과 상기 제1 특징의 합을 상기 제1 특징에 대응하는 제1 보정 특징으로 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  31. 제23항 내지 제30항 중 어느 한 항에 있어서,
    목표 파라미터는 얼굴 각도, 흐림 정도 또는 차폐 비율을 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  32. 제23항 내지 제31항 중 어느 한 항에 있어서,
    상기 처리 모듈은,
    최적화된 얼굴 인식 모델을 통해 상기 제1 특징 및 상기 제1 목표 파라미터 값을 처리하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  33. 제32항에 있어서,
    상기 얼굴 인식 장치는,
    임의의 목표 대상의 복수의 얼굴 이미지에 따라 목표 파라미터 조건을 충족하는 제2 얼굴 이미지 및 상기 목표 파라미터 조건을 충족하지 않는 제3 얼굴 이미지를 결정하도록 구성된 결정 모듈;
    상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 제2 얼굴 이미지 및 상기 제3 얼굴 이미지에 각각 대응하는 제2 특징 및 제3 특징을 획득하도록 구성된 제3 추출 모듈;
    상기 제2 특징 및 상기 제3 특징에 따라, 손실 함수를 획득하도록 구성된 획득 모듈; 및
    상기 손실 함수에 기반하여 얼굴 인식 모델에 대해 역전파를 수행하여, 상기 최적화된 얼굴 인식 모델을 획득하도록 구성된 최적화 모듈을 더 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  34. 제33항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제3 특징 및 상기 제3 얼굴 이미지의 제2 목표 파라미터 값을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하고;
    상기 제2 특징 및 상기 제2 보정 특징에 따라, 손실 함수를 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  35. 제34항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하고;
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징, 상기 제3 얼굴 이미지의 제2 목표 파라미터 값 및 상기 제3 특징을 처리하여, 상기 제3 특징에 대응하는 제2 보정 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  36. 제35항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  37. 제36항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제3 특징에 대해 1 단계 또는 멀티 단계의 완전 연결 처리 및 활성화 처리를 수행하여, 상기 제3 특징에 대응하는 제2 잔차 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  38. 제36항 또는 제37항에 있어서,
    상기 제3 특징에 대해 완전 연결 처리를 수행하여 획득된 특징의 차원수와 상기 제3 특징의 차원수는 동일한 것을 특징으로 하는 얼굴 인식 장치.
  39. 제34항 내지 제38항 중 어느 한 항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징 및 상기 제2 목표 파라미터 값에 따라, 상기 제3 특징에 대응하는 제2 잔차 성분을 결정하고;
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징에 따라, 상기 제3 특징에 대응하는 제2 보정 특징을 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  40. 제39항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 특징과 상기 제2 목표 파라미터 값의 정규화 값의 곱을 결정하여, 상기 제3 특징에 대응하는 제2 잔차 성분을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  41. 제39항 또는 제40항에 있어서,
    상기 획득 모듈은,
    상기 얼굴 인식 모델을 통해 상기 제2 잔차 성분과 상기 제3 특징의 합을 상기 제3 특징에 대응하는 제2 보정 특징으로 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  42. 제33항 내지 제41항 중 어느 한 항에 있어서,
    상기 제3 추출 모듈은,
    복수의 제2 얼굴 이미지가 존재하는 경우, 상기 복수의 제2 얼굴 이미지에 대해 각각 특징 추출을 수행하여, 상기 복수의 제2 얼굴 이미지에 대응하는 복수의 제4 특징을 획득하고;
    상기 복수의 제4 특징에 따라, 상기 제2 특징을 획득하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  43. 제42항에 있어서,
    상기 제3 추출 모듈은,
    상기 복수의 제4 특징의 평균값을 상기 제2 특징으로 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  44. 제34항 내지 제41항 중 어느 한 항에 있어서,
    상기 획득 모듈은,
    상기 제2 보정 특징과 상기 제2 특징의 차이값에 따라, 상기 손실 함수를 결정하도록 구성된 것을 특징으로 하는 얼굴 인식 장치.
  45. 전자 기기로서,
    프로세서; 및
    프로세서에서 실행 가능한 명령어를 저장하도록 구성된 메모리를 포함하고,
    상기 프로세서는 제1항 내지 제22항 중 어느 한 항에 따른 얼굴 인식 방법을 실행하도록 구성된 것을 특징으로 하는 전자 기기.
  46. 컴퓨터 프로그램 명령어가 기록된 컴퓨터 판독 가능한 저장 매체로서,
    상기 컴퓨터 프로그램 명령어가 프로세서에서 실행될 때 제1항 내지 제22항 중 어느 한 항에 따른 얼굴 인식 방법을 구현하는 것을 특징으로 하는 컴퓨터 판독 가능한 저장 매체.
KR1020217006942A 2019-10-31 2020-04-30 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체 KR20210054522A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911053929.XA CN110826463B (zh) 2019-10-31 2019-10-31 人脸识别方法及装置、电子设备和存储介质
CN201911053929.X 2019-10-31
PCT/CN2020/088384 WO2021082381A1 (zh) 2019-10-31 2020-04-30 人脸识别方法及装置、电子设备和存储介质

Publications (1)

Publication Number Publication Date
KR20210054522A true KR20210054522A (ko) 2021-05-13

Family

ID=69551816

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217006942A KR20210054522A (ko) 2019-10-31 2020-04-30 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체

Country Status (7)

Country Link
US (1) US20210326578A1 (ko)
JP (1) JP7150896B2 (ko)
KR (1) KR20210054522A (ko)
CN (1) CN110826463B (ko)
SG (1) SG11202107252WA (ko)
TW (1) TWI770531B (ko)
WO (1) WO2021082381A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110826463B (zh) * 2019-10-31 2021-08-24 深圳市商汤科技有限公司 人脸识别方法及装置、电子设备和存储介质
CN112101216A (zh) * 2020-09-15 2020-12-18 百度在线网络技术(北京)有限公司 人脸识别方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101475684B1 (ko) * 2008-10-17 2014-12-23 삼성전자주식회사 디지털 영상 처리기에서 얼굴 영상 개선 장치 및 방법
CN106980831A (zh) * 2017-03-17 2017-07-25 中国人民解放军国防科学技术大学 基于自编码器的自亲缘关系识别方法
CN108229313B (zh) * 2017-11-28 2021-04-16 北京市商汤科技开发有限公司 人脸识别方法和装置、电子设备和计算机程序及存储介质
CN109753920B (zh) * 2018-12-29 2021-09-17 深圳市商汤科技有限公司 一种行人识别方法及装置
CN110163169A (zh) * 2019-05-27 2019-08-23 北京达佳互联信息技术有限公司 人脸识别方法、装置、电子设备及存储介质
CN110826463B (zh) * 2019-10-31 2021-08-24 深圳市商汤科技有限公司 人脸识别方法及装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2021082381A1 (zh) 2021-05-06
TWI770531B (zh) 2022-07-11
JP2022508990A (ja) 2022-01-20
SG11202107252WA (en) 2021-07-29
TW202119281A (zh) 2021-05-16
US20210326578A1 (en) 2021-10-21
CN110826463A (zh) 2020-02-21
CN110826463B (zh) 2021-08-24
JP7150896B2 (ja) 2022-10-11

Similar Documents

Publication Publication Date Title
US11532180B2 (en) Image processing method and device and storage medium
US20210326587A1 (en) Human face and hand association detecting method and a device, and storage medium
CN111310616B (zh) 图像处理方法及装置、电子设备和存储介质
US20210012523A1 (en) Pose Estimation Method and Device and Storage Medium
CN109522910B (zh) 关键点检测方法及装置、电子设备和存储介质
JP7110412B2 (ja) 生体検出方法及び装置、電子機器並びに記憶媒体
KR102463101B1 (ko) 이미지 처리 방법 및 장치, 전자 기기 및 저장 매체
US11288531B2 (en) Image processing method and apparatus, electronic device, and storage medium
WO2020155711A1 (zh) 图像生成方法及装置、电子设备和存储介质
CN109934275B (zh) 图像处理方法及装置、电子设备和存储介质
CN109977860B (zh) 图像处理方法及装置、电子设备和存储介质
CN110543849B (zh) 检测器的配置方法及装置、电子设备和存储介质
CN112270288A (zh) 活体识别、门禁设备控制方法和装置、电子设备
KR20210054522A (ko) 얼굴 인식 방법 및 장치, 전자 기기 및 저장 매체
CN111311588B (zh) 重定位方法及装置、电子设备和存储介质
CN113538310A (zh) 图像处理方法及装置、电子设备和存储介质
CN113506324B (zh) 图像处理方法及装置、电子设备和存储介质
CN107992893B (zh) 压缩图像特征空间的方法及装置
CN112949568A (zh) 人脸和人体匹配的方法及装置、电子设备和存储介质
CN112651880A (zh) 视频数据处理方法及装置、电子设备和存储介质
CN117150066B (zh) 汽车传媒领域的智能绘图方法和装置
CN110119652B (zh) 视频的镜头分割方法及装置
CN117893591A (zh) 光幕模板识别方法及装置、设备、存储介质和程序产品
CN116074583A (zh) 根据视频剪辑时间点更正字幕文件时间轴的方法及系统
CN112581399A (zh) 深度图像处理方法及装置、电子设备和存储介质